1

Deutschland sucht den Super-Energieträger

Bild rechts: Noch einmal Bundesministerin Hendricks, Bild LUFF (Wiesbadener Kurier, 26. August 2016)

So bleiben für Deutschland Sonne und Wind übrig. Diese schicken zwar keine Rechnungen, wie es bei „kostenlosen“ Angeboten aber eben ist, erweisen sie sich dafür auch immer mehr als entsprechende Mogelpackungen.
Und wie so oft in der Not, kann da nur weitere Forschung helfen – und sie tut es mit Eifer und Begeisterung:


Screenshot aus dem Veranstaltungsflyer [2]

Gleich eine ganze Hochschulregion mit laut Veranstaltungsflyer [2] sechs Hochschulen hat sich zusammen getan und hilft nun bei der hoffentlich abschließenden Suche. Zwischenzeitlich scheinen die wahren Probleme erkannt und so weiß man, dass dazu kompetente Fachpersonen erforderlich sind, weshalb es jetzt eine entsprechende Schulung für die künftigen EEG-Such-Spezialkräfte gibt.


Screenshot aus dem Veranstaltungsflyer [2]

In dieser erstmals und ganz gezielt ausgerichteten Bildungsmaßnahme werden erkennbar die wirklich wichtigen Basis-Kenntnisse vermittelt, um eine Suche nach dem erhofften Super-Energieträger endlich mit Erfolg durchführen und abschließen zu können.
[2] Flyer_Summer_School_Energie, Unterrichtseinheiten:
-Einführung: Präsentation der Energieeffienzregion Neckar-Alb (Matthias Gienandt, BUND)
-Erneuerbare Energietechnik und ihre Anwendung in Gebäuden
-Produktion und Umwandlung von Rohstoffen
-Die Energiewende
Potenziale erneuerbarer Energien
-Wirtschaftlichkeit erneuerbarer Energien
-Vorstellung Think Lab Energie – Gesellschaft Wandel
-Abschlussveranstaltung
mit Präsentation der Gruppenarbeiten
-14-18 Uhr
Exkursion: Erlebnistour Erneuerbare Energien (Bioenergiedorf/Windkraftanlage)

Der Autor kam nicht umhin, sich zu fragen, ob er das Thema vielleicht grammatikalisch falsch verstanden hat und mit dem „Super-Energieträger“ nicht vielleicht so etwas wie Fackelträger in der Antike und der Neuzeit, welche ja die Energie des olympischen Gedankenfeuers rund um die Welt zu tragen vermögen, gemeint sind. Dem widerspräche allerdings, dass gerade im Grünen Württemberg eisern eingehaltene „Gendern“. Es müssten dann mindestens noch die „-innen“, wenn nicht sogar das 3. und 4. mögliche Geschlechtsverhältnis deutlich erkennbar sein.

Fragen, über Fragen. Doch ein Deutscher Michel kann nun beruhigt schlafen: Frau Hendricks plant konsequent und Deutschlands Intelligenz schult sich für ihn zur Suche nach Lösungen (von Frau Hendricks Planung).

Quellen

[1] EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

http://www.eike-klima-energie.eu/news-cache/frau-hendricks-glaubt-im-klimawahn-klimapaepstin-geworden-zu-sein-und-den-irrglauben-ihrer-buerger-verdammen-zu-duerfen-zu-ihrem-gastbeitrag-weit-verbreiteter-irrglaube-im-handelsblatt1/

[2] Veranstaltungs-Flyer: Flyer_Summer_School_Energie_20160418_V3.pdf




Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde

Damit wird klar, dass alle bisherigen globalen Mittel-Temperaturzeitreihen für den Ihnen zugedachten Zweck der Signalanalyse und ggf. Zuordnung von pot. Ursachen (detection and attribution problem) unbrauchbar sind.

Hinzu kommt die Tatsache, dass diesen Zeitreihen weitere Unsicherheiten anhaften, die aus der Fülle der unvermeidbaren und rückwirkend auch unkorrigierbaren systematischen Fehler entstehen, die wohl ihrem Typ nach bekannt sind aber weder von Richtung und Größe her im Einzelnen bestimmbar sind. Die Vergangenheit ist endgültig vorbei. Die daraus resultierende Unsicherheit liegt bei mindestens± 1 bis ± 2 K. Mit den in der Arbeit ermittelten zufälligen Fehlern ergibt sich eine gesamte minimale Unsicherheit von mindestens bei ± 1,5 bis ± 2,5 K. Daraus folgt, dass keine vernünftige Signalanalyse aus diesen Reihen möglich ist. Die Signale verschwinden im Fehlerrauschen.

Auszug aus einem paper von M. Massah, H. Kantz

Mittelwerte über einen Zeitraum, ein Standardwerkzeug bei der Analyse von Umweltdaten, sind stark von langfristigen Korrelationen betroffen. Die Stichprobengröße, um wie gewünscht ein kleines Vertrauensintervall zu erhalten, kann dramatisch größer sein, als für nicht korrelierte Daten. Wir präsentieren quantitative Ergebnisse für kurz- und langfristige korrelierte Gauss’sche stochastische Prozesse. Mit diesen berechnen wir Vertrauensintervalle für zeitliche Mittelwerte von Temperaturmessungen.Temperatur-Zeitreihen zeichnen sich bekanntlich dadurch aus, dass sie langfristig mit Hurst-Exponenten größer als ½ korreliert sind. Multidekadische Zeit-Mittelwerte werden routinemäßig bei den Studien zum Klimawandel herangezogen. Unsere Analyse zeigt, dass Unsicherheiten derartiger Mittelwerte genauso groß sind wie für ein einzelnes Jahr mit nicht korrelierten Daten.

Kernpunkte

● Im Falle des Vorhandenseins langfristiger Korrelation konvergieren zeitliche Mittelwerte sehr langsam als eine Funktion der Stichprobengröße.

● Wir zeigen, wie man Fehlerbalken berechnet für begrenzte zeitliche Mittelwerte von langfristig korrelierten Daten.

● Die Unsicherheit in einem 30-jährigen Temperatur-Mittelwert in Potsdam beträgt plusminus 0,5°C und in Darwin plusminus 0,4°C.

Einführung

Ein allgemein angewandtes und sehr leicht anzuwendendes Werkzeug bei der Analyse einer Zeitreihe ist es, Mittelwerte aus Einzelwerten zu berechnen. Klimawandel beispielsweise wird zuerst analysiert mittels zeitlicher Mittelwerte meteorologisch relevanter Größen (Temperatur, Niederschlag) über 20 oder 30 Jahre, um interdekadische Fluktuationen heraus zu mitteln. Und dies, obwohl Klimawandel ein sehr komplexes Phänomen mit vielen Facetten ist. Wesentlich detailliertere Studien sind durchführbar und dürften viele weitere Details enthüllen, welche jedoch viel schwerer zu verstehen und viel schwieriger zu integrieren sind in eine allgemeine Perspektive. Daher sind Mittelwerte über die Zeit ein essentielles Werkzeug zum Verständnis von Klimawandel und werden es auch bleiben.

Der präzise Mittelwert einer Stichprobengröße ist abhängig von den Details der Stichprobe und variiert folglich von Stichprobe zu Stichprobe, die alle mit dem gleichen Prozess zustande kommen. Falls der Prozess stationär ist, konvergieren derartige Mittelwerte mit zunehmender Größe der Stichprobe und werden unabhängig von den Details der gewählten Stichprobe. Nur dann repräsentieren sie eine Systemeigenschaft anstatt einer Stichproben-Eigenschaft.

Thema dieser Studie ist die Frage, wie langsam eine solche Konvergenz ablaufen kann, d. h. wie weit ein Mittelwert über ein begrenztes Zeitfenster vom asymptotischen Limit entfernt sein kann. Wir machen dies speziell im Hinblick auf die allgemeine Praxis, ein Zeitfenster von 30 Jahren heranzuziehen, um Klima zu quantifizieren.

Kurz gesagt, wir untersuchen Zeit-Mittelwerte von Zeitreihen-Daten:

Für stationäre ergodische [was das ist? Siehe hier bei Wikipedia! Anm. d. Übers.] Prozesse konvergiert SN im Limit N → zu einem gut definierten Wert, dem Ensemble-Mittel. In der Praxis ist N endlich, und wir wollen untersuchen, wie nahe SN ist als eine Funktion von N. Dies kann man mittels des Konzeptes eines Konfidenz-Intervalls ausdrücken.

Ein Vertrauensintervall von r% ist definiert als das größte Intervall innerhalb der Bandbreite einer Zufallsvariable (hier: SN), und zwar dergestalt, dass deren Wert innerhalb der r%-Wahrscheinlichkeit liegt (Wahrscheinlichkeit = r = 100). Allgemein gebräuchliche Vertrauensintervalle sind Wahrscheinlichkeiten für 95%, 99% und 99,9%. Oftmals wird das Statement invertiert: Ist ein geschätzter Wert irgendeiner Quantität gegeben, liegt dessen wahrer Wert (als Ensemble-Mittel der unbekannten zugrunde liegenden Wahrscheinlichkeits-Verteilung) mit der Wahrscheinlichkeit r = 100 innerhalb des r%-Vertrauensintervalls um den geschätzten Wert. Folglich werden Vertrauensintervalle herangezogen, um die statistischen Schätzfehler zu quantifizieren und als Fehlerbalken darzustellen.

Wir werden die N-Abhängigkeit von Vertrauensintervallen analysieren und damit das Tempo der Konvergenz von SN zu μ für zwei Klassen korrelierter Gauss’scher Prozesse. Während kurzfristige Korrelationen einer einfachen Korrektur der Stichprobengröße bedürfen im bekannten 1/N-Verhalten, führen langfristige Korrelationen zu einer wesentlich langsameren Abnahme statistischer Fehler. Auf der Grundlage dieser Ergebnisse werden wir dann Vertrauensintervalle berechnen für zeitliche Mittelwerte gemessener Temperatur-Zeitreihen. Derartige Daten repräsentieren mit einer gewissen Approximation Gauss’sche stochastische Prozesse mit langfristigen Korrelationen. Wir berechnen die Vertrauensintervalle der zeitlich gemittelten Temperaturen als eine Funktion der Länge des Zeitfensters. Die Fehlerbalken von 30-Jahre-Mittelwerten dieser Daten sind größer als die eines 1-Jahr-Mittelwertes identischer, unabhängig voneinander verteilter Daten (iid). Das 95%-Intervall von Potsdam beträgt ±0,5°C und von Darwin ±0,4°C. Wir folgern daraus, dass unser Wissen über das wahre Klima erheblich weniger präzise ist als man naiv erwarten könnte, kann aber präzise quantifiziert werden.

Auswirkungen langfristiger Korrelationen (LRC) auf statistische Schätzungen sind zu einer Quelle immer stärkerer Bedenken vieler Forscher geworden. Mittels eines Verfahrens mit der Bezeichnung Detrended Fluctuation Analysis (DFA) wurde in einer großen Anzahl von Veröffentlichungen die Existenz von LRC in vielen Datensätzen gezeigt: bei den Temperaturdaten und auch in vielen anderen meteorologischen Zeitreihen wie etwa Abflussmengen von Flüssen, in physiologischen und ökonomischen Daten. Bei der Abschätzung von Trends und der Anwendung von Extremwert-Statistiken und der clustering von Extremereignissen wurden LRCs als Gründe für Abweichungen vom statistischen Standardverhalten ausgemacht. Im Zusammenhang mit Klimawandel hat die Bedeutung geschätzter Trends beim Vorhandensein von LRCs in der Vergangenheit viel Aufmerksamkeit erregt. Unser Schwerpunkt hier, namentlich die Analyse der Auswirkungen von LRCs auf Vertrauensintervalle für zeitliche Mittel ist technisch und konzeptuell weniger schwierig als die oben erwähnten Arbeiten, aber eine Methodik zur Bestimmung dieser [Auswirkungen] liegt noch nicht vor. Eine numerische Analyse exponentieller Korrelationen wurde durchgeführt, und die allmähliche Konvergenz von Mittelwerten begrenzter Stichproben bei Vorhandensein eines langen Gedächtnisses ist in der statistischen Literatur bereits erwähnt worden.

Wir beenden diese Einführung mit einer Interpretation der oben erwähnten Fehlerbalken. Klimadaten werden nicht mittels Gauss’scher stochastischer Prozesse erzeugt, sondern Gauss’sche Modelle sind dafür manchmal gute Datenmodelle. Quantifiziert man den „Zustand“ des Klimas mit einer Zeitreihe, interpretieren wir das beobachtete Signal als stochastische (plus jahreszeitliche) Fluktuationen rund um einen gegebenen festen Wert. Falls diese Fluktuationen weißes Rauschen wären, würden Zeitreihen über diese zu Null konvergieren wie der Term 1/N. Falls diese Fluktuationen LRCs wären, würden sich ihre Zeit-Mittelwerte viel langsamer entspannen [relax], und wir haben größere Schwierigkeiten, die wirklichen Abstufungen zu bestimmen. Vergleicht man unterschiedliche Zeitfenster unabhängig davon, wie sich kleine Fluktuationen heraus mitteln, würden wir Änderungen des Mittelwertes als Änderung des wahren Klimas fehlinterpretieren. Für Temperaturen ist die Annahme von LRC Gauss’scher Fluktuationen über ein Hintergrundsignal sehr realistisch und bietet einen Weg, die Schätzfehler des wahren „Klimazustandes“ zu bestimmen.

Zusammenfassung und Ergebnisse

(Hervorhebungen von EIKE Redaktion) Wir haben einen theoretischen Rahmen diskutiert, der es uns erlaubt, die Vertrauensintervalle zeitlicher Mittelwerte für kurz- und langfristig korrelierte Messdaten zu berechnen. In der Praxis müssen die folgenden drei Schritte erfolgen:

●Konstruktion der Reihe von Anomalien oder, allgemeiner, die Sequenz so stationär wie möglich machen.

●Forschen nach langfristigen Korrelationen, z. B. mittels einer DFA, und Berechnung des Hurst-Exponenten.

●Während die asymptotische Abnahme des Fehlerbalkens NH1 des Fehlerbalkens sein wird, kann dessen Vor-Faktor [pre-factor] bestimmt werden mittels Berechnung der Standardabweichungen der Verteilung von zeitlichen Mittelwerten über viele kurze Daten-Sequenzen als Funktion der Sequenz-Länge sowie der zu diesen passenden asymptotischen Abnahme.

Folglich ist das Fitting eines ARFIMA-Modells nicht erforderlich, und auch Nicht-Gauss’sche Daten können auf diese Weise bearbeitet werden. Die theoretischen Grundlagen basieren auf einem Gauss’schen Datenmodell. Für stark nicht-Gauss’sche Daten wie Niederschlag oder Windgeschwindigkeit ist ein solches Modell ungeeignet, aber das Verfahren kann angewendet werden und führt zu einer groben Fehlerschätzung, was nützlich ist, da selbst für stark asymmetrische Daten die Verteilung zeitlicher Mittelwerte SN zu einer Gauss-Verteilung tendiert bei einem großen Zeitfenster N.

Im Einzelnen fanden wir, dass die 95%-Vertrauensintervalle für 30-Jahre-Mittelwerte der Temperatur in Potsdam (und in Darwin) fast genau so groß (oder sogar noch größer) sind als der gesamte Erwärmungseffekt der letzten 100 (50) Jahre. Obwohl die physikalischen Konsequenzen zunehmender Treibhausgas-Konzentrationen unanfechtbar sind, zeigt diese Arbeit, dass eine quantitative Abschätzung des Klimawandels mittels gemessenen Daten immer noch eine Herausforderung ist. Die für Potsdam und Darwin gezeigten Ergebnisse gestatten es mit geringer, aber endlicher Wahrscheinlichkeit, sowohl das Fehlen von Klimawandel als auch eine Erwärmung bereits über 1°C anzunehmen, und ohne die letzten 5 Jahre mit Daten zeigt die gleiche Analyse eine noch viel geringere Signifikanz für Erwärmung.

Ein anonymer Begutachter wies uns darauf hin, dass es sehr interessant wäre, den externen Antrieb der globalen Mitteltemperatur der Erde aus gemessenen Temperatur-Fluktuationen heraus zu arbeiten innerhalb eines linearen, stochastischen Modells der Energiebilanz mit Langzeitgedächtnis. Unabhängig von Themen wie der Frage, ob eine additive Aufspaltung in kurzfristige Wetter-Fluktuationen und langzeitliche Treiber überhaupt sinnvoll wäre, läge die eindeutige Schwierigkeit bei einem solchen Unterfangen in der Tatsache, dass Zeitreihen über korreliertes Rauschen sich nicht so zu Null mitteln, wie es bei weißem Rauschen der Fall wäre. Da haben wir es: die Auswirkungen von LRCs auf die Unsicherheiten der Mittelwerte müssen berücksichtigt werden.

Der gesamte Beitrag ist als PDF hier einsehbar:

Übersetzt von Chris Frey EIKE

Anmerkungen der EIKE Redaktion.

Mit dieser grundlegenden Arbeit wird die fast allen Temperaturzeitreihen zugrunde gelegten Annahme, dass sich die zufälligen Fehler mit 1/Wurzel ihrer Anzahl ausgleichen, widerlegt. Ein unteres Limit ist bei dieser Art von Zeitreihen nicht unterschreitbar. Dieses Limit ist größer als die gesamte vermutete Änderung im letzten Jahrhundert.

Damit ist deutlich, dass alle bisherigen globalen Mittel-Temperaturzeitreihen für den Ihnen zugedachten Zweck der Signalanalyse und ggf. Zuordnung von pot. Ursachen (detection and attribution problem) unbrauchbar sind.

Hinzu kommt die Tatsache, dass diesen Zeitreihen weitere Unsicherheiten anhaften, die aus der Fülle der systematischen Fehler entstehen, die wohl ihrem Typ nach bekannt sind, aber weder in Richtung noch in Größe her im Einzelnen bestimmbar sind. Die Vergangenheit ist endgültig vorbei.

Die aus dieser Fehlerart resultierende Unsicherheit liegt mindestens bei ± 1 bis ± 2 K. Mit hoher Wahrscheinlichkeit aber noch viel höher.

Mit den oben ermittelten Fehlern ergibt sich eine gesamte minimale Unsicherheit von mindestens bei ± 1,5 bis ± 2,5 K.

Daraus folgt, dass keine vernünftige Signalanalyse aus diesen Reihen möglich ist. Die Signale verschwinden im Fehlerrauschen 

Weiterführende links hier

Related Files




Ein weiteres internationales Beispiel für schlechte Energiepolitik

Bild rechts: Im Mittelpunkt dieses Beitrags: Südaustralien

Für Australien, das einem Nationalen Erneuerbaren Energie-Ziel (RET) folgt, ist Südaustralien (SA) diese Stelle. Das RET Australiens soll bis zum Jahr 2020 33.000 Gigawattstunden Strom mittels definierter erneuerbarer Quellen erzeugen. Dem Finanzminister von SA Tom Koutsanis zufolge, der gleichzeitig auch Energieminister ist, hat die Regierung festgelegt, dass in SA „die besten Bedingungen für Windparks“ gefunden werden können.

Die Regierung des Staates war dafür empfänglich, wobei der Premierminister von SA Jay Wetherill versprach, die Hauptstadt Adelaide „bis zum Jahr 2050 zur ersten Kohlenstoff-neutralen Stadt zu machen“. Das RET des Staates sind 50% erneuerbare Energie bis 2025. Wetherill behauptete im Jahre 2014: „Dieses neue Ziel, die Hälfte der in unserem Staat verbrauchten Energie mittels Erneuerbarer erzeugen zu lassen, wird Arbeitsplätze schaffen sowie Investitionen auslösen und das produzierende Gewerbe beflügeln“.

In Wirklichkeit hat man in SA jetzt erkannt, dass Worte billig sind, keineswegs aber erneuerbare Energie.

Die Entscheidung, sich ein 50%-Ziel zu setzen, wird jetzt von Tony Wood, einem Analysten bei der Denkfabrik Grattan Institute, närrisch genannt. Lindsay Partridge, Chefin von Brickworks nannte es „komplette Naivität und Dummheit“. Brickworks ist einer der führenden Erzeuger von Baustoffen.

Inzwischen hat der größte Windkraft-Erzeuger von SA genügend Kapazität installiert, dass unter idealen Bedingungen der gegenwärtige Strombedarf zu 100% gedeckt werden könnte. „Allerdings tendiert die Windkraft dazu, gerade zu Zeiten maximalen Bedarfs niedriger zu sein“. Dies sagt der australische Energie-Gesetzgeber [Energy Regulator]. „In Südaustralien trägt Wind typischerweise 10% der registrierten Kapazität bei während sommerlicher Zeiten mit Spitzen-Bedarf“. Tatsächlich, erklärt Jo Nova, „saugen sie Strom anstatt ihn zu erzeugen“.

Im vorigen Monat kam es in SA zu einer Energiekrise, für die The Australian, die größte Zeitung des Landes, „eine Über-Abhängigkeit von unzuverlässiger und teurer Wind- und Solarenergie“ verantwortlich machte. Die Zeitung warnte, dass das RET „andere Staaten auf den Weg zwingen wird, den Südaustralien eingeschlagen hat, wo man die höchsten und variabelsten Preise im nationalen Stromnetz zahlt“. Jo Nova fügt hinzu: „Südaustralien verfügt über mehr ,erneuerbare‘ Windenergie als überall sonst in Australien. Sie zahlen auch die höchsten Strompreise (hier), haben die höchste Arbeitslosigkeit und die größte Zahl säumiger Zahler sowie Stromabschaltungen. Zufall?“

Im Juli resultierte das Zusammentreffen mehrerer Faktoren in einer gewaltigen Spitze der Strompreise – bis zu 100 mal mehr als normal.

Im März wurde das letzte Kohlekraftwerk in Südaustralien geschlossen – aus dem Markt gedrängt durch subventionierte Windenergie. Sogar noch davor berichtete The Australian, dass die Strompreise „mindestens 50% höher lagen als in jedwedem anderen Staat“. Dem australischen Energy Market Operator lag der mittlere tägliche Spotpreis in SA bei 46,82 Dollar pro Megawattstunde. Nach der Schließung des Kraftwerkes: 80,47 Dollar. Im Juni: 123,10 Dollar – mehr als doppelt so viel wie im Vorjahr. Im Juli: 262,97 Dollar.

Fred Moore, geschäftsführender Direktor von Alfon Engineering, einem Hersteller von Komponenten für SA, spricht die Spitzen der Strompreise an, die kleine und mittlere Betriebe zu schaffen machen. Er sagt, dass sein jüngster Stromvertrag um fast 50% gestiegen ist. Bis Ende Mai musste sein Betrieb 3000 Dollar pro Monat Stromkosten zahlen, jetzt sind es etwa 4500 Dollar pro Monat. Er sagt: „Ich weiß nicht wie lange sich das Unternehmen dies noch leisten kann“.

Als Folge des Verlustes der Kohle ist SA jetzt abhängig von der Erzeugung von Erdgas und Kohlestrom, der mittels einem einzigen Konnektor aus dem benachbarten Victoria importiert werden muss, wenn der Wind nicht weht oder die Sonne nicht scheint.

Teilweise durch einen ruhigen, kalten Winter (ein Wetter, dass nicht gerade begünstigend ist für Windparks) ist die Nachfrage nach Erdgas hoch, ebenso wie die Preise. Außerdem wurde der Heywood-Konnektor inzwischen aufgerüstet – was die Kapazität von Kohlestrom verringerte, von dem SA abhängig ist. SA hat die Stromerzeugung mittels Kohle inzwischen aufgegeben und die Abhängigkeit von Windenergie verstärkt hat. Dazu schreibt The Australian: „Der Operator des nationalen Energiemarktes hat gewarnt, dass Südaustralien wahrscheinlich weiterhin mit einer hohen Preis-Volatilität konfrontiert ist, ebenso wie mit ,deutlich niedrigerer‘ Verfügbarkeit von Strom“.

Dann kam die brutale Kältewelle, was mehr Menschen dazu brachte, ihre elektrischen Heizquellen anzuschalten – was die Nachfrage enorm in die Höhe trieb. Die linkslastigen Staatsfunktionäre von Labour waren gezwungen, nach zusätzlicher zuverlässiger, fossil erzeugter Energie zu verlangen. Da der Konnektor schon an der Grenze seiner Belastbarkeit angelangt war, bestand die einzige Option darin, ein bereits eingemottetes Gaskraftwerk wieder anzufahren – ein sehr teures Unterfangen.

Das Gaskraftwerk war geschlossen worden aus Gründen der Durchsetzung politischer Prioritäten – was bedeutet, dass falls erneuerbare Energie verfügbar ist, diese auch verwendet werden muss, was Erdgas zu einer Backup-Energiequelle herunterstuft. Dies in Kombination mit subventionierter Windkraft machte das Kraftwerk unprofitabel.

Die Australian Financial Review (AFR) erklärt: Energieexperten zufolge ergeben sich aus der starken Abhängigkeit SAs von Windkraft zwei massive Probleme – erstens, weil die verbleibenden Grundlast-Generatoren mehr erwirtschaften müssen in kürzeren Zeiträumen, wenn kein Wind weht, und zweitens, weil Grundlast-Kohle- und -Gaserzeuger komplett aus dem Markt gedrängt werden“.

Große, von der Energiekrise am meisten betroffene industrielle Verbraucher „sind erbost ob des Höhenfluges der Energiepreise“. Der AFR zufolge sagte Adelaide Brighton Cement, eines der wenigen noch in SA ansässigen energieintensiven Unternehmen, dass der fluktuierende Strompreis dem Geschäft sehr zusetzt. „Als Konkurrent in einem globalen Markt ist es unabdingbar für uns, ununterbrochen Zugang zu haben zu ökonomisch wettbewerbsfähiger Energie“.

Jacqui McGill, ein anderer Industrieller, stimmt dem zu: „Wir agieren in einem globalen Markt … um global wettbewerbsfähig zu sein, brauchen wir wettbewerbsfähige Preise für unsere Bedürfnisse, eines davon ist Energie“. Hinzugefügt wird, dass einige große Unternehmen in SA vor möglichen Schließungen warnen wegen der höheren Energiepreise – die Folge eines durchgepeitschten Übergangs zu immer mehr erneuerbarer Energie. Der Adelaide Advertiser berichtet: „einige der größten Arbeitgeber des Staates standen kurz vor der vorübergehenden Schließung wegen der rasant steigenden Strompreise, was die Produktion zu teuer macht“. Das ist nicht gerade die von Wetherill versprochene Schaffung von Arbeitsplätzen.

„Natürlich, falls man irgendeine Art von contrarian eccentric ist“, schreibt Judith Sloan, ein Wirtschaftsjournalist bei The Australian, „kann man argumentieren, dass steigende Strompreise die Produktion in Australien immer weniger wettbewerbsfähig haben werden lassen. So hat der RET indirekt zum Erreichen des Emissions-Reduktions-Zieles beigetragen – aber nicht auf positive Weise“.

Die Energiekrise in SA ist ein Weckruf und eine Warnung an die anderen [australischen Bundesstaaten, wird doch das Problem Koutsantonis zufolge „schon sehr bald nach New South Wales und Victoria kommen“. Aber Nationen, die stark in Erneuerbare investieren, sollten daraus Lehren ziehen.

Malcolm Roberts, Direktor bei Australian Petroleum Production and Exploration Association, nannte die Lage in SA einen „Testfall“ für die Integration erneuerbarer Energie in das Stromnetz in großem Stil. Keith Orchison, ehemaliger Direktor der Electricity Supply Association of Australia (von 1991 bis 2003), inzwischen im Ruhestand und als Berater bei Coolibah Commentary tätig, sagt, dass die gegenwärtige Politik getrieben wird von „Ideologie, Aktionismus und Populismus“.

Roberts fügte hinzu: „Keine Technologie ist perfekt. Kohle ist wie geschaffen für Grundlast-Energie, aber nicht so gut für Spitzen-Nachfrage. Dafür ist Erdgas wie geschaffen. Man braucht Gas als Auffangnetz für noch mehr Erneuerbare“. Sogar der Direktor von Clean Energy Council Kane Thornton räumte ein, „dass konventionelle Energieerzeugung wie mittels Gas höchstwahrscheinlich als Backup weiterhin gebraucht wird“.

Die vielleicht beste Erklärung für die Energiekrise in SA stammt vom Australian Energy Council, vormals Electricity Supply Association of Australia, welche es „ein zufälliges Experiment nannte, wie weit man Technologien wie Wind und Solar treiben kann in einem Stromnetz, bevor etwas zusammenbricht“. Orchison weiter: „Der Council sagt, dass periodische Erneuerbare zwar Kohlenstoff-Emissionen reduzieren, jedoch ultimativ die Strompreise für die Endverbraucher in die Höhe treiben und Risiken hinsichtlich der Zuverlässigkeit des Systems heraufbeschwören“.

Am 13. August sprach The Economist in einem Artikel mit der Überschrift [übersetzt] „Es ist nicht einfach, grün zu sein“, die drei Ziele der Energiewende in Deutschland an: „1) zuverlässige, 2) bezahlbare Energieverorgung, 3) Umweltschutz, wobei das Ziel lautet, die Emissionen von 1990 bis 2050 um 95% zu verringern“. Alle drei Ziele werden laut Clemens Füst von der in München ansässigen Denkfabrik IFO „verfehlt“. Er nennt Deutschland „ein internationales Beispiel für schlechte Energiepolitik“. Hier können wir jetzt Südaustralien hinzufügen und möglicherweise sogar ganz Australien. [Hervorhebung vom Übersetzer]

Dies ist Orchison zufolge eine Folge davon, „dass man einer puristischen Sichtweise nachjagt um den politischen Preis der Energiesicherheit“.

Die Frage bleibt: Wird Amerika aus diesen schlimmen Beispielen Lehren ziehen, oder werden wir weiter den Abwärtsweg beschreiten, auf den uns Präsident Obama gezwungen hat – nämlich Milliarden auszugeben für einen kleinen umweltlichen Vorteil und rasant steigender Preise für Haushalte und Industrie? Das Ergebnis der Wahl im November wird diese Frage beantworten.

Link: http://www.cfact.org/2016/08/29/a-new-international-example-for-bad-energy-policy/

Übersetzt von Chris Frey EIKE

Hinweis: Im Original gibt es noch viele weitere Links, die aber ausnahmslos entweder hinter einer Zahlschranke liegen oder die Meldung „Page Not Found“ zeigen.




EU: Keine Zustimmung zur Ratifizierung des Pariser Klima-Abkommens

Trotz Behauptungen des französischen Präsidenten Francois Hollande, dass „alle EU-Mitglieder bereit sind, das Pariser Abkommen so schnell wie möglich zu ratifizieren, steht in der Bratislava-Deklaration kein einziges Wort zu dem umstrittenen Thema. Es wurde schlicht nicht erwähnt

Die Unfähigkeit der EU, eine gemeinsame Erklärung abzugeben, wie man mit dem Pariser Abkommen umgehen solle, ist keine Überraschung. Polen hat seine Zustimmung von Zusicherungen der EU abhängig gemacht, Investitionen in neue Kohlekraftwerke zuzustimmen.

„Die Ratifizierung ist möglich unter der Bedingung, dass die Interessen Polens in Beziehung zur europäischen Klimapolitik sichergestellt werden“, erklärte die Regierung vor einer Woche. Sie fügte noch hinzu, dass sie das Paris Abkommen so bald wie möglich ratifizieren wolle.

Die polnische Regierung bekräftigte diese Haltung am Freitag mit den Worten, man sei bereit, die Ratifizierung auf EU-Ebene zu unterstützen, falls die Umweltminister der EU einstimmig den Bedingungen Polens zustimmen (hier).

Mit anderen Worten, so bald wie möglich klingt wie die normale diplomatische Floskel für irgendwann.

Link: http://www.thegwpf.com/eu-fails-to-agree-on-ratification-of-paris-climate-deal/

Übersetzt von Chris Frey EIKE




Altweibersommer 2016: Alarmsignal für die CO2-Klimakatatstrophe ?

PETER SCHILLING textete 1982 diesen Song:

                    "Alarmsignal, die Sonne brennt, heißer als man sie kennt ;
                 Alarmsignal, die Steppe bebt, die Luft vibriert, die Wüste lebt."

War SCHILLING ein Visionär der heute propagierten angeblich anthropogenen Klima-Katastrophe? Ganz gewiß nicht, denn Mitte der 70er bis Anfang der 80er Jahre posaunten die Medien das genaue Gegenteil  : "Kommt eine neue Eiszeit ?" titelte zum Beispiel der DER SPIEGEL [4].

Ganz anders als sz. SCHILLING nun aktuell die Klima-Alarmisten:

Ein warmer Hochsommer und ein stabiler ausnehmend schöner und warmer Altweibersommer genügen, und der DWD und sein "Klima-Sprecher" PAUL BECKER haben Klima-Katastrophen-Ratschläge für die Bürger parat, die gleichermaßen eindrucksvoll, zukunfts-weisend wie auch umwerfend sind – ein paar eindrucksvolle Kostproben gefällig(?) :

() "… aber Katastrophen werden sich häufen und die Intensität nimmt zu…“

 "Auch der einzelne Hausbesitzer ist nicht von Verantwortung frei …. das beginnt schon damit, daß Haustüren Schwellen haben müssen, die hoch genug sind.“ [5]

()  "Alle Bürger seien aufgefordert, die Vorhersagen genau zu verfolgen und die Kellerfenster zu schließen, wenn es Regen geben soll, rät Becker." [6]

()  "Wetterexperte Becker warnt: "Wir müssen uns auf die Folgen einer wärmeren Welt einstellen – Ereignisse wie Starkregen können an jedem beliebigen Ort in Deutschland auftreten." Hausbesitzer müssten beispielsweise ihre Regenabflüsse überprüfen und Regenmulden anlegen. Alle Bürger seien aufgefordert, die Vorhersagen genau zu verfolgen und die Kellerfenster zu schließen, wenn es Regen geben soll, rät Becker." [7]

Diese wenigen(!) Auszüge aus einer Fülle ähnlicher Presse-Zitate werfen ein Schlag-Licht auf das gegenwärtige wissenschaftliche Niveau des Deutschen Wetterdienstes: Empfehlungen zu Haustürschwellen, Regenrinnen, Regenmulden, verschließbaren Kellerfenstern sowie die "aufmerksame" Verfolgung von Wetterberichten.

Ist dieses nun das derzeitige wissenschaftliche Niveau des DWD in der Klimatologie und der Klimadebatte? Jeder mag sich anhand der o.a. Zitate sein eigenes Bild machen. Es fehlen nur noch – über zu erhöhende Türschwellen und anzulegende Regenmulden hinaus – Empfehlungen zum Anbringen von Mistelzweigen und Hufeisen über den Haustüren, zwecks Abwehr böser Geister. Na – kann ja noch werden: DWD und sein Klimasprecher Becker erscheinen nach den bisherigen Erfahrungen auch bei künftigen Pressekonferenzen durchaus noch steigerungsfähig.

Dazu schreibt der Physik-Professor Gerd Ganteför von der Uni Konstanz:

"Hohe Türschwellen ist ja richtig süß. Und dann backen wir alle zusammen Kuchen, trinken Kamillentee und alles wird gut. Ach so, Backen geht ja auch nicht. Zu viel CO2. Also nur Kamillentee." [8]

Bei alledem ist noch ein Aspekt besonders interessant :

Der DWD argumentiert – wieder mal – gegen seine eigenen Daten sowie gegen die Aussagen des Klimarates IPCC,  denn es gibt weder in Deutschland noch global einen Trend zu mehr Starkregen, Unwettern, Stürmen … et al. ; darüber hatten wir an dieser Stelle jüngst anhand von Graphiken und IPCC-Zitaten mehrfach ausführlich berichtet: [9]

D a z u   in Folgendem nochmals einige Graphiken und Zitate :

(1)  Globale Temperatur – alle Meßreihen

                    Bild : Alle international verwendeten Temperatur-Meßreihen

Die Meßreihen zeigen – weiterhin andauernd – den vom Klimarat IPCC in seinem jüngsten Bericht von 2013/14 aufgezeigten Stillstand der Global-Temperatur seit 1998: "… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series." Auffallend und nach oben herausragend sind die beiden Jahre 1998 und 2015 – geschuldet so genannten Super-El-Nino-Ereignissen.  

(2) Temperatur Deutschland

In Deutschland waren die Jahre 2014 und 2015 sehr warm (s. Bild), insbesondere wegen einer sehr stark ausgeprägten atlantischen Zirkulation in beiden Winterhalbjahren und einer starken lang anhaltenden Zirkulations-Blockierung im Sommer 2015. Hinzu kam ein sgn. "Super-ElNino" mit Auswirkungen bis nach Europa. Das ändert jedoch nichts daran, daß in Übereinstimmung mit dem Stillstand der globalen Erwärmung auch in Deutschland ein Stillstand eingetreten ist –  wobei es wohl müßig ist, sich über einige Hundertstel Grad zu "streiten":

                            Bild : Temperaturen Deutschland 2000-2015

(3)  Stürme und Sturmfluten an der Nordsee

Die Sturmfluten an der deutschen Nordseeküste sind logischerweise kausal mit den Stürmen über dem Atlantik und der Nordsee verknüpft – einen Klimatrend gibt es weiterhin nicht :

                                                 Bild : Stürme und Sturmfluten

(4) Mehr Unwetter ?

Ende Mai und Anfang Juni 2016 gab es in Deutschland eine Reihe von schweren Unwettern. Dazu recherchierte Axel Bojanowski auf SPIEGEL-online [9c] :

"Medien und Wissenschaftler machen den Klimawandel für den Starkregen der letzten Tage verantwortlich – dabei sagen Wetterdaten etwas anderes." Die Überschrift bei SPON war und ist bemerkenswert:

"Das Unwetter und der Klimabluff !"

Und der "Rest" ist den Daten und Graphiken es Deutschen Wetterdienstes zu entnehmen:

         Sommer-Niederschläge in Deutschland (DWD)

 

         Extrem-Niederschläge in Deutschland (DWD)

Genau diese Daten werden von SPON zitiert, unter Verwendung auch der o.a. Abbildung :

"Medien und Wissenschaftler machen den Klimawandel für den Starkregen der letzten Tage verantwortlich – dabei sagen Wetterdaten etwas anderes." 

u.w. bei SPON:

"Ein Trend ist klimatologisch nicht nachgewiesen", bestätigt der DWD auf Anfrage (Anm.: SPON-Anfrage beim DWD). Aber diese simple Botschaft wird während des Unwetters nicht verbreitet."

(5) Mehr Tornados ?

D a s   behauptet nicht einmal der DWD, im Gegenteil :

(6) Mehr Extremwetter in Deutschland ?

     Realität: Namhafte Wissenschaftler und Institute finden nichts dergleichen :

 

(7) Mehr Extremwetter global ?

Der Klimarat IPCC findet nichts dergleichen :

IPCC 2001 :

“Recent analyses in changes in severe local weather (tornados, thunder days, lightning and hail) in a few selected regions provide not compelling evidence  for widespread systematic long-term changes“.   
IPCC, 2001, TAR-02-2, Chapt. 2.7.4., Summary, S.163-164

IPCC 2013 :

“There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

“Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablenseit der Mitte des 20. Jahrhunderts verbunden sind.“ AR5 (2013), WGI, Kapitel 2, Seite 219, pdf-Seite 235

IPCC 2013 :  (SPON 06.10.2013)

"Warnungen aus dem letzten Report vor zunehmenden Extremereignissen wie Hurrikanen, Tornados oder Sturmen etwa wurden mittlerweile als "wenig vertrauenswürdig" eingestuft – und in der neuen Zusammenfassung des Reports nicht mehr erwähnt."

Orig.-Quelle: IPCC AR5 WGI Chapter 2 (2013/14)

"Anhaltenden Alarm vor zunehmenden Flußhochwassern, Durren, Hurrikanen und Tornados bezeichnet Pielke angesichts der mittlerweile glimpflichen Forschungs-Ergebnisse zu den Themen als "Zombie-Wissenschaft".

(Prof. Roger Pielke, Klimaforscher; Univ. of Coloado, Boulder, USA ; 06.10.2013, nachzit. nach SPON).

(8) Meeres-Anstieg an der Nordsee und global

Eine bevorstehende oder sogar schon begonnene Überflutung von Küsten und Städten, wie sie ständig im Verbund von Klima-Alarmisten und Medien in die Welt geblasen wird, ist nirgendwo zu finden. Dazu wurde an dieser Stelle jüngst eine Übersicht peer-reviewter Literatur publiziert [http://tinyurl.com/jtk8h8g], mit dem Ergebnis:

"Z u s a m m e n f a s s u n g : Die ständigen Alarm-Meldungen zu angeblich dramatischen Meeres-Spiegel-Anstiegen in Gegenwart und Zukunft können durch Messungen nicht bestätigt werden, sondern werden durch die Meß-Daten sogar widerlegt. Weltweit zeigen weder die Pegel-Daten (200 Jahre) noch die Satelliten-Daten (20 Jahre) eine Beschleunigung des Meeres-Anstieges. Dazu in krassem Widerspruch stehen alle bisherigen und derzeitigen Aussagen vom Klimarat IPCC, von einigen Klima-Instituten sowie die der Klima-Modelle. Darüber hinaus gibt es Anhalts-Punkte dafür, daß die Satelliten-Daten zu höheren Beträgen hin erheblich "über-korrigiert" wurden."

                          

                               Bild : Verlangsamung des Meeres-Anstieges

                                       am Pegel Cuxhaven (1845-2015)

Ergebnis: Der seit der letzten Eiszeit auch an der Nordseeküste beobachtete Meeres-Anstieg schwächt sich immer weiter ab!

 F a z i t :

Auch die jüngsten Klima-Alarm-Meldungen in den Medien in der ersten September-Hälfte 2016 sind wilde Spekulationen in eine ungewisse Zukunft – die Messungen der weltweiten Wetterdienste finden keine derartigen Trends, und auch mit den entsprechenden Aussagen in den Basis-Berichten des Klimarates IPCC ist all das nicht in Einklang zu bringen !

Q u e l l e n :

[1]  https://www.welt.de/newsticker/news3/article110409221/Deutschland-steht-rasante-Zunahme-an-Unwettern-bevor.html

[2]  http://www.fr-online.de/wissenschaft/wetter–der-normale-ausnahmezustand-,1472788,34772752.html

[3] http://www.eike-klima-energie.eu/climategate-anzeige/heisser-sommer-kalter-winter-w-a-r-u-m/

[4] DER SPIEGEL 33 (1974)

[5]  Saarbrücker Zeitung, 13.09.2016, S.A3

[6]  http://www.fr-online.de/wissenschaft/wetter–der-normale-ausnahmezustand-,1472788,34772752.html

[7]  http://www.klimaretter.info/umwelt/hintergrund/21904-rekordsommer-jeder-muss-selbst-vorsorgen

[8]  pers. Mail-Mitteilung v. 17.09.2016; Publik. hier frei gestellt

[9]  (a) [ http://www.eike-klima-energie.eu/news-cache/klima-hysterie-im-staatsfernsehen-zdf-katastrophe-in-deutschland/ ]  (b) [ http://www.eike-klima-energie.eu/news-cache/klima-fakten-201516/ ] (c) [ http://www.eike-klima-energie.eu/news-cache/axel-bojanowski-von-spon-entlarvt-die-klimahysterie-das-unwetter-und-der-klimabluff/ ]

 ==================================================

==>  Anlagen zum Download

==================================================

Related Files




4. Bürgerschutz-Tag Frankfurt/M Sonntag 16.10.2016 – 13.00 – 18.00 Uhr

Programm:

13.00 – 14.00 Uhr

Individuelle Beratungsmöglichkeit an den Infoständen der Verbraucherschutzvereine, Aktionsgruppen u. Sachverständigen

14.00 – 14.15 Uhr:

Begrüßung durch die Veranstalter

Referate und Diskussionen

Schwerpunktthema 1:

Pro und Kontra: „Basiert die Gesetzgebung zur CO2-Reduzierung und die sich daraus ergebende Kostenbelastung des Bürgers auf wissenschaftlichen Beweisen und sind sie damit gerechtfertigt?“

14.15 – 14.45 Uhr:    

Pro: Ja, der Bürger kann mit seiner CO2-Verringerung das Klima positiv beeinflussen!

Referenten: Politiker A und Fachmann B, (werden noch genannt)

Kontra: Nein, das ist falsch und reine Bürger-Abzocke!

14.45 – 16.00 Uhr:

Dr. Wolfgang Thüne, Dipl.-Meteorologe:

 „30 Jahre Warnung und keine „Klimakatastrophe“ in Sicht.“                                                   

Dipl. Ing. Michael Limburg, Vizepräsident des Europäischen Instituts für Klima und Energie e.V.: 

Welche Wirkung haben deutsche CO2– Reduktionen auf das Weltklima?“ 

(Unter Verwendung der Hypothesen des IPCC (Weltklimarat))

Dipl.-Ing- Architekt Konrad Fischer, aus dem TV bekannter Dämmkritiker: 

Die Fassadendämmung beeinflusst weder Wetter noch Klima und lohnt sich auch sonst nicht!

16.00 – 16.30 Uhr: 

Diskussion und Fragenbeantwortung zum Schwerpunktthema 1

Schwerpunktthema 2:

Kann sich der Bürger juristisch vor unwirtschaftlichen energetischen Maßnahmen schützen? 

16.30 – 16.45 Uhr

Norbert Deul, Vorstand Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.:

 Unterschiedliche Rechte für Eigentümer und Mieter bei der energetischen Modernisierung: Befreiungsmöglichkeit nach § 25 EnEV für den Eigentümer und zahlen bis zum Lebensende für den Mieter nach § 559 (1) BGB!

16.45 – 17.15 Uhr

Prof. Dr. Martin Schwab, Universität Bielefeld:

Rechtsgutachten – "Energetische Modernisierung: Um jeden Preis? Auf Kosten des  Mieters?“

17.15 – 17.40 Uhr

Horst Trieflinger, Vorsitzender des Vereins gegen Rechtmissbrauch e.V.:

"Forderungen an die Politik, damit Rechtsprechung und Anwaltschaft besser werden."

17.40 – 18.00 Uhr

Diskussion und Fragenbeantwortung zum Schwerpunktthema 2 sowie Verabschiedung

Siehe auch pdf Datei im Anhang (aktualisiert 22.9.16)

Hinweise zum Veranstaltungsort:

Der moderne Saalbau in Frankfurt-Bornheim ist mit den öffentlichen Verkehrsmitteln und mit dem Auto gut erreichbar (Parkplätze in der Tiefgarage).

Bewirtung im Gebäude vorhanden.

Übernachtung in unmittelbarer Nähe für Anreisende möglich (Info beim Veranstalter).

Anmelden beim Organisator:
Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.
Tel.: 09154/1602, Fax: 09154/914721, E-Mail: hausgeld-vergleich@t-online.de

Anmeldungen bis zum 5.10.2016 erhalten eine Platzreservierung

sowie kostenfrei den Ratgeber „9 Fragen zum Klimaschutz“ von Prof. Dr. Horst-Joachim Lüdecke.

Diese Fragen werden im Ratgeber beantwortet:

Was ist Klima, was „Klimaschutz“?

Was ist „anthropogene globale Erwärmung“?

Ist das heutige Klima extrem?

Gibt es eine vom Menschen gemachte Klimagefahr?               

Gibt es einen wissenschaftlichen Klimakonsens?

Ist CO2 (Kohlendoxyd) schädlich?

Wie relevant ist die deutsche CO2-Vermeidung für die Welt insgesamt?

Wer profitiert vom „Klimaschutz“?

Was sind die Ursprünge des Klimaglaubens?

Related Files




Energiemangel-Überleben für Dummies: So einfach kann es sein, ein Windrad zu bauen

Nicht jeder hat jedoch das Geld, zusätzlich zu den Brot- und Butter-Rationsdosen auch noch für 14 Tage Elektroenergie bevorraten zu können. Und nicht jeder kann von Fördermitteln partizipieren, wie die kreativen Windradschnitzer in Berlin-Tempelhof und von der Berliner Uni: Neuer Hoch-Technologie-Trend: Windräder schnitzen gegen Afrikas Energiearmut

Doch auch solchen, ärmeren Schluckern mit nur minimalem Platz im Garten oder auf der Dachterrasse, kann gegen künftige – zeitweise – Energiearmut geholfen werden, wenn man mit etwas kleineren Dimension zufrieden ist (die 12 m hohen, Nachhaltigkeits-Riesen-Windräder gehen ja nach Afrika) und etwas engagiert selbst mit anpackt.

Eine rührige Firma vertreibt Bauanleitungen, die wirklich jeder verstehen sollte und die vor allem auch mit in vielen Rumpelkellern oder Sperrmüllsammlungen vorhandenen, technischen Bauteilen wie alte Fahrraddynamos oder Auto-Anlasser auskommen.

Shop Einfälle statt Abfälle Heft 1: Windkraft – ganz einfach!
"2 Bauanleitungen für kleine Windräder aus Müll, genaue Erklärung, wie Strom ""funktioniert"" usw."

Bild oben rechts: Heft 1. Quelle: Shop Einfälle statt Abfälle

Ein paar Demoproben sollen zeigen, wie einfach damit ein Windrad aufgebaut werden kann und dass man dafür weder eine Firma Siemens, noch zum selber schnitzen das Wissen der technischen Uni Berlin benötigt.

Windrad-Technik, endlich verständlich erklärt

Das folgende Bild aus dem Heft 1 einer Windrad-Bauanleitung zeigt die komplette Elektrotechnik eines modernen high-light-Windrades für den 2-Wochen-Rations-Einsatz. Dabei haben die Autoren an wirklich alles gedacht und sogar das vom Innenminister extra angemahnte Radio hinzu gefügt, damit während solcher, kommender Energie-Armuts-Krisen-Zeiten, die wohltuenden, beruhigenden Stimmen aus dem Berliner Kanzleramt(-Bunker) gehört werden können.

Bild 2. Quelle: Heft 1: Windkraft – ganz einfach!

Aus irgend einem Grund haben innovative Bürger-Windräder inzwischen selbst geschnitzte Windflügel. Das muss wohl mit dem Öko-Traum zusammen hängen, wonach nur mit dem Pflug bearbeitete Äcker und Windräder mit selbst geschnitzten Flügeln den Nachhaltigkeitsanspruch wirklich erfüllen.

Jeden falls wurde in der Anleitung auch daran gedacht und eine vorbildlich, akribische Beschreibung zu gefügt. Jeder kann man unbesehen in einen Baumarkt gehen und sich die benötigten Bretter heraussuchen und zu sägen lassen.

Bild 3. Quelle: Heft 1: Windkraft – ganz einfach!

Allerdings, der Bau des Generators mit zwingender Einhaltung aller EU-Konformitäts- und Produkthaftungs-relevanter Vorschriften hat bisher bestimmt viele von einem Selbstbau abgehalten. Doch auch das ist verblüffend anschaulich und nicht ohne etwas Praxiswitz erklärt. Es ist zu beachten: Der hochwertige Generator stammt von einem alten Fahrrad, wie sie noch häufig in Kellern oder Trödelmärkten herum liegen. Sogar wer den Generator selbst wickeln will, wie es die Bewohner in Afrika anscheinend gerne und erfolgreich machen [3] findet darin die erforderliche Beschreibung.

Bild 4 Windradgenerator-Montage. Quelle: Heft 1: Windkraft – ganz einfach!

Für Personen, welche trotz dieser Anleitungs-Präzision immer noch nicht zurechtkommen, wäre der Vorschlag, damit in eines der überall aufblühenden Repair-Cafes zu gehen. Den dort mit Begeisterung schraubenden und lötenden Technik-Rentnern geht beim Anblick von Beschreibung und Material bestimmt eine an die „Radiopraktiker-Basteljugend“ erinnernde „technische Erregung durchs Gebein“ und sie machen es dadurch Testosteron-gedopt doppelt so schnell und mit enthusiastischer Begeisterung.

Der Autor hofft, nach den vielen, vorwiegend theoretischen Diskussionen um Klimawandel und EEG damit auch einen sinnvollen Beitrag zum realen Überleben der nach Frau Hendricks [3] „… konsequenten und gut geplanten … „ Energiewende gebracht zu haben.
Sofern beim ersten, größeren Blackout kein erlösender, lokaler Wind wehen sollte, ist eine Erweiterung (technical extention for low wind-Energie times) mit zugeschaltetem Fahrrad-Tretantrieb denkbar. Das fehlt noch in den Anleitungs-Heften. Man merkt, das EEG-Zubehör ist vorhanden, aber trotz der „konsequenten und guten Planung“ noch nicht perfekt. Da sollte Frau Hendricks noch ein paar Forschungsaufträge vergeben.

Anmerkung: Die Idee zu diesem Artikel kam durch den Blogeintrag eines EIKE-Lesers.

Quellen

[1] Shop www.einfaelle-statt-abfaelle.de

[2] Shop www.einfaelle-statt-abfaelle.de, Heft 1: Windkraft – ganz einfach!
"2 Bauanleitungen für kleine Windräder aus Müll, genaue Erklärung, wie Strom ""funktioniert"" usw."

[3] Neuer Hoch-Technologie-Trend: Windräder schnitzen gegen Afrikas Energiearmut
http://www.eike-klima-energie.eu/news-cache/neuer-hoch-technologie-trend-windraeder-schnitzen-gegen-afrikas-energiearmut/

[3] EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt[1]
http://www.eike-klima-energie.eu/news-cache/frau-hendricks-glaubt-im-klimawahn-klimapaepstin-geworden-zu-sein-und-den-irrglauben-ihrer-buerger-verdammen-zu-duerfen-zu-ihrem-gastbeitrag-weit-verbreiteter-irrglaube-im-handelsblatt1/




Warum Albedo die falsche Maßzahl der Reflektivität für die Modellierung des Klimas ist

Häufig sieht man den Hinweis auf die nominelle 30%-Albedo der Erde hinsichtlich des Energiehaushaltes und der vermeintlichen anthropogenen Erwärmung. Allerdings listet das CRC Handbook of Chemistry and Physics in den jüngsten Ausgaben einen Wert von 36,7%. Die Albedo ist eine Maßzahl der scheinbaren Reflektivität des sichtbaren Lichtes von Himmelskörpern wie Mond, Mars und Asteroiden. Dies funktioniert gut bei der Abschätzung des Typs der Oberflächen-Beschaffenheit und der Partikelgröße von Objekten, die nichts als blanken Fels und Schutt aufweisen. Um die Albedo über einer beobachteten Atmosphäre, der Sonne, einem vermessenen Körper angemessen zu messen, sollten sich das Objekt und der Beobachter (Erdlinge!) angemessen abgleichen. Die Albedo der Erde wird geschätzt mittels Messung der Albedo des Mondes (12%) bei Vollmond und der nachfolgenden Messung des Erdscheins (Earthshine) bei Neumond. Diese Messungen erfassen zumeist die diffuse Reflektion von Vegetation, Erdboden, Schutt und vor allem Wolken. Allerdings sind darunter auch einige sekundäre spiegelähnliche Reflektionen von glatten Objekten (wie Felsen, vor allem aber Wasserwellen), deren Oberflächen so orientiert sind, dass die einfallende Strahlung in Richtung Mond reflektiert wird.

Allerdings wird der beschienene Teil der Erde immer etwas unterschiedlich sein sowie variierend mit der Zeit und der Messstellen. Dies trägt wahrscheinlich zur beobachteten Variation der gesessenen Albedo mit der Zeit bei. Weil sich der Mond nicht in der Ebene der Ekliptik befindet, erfolgen jedwede Messungen des Erdscheins mit der Zeit über verschiedene Blickwinkel und unterschiedliche Regionen der Erdoberfläche zusammen mit Änderungen aufgrund von Wetter und Jahreszeit. Das heißt, es ist zu erwarten, dass die Albedo, wie sie aus Messungen des Erdscheins geschätzt wird, aus geometrischen Gründen deutlich variiert. Diese Messungen bieten eine scheinbare Reflektivität an, integriert über eine gesamte Hemisphäre der Erde.

Ich sage „scheinbare“ Reflektivität, weil nicht alles die Erde erreichende Licht zurück zur Sonne reflektiert wird. Die Albedo ist im besten Falle eine untere Grenze des von der Erde reflektierten Lichtes. Sie zu verwenden wäre nur dann angemessen, falls die Erde vollständig von Wolken bedeckt wäre wie die Venus (Albedo = 65%) oder vollständig bedeckt mit Schutt wie der Mars (Albedo = 15%) ohne Wasser oder Vegetation.

Außerdem ist die Albedo eine Augenblicksmessung. Weil sich Vegetation und Wolken mit den Jahreszeiten ändern, muss eine weitere, kompliziertere Korrektur angebracht werden, damit man trotz dieser Effekte ein Jahresmittel ableiten kann.

Zur Illustration (oder vielleicht sollte ich sagen Erhellung) betrachte man, wie die Lage wäre, falls die Erde eine Hollywood-Wasserwelt wäre (à la Kevin Kostner). Man nehme mal an, dass es nur einen Ozean frei von Sedimenten gebe, keine Wolken und leichte Winde, was Schaumkronen minimiert. Das Wasser reflektiert stark spiegelähnlich (wie jeder Fischer oder Seemann nur zu gut weiß) im Gegensatz zu der starken diffusen Reflektion der meisten anderen Dinge auf der Erde.

Spiegelnde Reflektion wird quantitativ berechnet mit der Fresnel’schen Reflektions-Gleichung, in die der Index der Refraktion und der Auslöschungs-Koeffizient eingeht (manchmal auch Absorptions-Koeffizient genannt), was den Complex Refractive Index CRI konstituiert. Der Index der Refraktion, der den meisten Lesern vermutlich bekannt ist, wird einfach definiert als das Verhältnis zwischen der Lichtgeschwindigkeit in einem Vakuum und der Lichtgeschwindigkeit in der vermessenen Materie. Der Auslöschungs-Koeffizient für Wasser variiert mit der Wellenlänge – er ist größer für rot und Infrarot als am anderen Ende des Spektrums – aber wir können dies als vernachlässigbar ansehen für die folgende Illustration. Folglich hat der CRI für Wasser eine imaginäre Komponente, die man mit Null ansetzen kann. Dies vereinfacht die Berechnungen. Der CRI variiert mit Temperatur, Salzgehalt und der Wellenlänge des einfallenden Lichtes. Ich habe eine Approximation verwendet (n = 1,34) für typisches Meerwasser bei einer Wellenlänge von 550 nm. Dies ist der Spitzenwert der Emission von Sonnenlicht.

Zur Erinnerung, der Winkel der Reflektion ist gleich dem Einfallswinkel, wobei der Einfallswinkel gemessen wird von der Normalen der Oberfläche [surface normal]. Nehmen wir an, dass wir auf unsere Wasserwelt schauen aus einem geostationären Orbit und dass diese Wasserwelt eine perfekte Sphäre ist anstatt des an den Polen abgeflachten Sphäroids (Geoid), was die reale Erde ist. Das Sonnenlicht kommt in Strahlen, die auf diese Distanz parallel zueinander sind. Ein Strahl, der normal zur Wasseroberfläche auftrifft, hat den Einfallswinkel 0°. Alle anderen Strahlen, die auf die Oberfläche der beleuchteten Hemisphäre treffen, haben größere Einfallswinkel, bis hin zu 90° an den Rändern. Neunzig Grad sind grazing the surface; es herrscht eine Reflektivität von 100%, und der Charakter des Lichtes ist spektroskopisch der gleiche wie von der Quelle (der Sonne).

Die folgende Graphik zeigt den Reflexionsgrad für alle Einfallswinkel auf Meerwasser. Man beachte, dass jenseits von etwa 40° der Reflexionsgrad merklich zu steigen beginnt. Bei 60° steigt der Reflexionsgrad scharf, und über 79° liegt er über der nominellen Albedo (30%), die gemeiniglich in Diskussionen über den Energiehaushalt der globalen Erwärmung Eingang findet.

Abbildung 1: Gesamt-Reflektivität von Meerwasser

Würde man von der Position des geostationären Satelliten herunter schauen, würde man einen Lichtfleck sehen, der vom etwa in der Normalen einfallenden Bündel von Strahlen von der Wasseroberfläche reflektiert wird. Das wäre ein Reflexionsgrad von 2%. Alles andere würde schwarz aussehen mit Ausnahme einiger zufälliger weißer Schaumkronen, die blitzartig etwas Licht reflektieren. Dies bedeutet jedoch nicht, dass das gesamte Licht absorbiert wird! Die orbitale Position wäre einfach falsch für die Messung des in den Weltraum reflektierten Lichtes weg von der Sonne. Die in größerer Entfernung vom Normal-Strahl einfallenden Strahlen werden einen größeren Einfallswinkel haben infolge der Krümmung der Wasserwelt. Folglich werden sie eine größere Prozentzahl des Reflexionsgrades aufweisen. Die Bedeutung hiervon ist, dass der Reflexionsgrad mit zunehmendem Einfallswinkel ebenfalls zunimmt. Die Absorption und damit die Erwärmung nimmt proportional dazu ab.

Die Fresnel’sche Gleichung lässt sich in ihrer Urform nicht leicht integrieren. Ein Polynom 6. Ordnung ergibt eine ziemlich gute Annäherung, was es mir erlauben würde, sie irgendwie mechanistisch zu integrieren und die Fläche unter der Kurve zu erhalten. Allerdings haben einige Leser Bedenken hinsichtlich von Polynomen höherer Ordnung zur Anpassung von Kurven. Ich glaube, dass dies etwas zu tun hat mit einer Phobie über hin und her schwingende Elefantenrüssel. Darum habe ich den einfachen Weg gewählt und die Gesamtfläche der Graphik auf Papier gewichtet. Danach habe ich die Fläche unter der Kurve ausgeschnitten und gewichtet. Das Verhältnis der beiden Wichtungen ergibt die Proportion der beiden Flächen.

Die Fläche unter Reflexionsgrad-Kurve für Meerwasser (Abbildung 1 oben) macht etwa 9% aus. Weil sich die Sonne mit konstanter Winkelgeschwindigkeit bewegt, ist der Wert des über die Zeit gemittelte Reflexionsgrades eines Punktes auf der Oberfläche der Wasserwelt derjenige für einen Zeitraum von 6 Stunden. Das bedeutet, dass jede einzelne Stelle auf der Oberfläche des Ozeans mit Beginn zu Sonnenaufgang am Äquator einen initialen Sofort-Reflexionsgrad von 100% aufweisen würde. Mit der Rotation des Planeten unter der Sonne wird die Prozentzahl des von der Stelle reflektierten Sonnenlichtes bis zu einem Minimum von rund 2% beim lokalen Sonnenhöchststand an dieser Stelle abnehmen. Danach kehrt sich der Prozess um bis Sonnenuntergang, bis an der Stelle erneut der Maximum-Reflexionsgrad erreicht wird. Die Gesamtmenge des reflektierten Lichtes an diesem Punkt über einen nominellen 12-stündigen Sonnenschein wird etwa 18% des einfallenden Lichtes ausmachen. Dies ist mehr als der zweifache Wert, der für den diffusen Reflexionsgrad für Wasser gelistet ist, und er liegt innerhalb der Bandbreite der Werte für Vegetation.

Außerdem sollte man nicht vergessen, dass an einem Punkt der Schattengrenze bei 60° Breite (N & S) eine Abnahme der Reflektivität bis zum lokalen Sonnenhöchststand erfolgen würde, genau wie am Äquator, aber sie wird niemals unter sechs Prozent sinken! Die Minimum-Reflektivität nimmt mit zunehmender Breite zu, was zu einem größeren mittleren Reflexionsgrad führt.

Dies beschreibt jedoch die Lage nicht angemessen, weil die Oberflächengebiete mit der größten Reflektivität ausgedehnter sind als die Gebiete mit niedrigster Reflektivität. Weil die Erde rotiert, ist es von Bedeutung, wo sich Wasser befindet relativ zu Festland und Wolken. Während ein mittlerer Reflektivitäts-Wert nützlich sein könnte für eine initiale Approximation erster Ordnung, muss die Variation mit der Zeit/dem Ort für eine akkurate Modellierung einbezogen werden.

Ich habe auch eine diskrete Aufsummierung der Kegelstümpfe [frustrums, ?] einer Hemisphäre durchgeführt (Af = 2πR DX). Multipliziert man die (auf ein Einheitsgebiet für die Hemisphäre) normalisierten Kegelstumpf-Gebiete mit der mittleren Reflektivität für den Einfallswinkel für jeden Kegelstumpf, ergibt sich die nach Gebiet gewichtete Reflektivität für jeden Kegelstumpf. Die Aufsummierung derselben ergibt eine gebietsgewichtete mittlere Reflektivität von etwa 18%. Dies ist der momentane gebietsgemittelte Reflexionsgrad über eine Hemisphäre. Dies ist fast eine Größenordnung größer als das von einer kleinen Stelle der Ozeanoberfläche reflektierte Sonnenlicht direkt unter der Mittagssonne während eines Äquinoktiums. Es ist weit größer als die offensichtliche Albedo (≪2%) unserer hypothetischen Wasserwelt!

Selbst auch der realen Erde sind diese Spiegel-Reflektions-Effekte bedeutsam, weil etwa 71% der Oberfläche mit Wasser bedeckt ist, von der die NASA behauptet, dass sie einen Reflexionsgrad von etwa sechs Prozent aufweist. Das bedeutet, dass die tatsächliche Gesamt-Reflektivität der Erde größer sein muss als die Schätzung der diffusen Reflektivität, die sich aus Erdschein-Albedo-Messungen ergibt (siehe „Terrestrische Albedo”).

Jetzt werden die Dinge komplizierter, fügen wir doch jetzt Festland und Wolken hinzu, und die verhalten sich anders als Wasser. Nackter Boden und Vegetation erzeugen eine Kombination von Spiegel- und diffuser Reflektion, die am besten beschrieben wird durch die Bidirectional Reflectance Distribution Function (BRDF). Dies ist eine mathematische Beschreibung, wie das Licht gestreut wird mit den beiden Effekten von diffuser und Spiegel-Reflektion bei variierenden Einfallswinkeln. Es gibt immer einen starken Vorwärts-Flügel [a strong forward lobe, ?] des Reflexionsgrades (anisotropy) für schräge Beleuchtung, sogar für Schnee. Ursache hierfür sind Schneeflocken (und Blätter von Pflanzen), die flach und plan sind und dazu tendieren, parallel [sub-parallel] zur Erdoberfläche angeordnet zu sein. Folglich werden Messungen der Albedo direkt darüber zu Werten führen, die niedriger sind als der wahre Gesamt-Reflexionsgrad, den man durch Integration der BRDF über eine ganze Hemisphäre erhalten würde.

Es wurde mit der Modellierung von CERES-Satelliten-Messungen gearbeitet; allerdings zeigen die folgenden Illustrationen, dass sie es nicht hinbekommen haben [they don’t have it right]. Die Illustration rechts in Abbildung 2 zeigt eine Hemisphäre mit einem großen Festlands-Anteil. Die Ozeane erscheinen dunkler als mit Vegetation bedecktes Festland (Albedo 8% bis 18%). Tatsächlich scheint ein Wert von 6% für den offenen Ozean total unangemessen. Daher scheint diese Illustration primär der diffuse Reflexionsgrad der Wasser-Albedo zu sein und nicht der Gesamt-Reflektivität. Weil der Wert so niedrig ist, wurde offensichtlich nicht berücksichtigt, wie sich der Spiegel-Reflexionsgrad mit der Zeit und der Position ändert. Das heißt, dies ist ein Mittel des Spiegel-Reflexionsgrades des kleinen Einfallswinkels (≈2%) des direkten Sonnenlichtes, wie es von Satelliten erfasst wird; Schaumkronen, Reflexionsgrad vom Grund flacher Gewässer, diffuser Reflexionsgrad schwebender Partikel nahe der Wasseroberfläche sowie Streulicht vom Himmel, das aus allen Winkeln einfällt.

Abbildung 2: Terra/CERES-Ansicht der Welt bei der ausgestrahlten langwelligen Strahlung (links) und des reflektierten Sonnenlichtes (rechts). Bild: NASA.

Vegetation verhält sich anders als nichtorganische Reflektoren. Erstens, Blätter tendieren dazu, flach zu sein, mit einem wachsartigen Überzug, der Spiegelreflexion begünstigt. Weiter, während Pflanzen infolge der Absorption blauen und roten Lichtes grün aussehen (sie sind auch hoch reflektiv im Nahen Infrarot), trägt nicht das gesamte einfallende absorbierte Licht zu Erwärmung bei. Das Chlorophyll in den Pflanzen konvertiert einfallendes Licht in Kohlenhydrate und resultiert nicht in Erwärmung. Die Schätzungen der Effizienz, mit der diese Konversion vor sich geht, variieren mit den Pflanzen und den Wachstumsbedingungen. Allerdings wird allgemein angenommen, dass sich dies im kleinen einstelligen Prozentbereich abspielt. Folglich sollte der effektive Reflexionsgrad des sichtbaren Lichtes nach oben adjustiert werden, um der fehlenden Erwärmung Rechnung zu tragen. Phytoplankton und Algen im Ozean fangen genauso Sonnenlicht ein und konvertieren es in Biomasse, anstatt das Wasser zu erwärmen bis zu einem Grad, wie eine Schätzung erster Ordnung der Reflektivität allein nahelegen würde.

Normaler trockener Sand kann einen diffusen Reflexionsgrad bis zu 45% besitzen! Schotter, Sand und Erde haben typischerweise einen diffusen Reflexionsgrad. Durch Landwirtschaft freigelegte Erde kann von sehr hellem Gelb, kalziumreichen Wüstenboden bis zu dunklen, organisch angereicherten Böden variieren. Wenn die Böden nass sind, werden sie dunkler und haben eine stärkere spiegelnde Komponente [a stronger specular component]. Und natürlich liegt kaum Erde bloß während der Wachstums-Saison, wenn überhaupt welche. Jedweder ,mittlere‘ Wert freiliegender Böden wird wahrscheinlich öfter falsch als richtig sein. Schätzungen der Reflektivität von Erde sollte aus Erdboden-Karten abgeleitet werden, um besser nach Gebiet gewichtete Werte für verschiedene Regionen der Welt zu erhalten und der Wachstums-Saison stärker Rechnung zu tragen.

Das andere Extrem ist der diffuse Reflexionsgrad von Wolken, welcher nahe des wahren Lambert’schen Reflexionsgrades liegt. Die Lambert’sche Reflexion ist eine Bedingung, bei der Licht gleichmäßig in alle Richtungen reflektiert wird, und die Wolken sehen aus allen Richtungen einheitlich weiß aus, außer unter den Wolken und in Schattengebieten dazwischen. Wolken können stark hinsichtlich ihrer Albedo variieren, aber ein allgemein akzeptierter mittlerer Wert liegt um 50%.

Was die Wolken zum Energie-Gleichgewicht beitragen, ist die Differenz zwischen ihrem Reflexionsgrad und dem Reflexionsgrad der Materialien an der Erdoberfläche, die sie überdecken. Wolken leiten Licht auch um, was die Berechnungen zu einer noch größeren Herausforderung macht. Allerdings haben Wolken ihre größte Auswirkung auf Reflektivität und Albedo, wenn sie innerhalb etwa 50 Grad der zur Sonne zeigenden Oberflächen-Normale haben [when they are within about 50 degrees of the surface-normal pointing towards the sun].

In den Polargebieten ist es immer wolkig. Das ist ein Grund dafür, dass die Wikinger den Gebrauch des Sonnensteins [Näheres zu ,Sonnenstein‘ hier bei Wikipedia; Anm. d. Übers.] einführten. Der sollte ihnen navigieren helfen, wenn ein Kompass unbrauchbar und Sterne nicht erkennbar waren. Die meisten Zeit des Jahres spielt es nicht wirklich eine Rolle, ob offenes Wasser oder Eis vorhanden ist, weil die Wolken sich mit Sonnenlicht überlagern [interfere], welches den Erdboden während es Arktischen Sommers erreicht, und im Arktischen Winter gibt es kein Sonnenlicht! Wenn Sonnenlicht wirklich die Oberfläche erreicht, hilft die Reflektivität von 100% an den Rändern der Erde zumindest teilweise zu erklären, warum es an den Polen so kalt ist. (Dies ist auch um den Umfang [perimeter] der Ozeane an den Schattengrenzen des Planeten der Fall, nicht nur an den Polen). Schnee auf Eis streut Licht tatsächlich in alle Richtungen, einschließlich nach unten [downward]. Folglich gibt es tatsächlich mehr Absorption bei einem Blickwinkel [glancing angle] mit dem Vorhandensein von Schnee als es über ruhigem, offenen Wasser der Fall wäre!. Es gibt Austausch [tradeoffs], welcher die Lage kompliziert, und ich glaube nicht , dass dies von den meisten Klima-Modellierern berücksichtigt worden ist. Die vereinfachende Erklärung abnehmenden arktischen Eises, dass dies für die Verstärkung der Erwärmung ursächlich ist, ist möglicherweise nur ein Gedanke all jener, denen die Fresnel’schen Gleichungen nicht bekannt sind.

Wolken sind das beste Beispiel dafür, dass die naive Behauptung „die Wissenschaft ist settled“ falsch ist. Wolken sind hinsichtlich ihrer Lage, Ausdehnung und Albedo hoch variabel und ziehen oftmals rasch unter dem Einfluss von Wind. Es gibt Gründe für die Annahme, dass eine Abnahme der Bewölkung einen größeren Einfluss auf den Rückzug von Gletschern hatte als die vermeintliche Zunahme der Lufttemperatur (≪1°C pro Jahrhundert in Mittleren Breiten). Schmelzendes Eis ist nicht direkt proportional zu einer Temperaturzunahme, falls die Temperatur niemals über den Gefrierpunkt steigt. Im besten Falle würde man erwarten, dass der Gletscherrückzug dem adiabatischen Temperaturgradienten [lapse rate] folgt, falls die Temperatur der kontrollierende Faktor wäre. Was man sieht ist, dass der Gletscherrückzug an Südhängen von Bergen ausgeprägter ist. Dies zeigt, dass es eine Abnahme der Bewölkung gegeben haben muss, die zuvor Eis und Schnee vor dem direkten Sonnenlicht abgeschirmt hatten.

Noch frustrierender ist, dass die Energie zur Phasenänderung, die in den Wolken stattfindet, nicht in einer Größenordnung modelliert werden kann, die zur Erfassung von Details erforderlich ist, die in die Globalen Zirkulationsmodelle eingehen. Es gibt einfach nicht ausreichend Computerleistung, um die Berechnungen durchzuführen, und Vereinfachungen sind erforderlich. Es gibt das alte Sprichwort „Der Teufel steckt im Detail“. Das gilt so ziemlich auch für das Problem des Energieaustausches in Wolken. Weil sich Wolken so rasch ändern und einen bedeutenden Einfluss auf Albedo und Gesamt-Reflektivität haben, ist es möglicherweise unangebracht davon auszugehen, dass die Albedo der Erde irgendwie konstant ist. Wolken ändern sich fortwährend!

Zusammengefasst: Albedo wird allgemein definiert als die „Weiße einer Oberfläche“. Wasser wird allgemein so charakterisiert, dass es eine geringe Reflektivität aufweist, weil Albedo herangezogen wird. Wasser kann schräg [obliquely] beschienen werden und eine höhere Reflektivität als Schnee aufweisen, aber es wird einem Beobachter, der sich nicht in der Reflexionsebene befindet, schwarz vorkommen. Die von Klimatologen allgemein verwendete Albedo liegt am unteren Ende einer Bandbreite gemessener Werte. Selbst hohe Albedowerte sind zu niedrig, um für eine Schätzung der gesamt-terrestrischen Reflektivität herangezogen zu werden, weil Albedo fast alle Spiegel-Reflexionen ausschließt. Albedo ist eine Unterschätzung der Reflektivität der Oberflächen-Materialien der Erde; sie ist nur angebracht für Wolken und in geringerem Maße für bloßen Sand. Die genaueste Repräsentation würde man durch gemessene BRDF für alle Winkel der einfallenden Sonnenstrahlung auf die wesentlichen Oberflächenmaterialien erhalten.

Link: https://wattsupwiththat.com/2016/09/12/why-albedo-is-the-wrong-measure-of-reflectivity-for-modeling-climate/

Übersetzt von Chris Frey EIKE




Ein Kartenhaus aus Unwahrheiten CO2: Statt „Klima-Tiger“ lediglich ein Bettvorleger

Bild rechts: Wolken und Wasserdampf werden durch die heute verfügbaren Programme zur Simulation des Klimas gar nicht, falsch oder mit viel zu geringer Genauigkeit berücksichtigt. Somit sind alle heutigen Klimaprognosen falsch.

Die Theorie von der menschengemachten katastrophalen Erderwärmung (AGW, Anthropogenous Global Warming) ist, wenn man ihre Auswirkungen auf Politik und Zivilisation betrachtet, tatsächlich schon per se eine Katastrophe. Hinzu kommt, dass sie aus einer bösen Tat – der Verbreitung von Unwahrheiten – resultiert. Auf diese Unwahrheiten trifft sehr exakt das zu, wovor bereits Schiller mit seinem berühmten Spruch aus dem Wallenstein-Drama gewarnt hatte: „Das eben ist der Fluch der bösen Tat, dass sie, fortzeugend, immer Böses muß gebären“. Im Fall der angeblichen Bedrohung des Weltklimas durch CO2 bedeutet dies, dass man zur Deckung der ersten Lüge immer neue zusätzliche Ausflüchte erfinden muss, um die Widersprüche, die sich aus der ursprünglichen Unwahrheit ergeben, „wegzuerklären“. Kriminalbeamten ist diese Vorgehensweise aus Verhören „kreativer“ Verdächtiger bestens bekannt, wenn diese versuchen, Unstimmigkeiten ihrer ersten Aussage durch immer neue Falschbehauptungen zu maskieren.

Die Energiebilanz der Erde

Nahezu die gesamte Energie, welche die Erde mit der Sonne und dem Weltall austauscht, wird durch Strahlung transportiert. Die Gesetze der Physik legen fest, dass jeder Körper, der im Vakuum des Weltalls Energie in Form von Strahlung empfängt, diese irgendwann wieder durch Strahlung abgeben muss. Anderenfalls würde seine Temperatur immer weiter ansteigen, da wegen des Vakuums die zugeführte Energie nicht durch Wärmeleitung abführen kann. Die entsprechende Energieabstrahlung erfolgt bei festen und flüssigen Körpern bei jeder Temperatur oberhalb des absoluten Nullpunkts ständig. Das Wellenlängenspektrum der ausgesandten Strahlung hängt vor allem von der Temperatur der Körperoberfläche ab. Fall keine nennenswerte Energiezufuhr von innen erfolgt, stellt sich an der Oberfläche dasjenige Temperaturniveau ein, bei dem empfangene und abgegebene Strahlungsenergie gleich groß sind. Ein solcher Körper befindet sich dann im Strahlungsgleichgewicht mit seinem Umfeld. Im Falle der Erde besteht dieses aus einer sehr heißen Sonne, einem unbedeutenden Mond sowie einem ziemlich „kalten“ Weltraum. Bei der Sonne führt die hohe Oberflächentemperatur dazu, dass diese den Löwenanteil ihrer Strahlungsenergie im Bereich des sichtbaren Lichts emittiert, Bild 1.


Bild 1. Intensität der Sonnenstrahlung bei AM0 (erdnaher Weltraum) und AM1,5 (etwa zum Zenit in Karlsruhe) im Vergleich zur Emission eines idealen Schwarzen Körpers bei einer Temperatur von 5900 K (Grafik: Degreen/ Baba66, Wikimedia Commons [WIC1])

Die Erde strahlt dagegen aufgrund ihrer wesentlich niedrigeren Temperatur fast ausschließlich im infraroten Bereich ab Wellenlängen von etwa 3,5 µm. Für diesen Spektralbereich ist die Atmosphäre wesentlich weniger transparent als für sichtbares Licht. Dies liegt nicht an den Hauptbestandteilen Sauerstoff, Stickstoff und Argon: Diese sind auch für Infrarotstrahlung zumeist ziemlich transparent. In der Atmosphäre gibt es jedoch eine Reihe von Spurengasen wie CO2, Wasserdampf und Methan, deren Moleküle mit jeweils bestimmten Wellenlängen des infraroten Spektrums Energie austauschen können. Diese Gase wirken deshalb wie Filter, die den Strahlungsfluss der IR-Strahlung in jeweils spezifischen Wellenlängenbereichen verringern, indem sie entsprechende Strahlungsquanten absorbieren. Die absorbierte Energie wird in den Gasmolekülen in Form mechanischer Energie (Molekülschwingungen) zwischengespeichert und später wieder abgegeben, oft nicht als Strahlung, sondern als kinetische (thermische) Energie an die Moleküle anderer Gase. Andererseits können diese Moleküle auch kinetische Energie, die ihnen z.B. durch elastische Stöße anderer Moleküle zugeführt wird, in Form von Strahlung wieder aussenden. Die IR-Absorptionsbanden dieser Gase überlagern sich im wichtigen Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein kleines Strahlungsfenster zwischen etwa 8 – 12 µm offen bleibt, Bild 2.


Bild 2. Die IR-Absorptionsbanden der „Treibhausgase“ überlagern sich im Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein schmales „atmosphärisches Fenster“ zwischen ca. 8 und 12 µm offen bleibt (Grafik: [TREA])

Bild 3 zeigt die Energieflüsse, die sich aus Sicht des IPCC aufgrund dieses Strahlungsaustauschs im Bereich der Erdatmosphäre und der obersten Boden- und Wasserschichten ergeben.


Bild 3. Strahlungs- und Energiebilanz der Erde laut IPPC (Grafik: [IP02])

Zum Verständnis ist anzumerken, dass die Zahlenangaben sich auf globale Durchschnittswerte beziehen, also keine Unterschiede zwischen Äquator und Polen berücksichtigen. Ausgangspunkt ist die durchschnittliche Intensität der Sonneneinstrahlung an der Grenze der Erdatmosphäre, die ziemlich konstant bei rund 1.367 W/m2 liegt. Da die Sonne jedoch jeweils nur auf die Tagseite einwirkt und die pro Quadratmeter empfangene Energie aufgrund der Kugelgestalt der Erde zu den Polen hin bis auf Null absinkt, erhält jeder Quadratmeter der oberen Atmosphäre im zeitlichen und räumlichen Mittel lediglich 340 W/m2. Hiervon werden – ebenfalls im Mittel – rund 100 W/m2 direkt zurück ins Weltall reflektiert. Diese reflektierte Strahlungsenergie hat keinen Anteil an den Umwandlungs- und Transportvorgängen an der Erdoberfläche oder in den tieferen Schichten der Atmosphäre.

Die Reflexion ist abhängig von den optischen Eigenschaften der jeweiligen Oberflächen. Charakterisiert wird sie durch den Fachbegriff „Albedo“. Dieser ist eine dimensionslose Größe zwischen 0 und 1. Die Erde hat einen Albedo-Wert von 0,29. Dies bedeutet, dass sie 71 % der auftreffenden Strahlungsenergie absorbiert und 29 % reflektiert. Eine Albedo gibt es übrigens auch für die Emissivität (Emissionsgrad) des gleichen Körpers beim Aussenden von Strahlung. Ein Albedo-Wert von 0,29 für die Emissivität besagt deshalb, dass der betreffende Körper beim Aussenden nur 0,29 x so viel Strahlungsenergie aussendet wie einer, der eine Albedo von 1 aufweist. Zu beachten ist hierbei zusätzlich, dass der Wert der Albedo von der jeweiligen Wellenlänge abhängt. Ein Körper, der im Bereich des sichtbaren Lichts eine Albedo von 0,29 hat, kann bei Abstrahlung im Infrarotbereich unter Umständen eine Albedo von 0,8 oder sogar nahe an 1 aufweisen. Deshalb sollte man sich bei der Kalkulation von Strahlungsbilanzen vergewissern, wie die konkreten Albedowerte für absorbierte und emittierte Strahlung aussehen. Einen Überblick über Absorptions-Albedowerte wichtiger Strukturen auf der Erde und in der Atmosphäre gibt Bild 4


Bild 4. Verschiedene Oberflächen haben eine unterschiedliche Rückstrahlung: Anhand der Landschaft werden ausgewählte Albedowerte dargestellt (Grafik: eskp.de, Creative Commons, [WIME])

Den Löwenanteil der direkt in der Atmosphäre erfolgenden Reflexion (Bild 3) bewirken mit rund 47 W/m2 die Wolken [STEP]. Von der restlichen Strahlung verbleiben noch weitere Anteile in der Atmosphäre oder werden von Boden und Wasser reflektiert, so dass letztlich nur rund 161 W/m2 der solaren Strahlungsenergie auf Bodenniveau absorbiert werden. Die Erdoberfläche gibt diese Energie nahezu vollständig wieder nach oben in die Atmosphäre ab, zum größten Teil in Form von infraroter Strahlung, den Rest in Form fühlbarer Wärme durch atmosphärische Konvektion oder als latente Wärme aufgrund der Verdunstung von Wasser. Die Infrarotstrahlung vom Boden und vom Wasser gelangt wegen des kleinen offenen Strahlungsfensters der Atmosphäre nur zu einem vergleichsweise geringen Anteil direkt in den Weltraum. Ein Großteil wird von den sogenannten Treibhausgasen, vom Wasserdampf sowie von Wolken abgefangen. Ein Teil hiervon wird – häufig mit geänderter Wellenlänge – wieder in Richtung Erdboden zurückgestrahlt, während der Rest letztlich ins Weltall abgegeben wird. Dieser Energietransport erfolgt meist über zahlreiche Einzelschritte mit zwischengeschalteter Umwandlung in andere Energieformen oder Wellenlängen. Es kommt zu Umlenkungen und Richtungswechseln. Zu diesem „Strahlungskreislauf“ tragen auch die bereits erwähnten Wärme- und Verdunstungsanteile sowie die in der Atmosphäre direkt absorbierten Anteile der Sonnenstrahlung bei, welche den Energiegehalt der unteren Atmosphäre erhöhen. Auch diese Energie muss letztlich, wenn sie sich nach oben „durchgearbeitet“ hat, in Form von Wärmestrahlung abgeführt werden.

Entscheidend ist aus Sicht der AGW-Theorie das behauptete Ungleichgewicht der Strahlungsbilanz (Imbalance). Gemeint ist ein kleiner, im Bild 6 unten links eingezeichneter Energiefluss von 0,6 W/m2 (mit einer Streuung zwischen 0,2 und 1,0 W/m2), der nach Auffassung des IPCC langfristig im System Erdoberfläche/ Wasser/ Atmosphäre verbleibt und die behauptete „Klimaerwärmung“ bewirken soll.

Da die reine AGW-Lehre besagt, dass nur das CO2 der Haupt-Bösewicht sein kann und darf…

Schon diese Behauptung, dass nämlich das vom Menschen durch Verbrennung fossiler Rohstoffe in die Atmosphäre eingebrachte CO2 die Hauptursache für eine katastrophale Veränderung des Weltklimas sei, ist grob unwissenschaftlich. Das lässt sich leicht erkennen, wenn man sich die hierzu präsentierten Darstellungen des IPCC (Bild 5) genauer ansieht. In dieser Darstellung wird für die Wirkung der einzelnen Gase bzw. Aerosole ein „Strahlungsantrieb“ (radiative forcing) angegeben. Damit ist die von den „Treibhausgasen“ angeblich durch vermehrte Reflexion infraroter Wärmestrahlung zurück auf die Erdoberfläche verursachte dauerhafte Veränderung der Energiebilanz gemeint.

 

Bild 5. Bezeichnung und angeblicher Strahlungsantrieb der wichtigsten „Treibhausgase“ laut IPCC (Grafik: IPCC AR 2007, [IP01])

In der Summe wird den im Bild 5 aufgeführten Treibhausgasen ein kumulierter „Strahlungsantrieb“ von 1,6 W/m² (Streubereich 0,6 – 2,4 W/m²) zugeordnet. Grundlage der entsprechenden Theorie ist der sogenannte „Treibhauseffekt“ der Atmosphäre. Dieser soll dafür sorgen, dass die Gleichgewichtstemperatur der Erdoberfläche bei 15 °C statt bei lediglich -18 °C (255 K) liegt. Hervorgerufen werden soll dies durch die Rück-Reflexion der von der Erde ausgehenden infraroten Wärmestrahlung durch die „Treibhausgase“, wodurch das Temperaturniveau um 33 °C ansteigen soll. Durch menschengemachte Erhöhung des Anteils dieser „Treibhausgase“ soll die Temperatur jetzt noch deutlich stärker ansteigen. An dieser Stelle sei noch angemerkt, dass dies eine Hypothese ist. Viele Wissenschaftler bestreiten diesen Ansatz und führen aus, dass hierfür bisher noch kein Beweis erbracht werden konnte.

….wird die Rolle des Wassers als entscheidender Faktor einfach unterschlagen

Ein genauerer Blick auf Bild 5 offenbart eine klaffende Lücke, die ein Schlaglicht auf die wissenschaftliche Redlichkeit des IPCC bzw. auf den Mangel an derselben wirft: Das Wasser bzw. der in der Atmosphäre befindliche Wasserdampf fehlt gänzlich, der lächerlich geringe „cloud albedo effect“ von ca. -1,5 W/m² ist ein geradezu groteskes Beispiel wissenschaftlicher Unehrlichkeit. Man vergleiche dies mit den Zahlen, die weiter unten noch aufgeführt werden. Dabei ist Wasserdampf ebenso wie CO2 ein infrarotaktives Gas. Seine Wirkung übertrifft sogar diejenige des CO2 sowie auch die aller anderen „Treibhausgase“ zusammengenommen ganz erheblich. Doch obwohl je nach Quelle zugegeben wird, dass Wasserdampf für 36 bis >85 % des „Treibhauseffekts“ verantwortlich sei, wird es vom IPCC sowie von meinungsführenden Institutionen wie Wikipedia oder der US-Umweltschutzbehörde EPA noch nicht einmal in der Kategorie „Treibhausgase“ geführt. Wichtiger Grund für seine starke Wirksamkeit ist der im Vergleich zu allen anderen „Treibhausgasen“ sehr viel höhere Gehalt in der Atmosphäre. Der Mengenanteil des CO2 in der Atmosphäre liegt nach aktueller Lehrmeinung bei ziemlich genau 400 ppm. Den Unterschied zum Wasserdampfgehalt verdeutlicht die folgende Tabelle:

Aus der Tatsache, dass Wasserdampf vom IPCC trotz seiner IR-Eigenschaften nicht als Treibhausgas gewertet wird, folgt für zahlreiche Vertreter der AGW-Hypothese, die sich möglicherweise noch einen gewissen Rest an Schamgefühl beim Vorbringen wissenschaftlich klar erkennbarer Unwahrheiten bewahrt haben, ein Gewissenskonflikt, der zu einer Vielzahl teils lächerlicher und oft sehr plump vorgetragener Ausflüchte führt. So überschreibt man in der deutschen Ausgabe von Wikipedia den Absatz im Treibhausgas-Beitrag, in dem Wasserdampf behandelt wird, lediglich mit „Weitere zum Treibhauseffekt beitragende Stoffe“. Doch schon im ersten Satz sahen sich die Redakteure anscheinend außerstande, die unwürdieg Scharade weiterzuführen, und sagen klipp und klar: „Wasserdampf ist das wichtigste Treibhausgas. Sein Beitrag zum natürlichen Treibhauseffekt wird auf etwa 60 % beziffert“ [WITR].

Ihre englischsprachigen Kollegen rechnen den Wasserdampf dagegen bereits in der Einleitung zu den wichtigsten Treibhausgasen und stellen fest: „Wasserdampf trägt am meisten zum Treibhauseffekt bei, und zwar zwischen 36 % und 66 % bei klarem Himmel und zwischen 66 % und 85 %, wenn Wolken mit berücksichtigt werden“ [WITE].

Besonders knapp gehalten ist die Erläuterung der US-Umweltschutzbehörde EPA (Environmental Protection Agency), einer Bastion der US-Grünen. Auch auf deren Webseite werden Grafiken über den Einfluss wichtiger, vom Menschen verursachter Treibhausgase gezeigt [EPA], und auch hier wird Wasser(dampf) nicht aufgeführt. Hierzu steht nur lapidar: „Wasserdampf ist ein Gas: Wasser kann als unsichtbares Gas vorkommen, das als Wasserdampf bezeichnet wird. Wasserdampf kommt in der Atmosphäre als natürlicher Bestandteil vor und hat einen starken Einfluss auf Wetter und Klima“. Anschließend folgt noch eine kurze Erläuterung zu seinem angeblich positiven Rückkopplungseffekt aufgrund der verstärkten Verdunstung in einer wärmer werdenden Atmosphäre, was aufgrund der Treibhausgaswirkung des Wasserdampfs zu noch mehr Erwärmung und damit zu einer immer weiter voranschreitenden Erwärmung führen soll.

Eine ganz andere Einschätzung findet man dagegen bei einer Untergliederung der NASA. Zur Erinnerung: Das ist der frühere Arbeitgeber des Dr. Michael E. Mann, der mit seiner hoch umstrittenen „Hockeystick“-Kurve zu einem der prominentesten Frontmänner der AGW-Theorie avancierte. Es gibt dort aber anscheinend auch noch integre Wissenschaftler. Im Goddard Institute for Space Studies (GISS) der NASA beschäftigt man sich im Rahmen des International Satellite Cloud Climatology Project (ISCCP) intensiv mit Klimasimulationen [WONA]. In dieser Veröffentlichung findet sich die bemerkenswerte Aussage, dass Wasserdampf den größten Teil der von der Oberfläche aufsteigenden langwelligen Wärmestrahlung absorbiere und dadurch auch den größten Anteil am Treibhauseffekt habe – der jetzt durch menschengemachte Verschmutzung verstärkt werde. Ohne den Wasserdampf in der Atmosphäre wäre die Erdoberfläche im Mittel um 31 °C (!) kälter als heute. Damit werden dem Wasser mindestens 90 % am gesamten atmosphärischen „Treibhauseffekt“ zugesprochen.

Der angebliche Verstärkungseffekt…

Nächste zentrale Unwahrheitsbaustelle am Kartenhaus der AGW-Theorie ist die sogenannte „Wasserdampfverstärkung“. Dieser behauptete positive Rückkopplungseffekt des Wasserdampfs ist ein entscheidender Dreh- und Angelpunkt der AGW-Hypothese, weil die Wirkung der „offiziell anerkannten“ Treibhausgase nicht ausreicht, um den bisher beobachteten Temperaturanstieg zu erklären. Auf dieser Verstärkungs-Fiktion bauen dann weitere unwissenschaftliche Scheinargumente auf, mit denen versucht wird, die Rolle des eigentlich dominierenden Wassers im Strahlungs- und Wärmehaushalt der Erdoberfläche zu leugnen. Stattdessen wird dessen Einfluss dem CO2 sowie den anderen „Klimagasen“ zugesprochen, obwohl sie bei weitem nicht die gleiche Wirksamkeit haben. Hauptgrund für diese seltsam anmutende Argumentation ist sicherlich, dass man die Fiktion vom Menschen als Ursache des behaupteten Klimawandels auf Biegen und Brechen aufrechterhalten will. Deshalb werden wir uns das Argument der „Wasserdampfverstärkung“, das in unzähligen Variationen ständig wiederholt wird, etwas genauer anschauen. Eine grafische Darstellung dessen, was dabei ablaufen soll, zeigt Bild 6.


Bild 6. Die AGW-Modellvorstellung der verstärkenden Wirkung von Wasserdampf auf die vom CO2 nebst den anderen „Klimagasen“ hervorgerufene Erwärmung (Grafik: [NOAA])

Diese Modellannahme ist schon vom Ansatz her unsinnig, denn sie würde darauf hinauslaufen, dass sich das Klimasystem bereits nach einem kleinen „Stupser“ von selbst immer weiter hochschaukeln würde, bis es schließlich gegen eine Art Anschlag liefe. Bei dieser Argumentation wird zudem ein wichtiger zusätzlicher Aspekt unterschlagen, denn eigentlich müsste man berücksichtigen, dass in den Ozeanen nicht nur enorme Wassermengen, sondern auch rund 38.000 Gigatonnen (Gt) Kohlenstoff als CO2 gespeichert sind *). Das ist rund das 50-60fache dessen, was in der Atmosphäre vorhanden ist. Träfe die Theorie von der „Wasserdampfverstärkung“ zu, so würde mit steigenden Temperaturen ein erheblicher Teil dieses CO2 ebenfalls in die Atmosphäre entweichen und seinerseits den Effekt weiter verstärken **). Dies wäre unvermeidlich, weil die Löslichkeit des CO2 mit steigender Temperatur stark abnimmt. Ein sich erwärmendes Klima würde, wenn die Hypothese von der „Wasserdampfverstärkung“ zuträfe, gleich zwei parallele Mechanismen aktivieren, die unser Klimasystem in eine sich katastrophal immer weiter steigernde Erwärmung katapultieren würden. Dieser Prozess würde solange voranschreiten, bis alles CO2 und alles Wasser aus den Ozeanen entwichen bzw. verdunstet wäre, um dann in einem lebensfeindlichen Endzustand zu verharren. Der C-Inhalt der Atmosphäre läge dann bei rund 40.000 Gt statt der heutigen rund 750 Gt, und sie bestünde hauptsächlich aus Wasserdampf.

Diese Hypothese ist demnach offenkundig schon dann wenig glaubhaft, wenn man sie lediglich als Gedankenexperiment durchspielt. Träfe sie zu, dann gäbe es wohl kaum höheres Leben auf der Erde, wir hätten Zustände, die stark denjenigen der Venus-Atmosphäre ähnelten. Dass so etwas auch in der Realität zumindest in den letzten 550 Mio. Jahren nie vorgekommen ist, beweist der Blick in die Erdgeschichte. Als sich damals aufgrund der Photosynthese unsere heutige „moderne“ Atmosphäre mit ihrem hohen Sauerstoffanteil gebildet hatte, lag deren CO2-Gehalt bis zum 20fachen höher als vor Beginn des Industriezeitalters. Seither ist er unter großen Schwankungen nur ganz allmählich auf das heutige Niveau von 300-400 ppm abgesunken, siehe Bild 7.


Bild 7. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger, [CALU])

Wer dies berücksichtigt, kann die Theorie der Überschreitung eines „Kipppunktes“ in der Temperaturentwicklung aufgrund einer „Wasserdampfverstärkung“ der CO2-Wirkung nicht mehr ernst nehmen. Unterstrichen wird ihre Unhaltbarkeit zusätzlich durch die grafische Auftragung der in verschiedenen Erdzeitaltern seither aufgetretenen Kombinationen aus CO2-Gehalt und Temperatur, Bild 8.


Bild 8. Im Verlauf der Erdzeitalter vom Kambrium (vor etwa 541 bis 485,4 Mio. Jahren) bis heute gab es keine erkennbare Kopplung zwischen atmosphärischem CO2-Gehalt und Temperaturniveau (Daten: Wikipedia)

Als weitere Widerlegung der AGW-Theorie vom CO2 als entscheidendem „Klimagas“ können die recht massiven Schwankungen der Temperaturen im Verlauf vergangener Eiszeiten und Zwischeneiszeiten herangezogen werden. Schließlich haben nach aktuellem Stand der Untersuchungen an Eisbohrkernen die CO2-Gehalte in diesem Zeitraum nicht einmal entfernt an heutige Pegel herangereicht. Dennoch schwankten die Temperaturen seit 450.000 Jahren um insgesamt 15 °C um das heutige Niveau, Bild 9.

Bild 9. Im Verlauf der letzten 450.000 Jahre schwankten die Temperaturen im Verlauf mehrerer Eiszeiten und Zwischeneiszeiten bei wenig veränderlichem CO2-Gehalt der Atmosphäre mit einer Spanne von bis zu 15 °C (zwischen etwa – 9 und + 6 °C) um die heutigen Werte (Grafik: Langexp, GNU Wikimedia Commons, [WIC2])

Diese Fakten beweisen eindeutig, dass es egal ist, wie viele Seiten voller einfacher oder auch komplexer mathematisch-physikalischer Herleitungen und Begründungen die Vertreter der AGW-Hypothese zur Untermauerung ihrer Theorien über Wasserdampfverstärkung und Kipppunkte vorbringen: Sie werden durch die Realität der Erdgeschichte ad absurdum geführt.

…und andere Gutenachtgeschichten zum Thema Wasserdampf

Wie bereits dargelegt, wird Wasserdampf ungeachtet seiner starken „Klimawirksamkeit“ seitens des IPCC nicht als „Treibhausgas“ eingestuft. Eine Erklärung für diese seltsam anmutende Haltung finden sich u.a. auf der Webseite der American Chemical Society [ACS]. Zwar wird auch dort zunächst die starke Wirkung von Wasserdampf anerkannt, die in diesem Fall mit 60 % beziffert wird. Dann wird jedoch behauptet: „Allerdings bestimmt der Wasserdampf nicht die Erdtemperatur, stattdessen wird der Wasserdampf durch die Temperatur bestimmt“. Der Treibhauseffekt werde ausschließlich durch nicht-kondensierende Gase bestimmt. Die entscheidende Rolle spiele das CO2, ergänzt um kleinere Beiträge durch Methan, Stickstoffmonoxid, Lachgas und Ozon. Hinzu kämen kleinere Anteile durch die menschliche Zivilisation erzeugter Gase auf Basis von Chlor- bzw. Fluorverbindungen. Schließlich wird die Katze aus dem Sack gelassen: Als Begründung für den Ausschluss des Wasserdampfs dient auch den US-Chemikern ausschließlich die im vorigen Absatz bereits umfassend widerlegte Theorie von der „Wasserdampfverstärkung“. In die gleiche Kerbe schlagen sowohl das deutschsprachige Wikipedia als auch die englische Version [WITR, WITE].

In der englischen Fassung findet sich allerdings noch ein weiteres und besonders abenteuerliches Argument: Man vergleicht die Verweildauer von CO2 in der Atmosphäre von „Jahren oder Jahrhunderten“ mit der viel kürzeren durchschnittlichen Verweildauer eines H2O-Moleküls in der Atmosphäre von lediglich 9 Tagen. Das wird dann als Begründung dafür angeführt, dass Wasserdampf lediglich „auf die Wirkung anderer Treibhausgase reagiere und diese verstärke“. Dieses Argument ist an Lächerlichkeit kaum zu überbieten. Im Mittel tritt ja bei Vorliegen geeigneter Bedingungen ebenso viel Wasserdampf durch Verdunstung neu in die Atmosphäre über, wie durch Kondensation ausgefällt wird, so dass die Konzentration im Großen und Ganzen unverändert bleibt. Das an den Haaren herbeigezogene Argument von der geringen Verweildauer ist somit hinfällig. Bei geschlossenen Kreisläufen wie dem des Wassers zwischen Gewässern, Atmosphäre und Land ist es völlig unerheblich, ob ein einzelnen Molekül nur fünf Sekunden oder 5.000 Jahre in einem der Stadien des Kreislaufs verbleibt. Das einzige was zählt ist die Gesamtmenge bzw. der jeweilige Anteil des betreffenden Stoffs in diesem Stadium, und diese bleiben im statistischen Mittel unverändert oder driften höchstens vergleichsweise langsam über längere Zeiträume nach oben oder unten. Das kann schon ein Gymnasiast im Physikunterricht leicht nachvollziehen.

Von entscheidender Bedeutung wäre dieses Argument dagegen bei Stoffen, die durch bestimmte Ereignisse mehr oder weniger plötzlich in großen Mengen in die Atmosphäre freigesetzt und von der Natur entweder schnell, langsam oder gar nicht resorbiert bzw. in Senken abgelagert werden. Dies ist beim CO2 z.B. nach dem Ausbruch von Supervulkanen der Fall. Hier ist eine möglichst genaue Kenntnis der zugrundeliegenden Kreisläufe, ihrer Stoffflüsse und deren Gesetzmäßigkeiten unabdingbar. Doch auch hier wird von den AGW-Propheten massiv geschummelt. Aus Platzgründen wird hierauf in einem weiteren Artikel noch detailliert eingegangen.

Die Wolken sind der Hund, das CO2 höchstens der Schwanz

Der nächste Aspekt, bei dem sich die AGW-Vertreter mit ihren Theorien regelrecht an Strohhalme klammern, ist das Thema Wolken. Zunächst sei angemerkt, dass es sich auch hierbei um Wasser handelt, allerdings liegt es im flüssigen (Wassertröpfchen) bzw. festen (Eiskristalle) Aggregatzustand vor. Und diese Wolken haben es in sich. Das IPCC behauptet ja, dass ein angenommener Energiefluss (siehe Bild 3) von 0,6 W/m2 das Erdklima bedrohen soll. Das sind jedoch gerade mal etwa 1,3 % des Betrags von 47 W/m2, den die Wolken direkt wieder ins Weltall reflektieren [STEP]. Nun weiß jeder Mensch aus eigener Erfahrung, dass kaum ein Wetterphänomen so unstet ist wie die Wolken. An einem schönen Sommer-Sonnentag kann es sein, dass ihre Abschattung kaum ins Gewicht fällt, bei Unwettern kann es dagegen selbst mitten am Tage so dunkel werden, dass man im Haus das Licht einschalten muss. Ihre Wirkung auf den Energie- und damit Temperaturhaushalt der Erde ist daher ebenso erratisch wie gewaltig. Diese Phänomene konnten früher mangels geeigneter Instrumente nicht gemessen werden. Eine Erfassung durch Satelliten ist erst seit wenigen Jahrzehnten möglich, doch deckt diese wesentliche Aspekte wie die Transparenz für verschiedene Wellenlängen nur unvollständig ab. Hier ist eine Erfassung vom Boden aus nicht zu ersetzen.

Ein weiterer, ebenso wichtiger Aspekt ist der, dass Wolken eine ganz besondere Eigenschaft haben: Sie absorbieren und emittieren Licht aus allen Bereichen des Spektrums, also auch die infrarote Strahlung, die von der Erdoberfläche ebenso ausgeht wie von den IR-strahlungsfähigen Gasen in der Atmosphäre. Zudem geben sie als flüssige Körper mit Masse und Temperatur selbst IR-Strahlung in einem annähernd kontinuierlichen Spektralbereich sowohl nach oben als auch nach unten ab. Während sie also einerseits die Erde nach oben gegen die Sonnenstrahlen abschirmen, sorgen sie „nach unten“ dafür, dass mehr Strahlungsenergie wieder Richtung Erdoberfläche reflektiert wird als bei freiem Himmel. Hinzu kommt der nicht unerhebliche Anteil „Eigenstrahlung“ in alle Richtungen. Die entsprechenden Energiebeträge liegen um zwei Größenordnungen über dem angenommenen „Imbalance“-Betrag und um mehr als anderthalb Größenordnungen über dem Beitrag, der den angeblichen „Klimagasen“ zugeordnet wird. Schon geringe Unsicherheiten bei der Erfassung der Wirkung der Wolken reduzieren daher den „Imbalance-Effekt durch Klimagase“ auf den Rang einer nicht maßgeblichen Störgröße. Wenn man sich dies vergegenwärtigt, kann man nur staunen, auf welch wackliger Grundlage die AGW-Theoretiker ihre Gedankengebäude aufgebaut haben.

Die Uneinigkeit der Wissenschaft beim Thema Wolken

Eines der meistgebrauchten Totschlags-Argumente gegen die sogenannten Klimaskeptiker ist bekanntlich die Behauptung, „die Wissenschaft“ sei sich in der Frage der menschengemachten Klimaerwärmung zu 97 % einig und diejenigen, die nicht damit übereinstimmten, seien Querulanten, Spinner oder Laien ohne die erforderliche wissenschaftliche Qualifikation. In Anlehnung an die rechtlichen Regelungen bezüglich des Verbots der Leugnung von Nazi-Vergehen wird besonders gerne der diskriminierende Begriff „Klimaleugner“ verwendet. Für diese fordern manche besonders forsche Exponenten der Mehrheitsmeinung teils bereits die Todesstrafe, teils bereiten sie wie einige US-amerikanische Staatsanwälte Strafverfolgungsverfahren auf der Grundlage von Gesetzen vor, die für die Bekämpfung des organisierten Verbrechens geschaffen wurden. Angesichts dieser massiven Drohungen und Diskriminierungen macht es daher Sinn, sich mit dem angeblichen „Konsens der Wissenschaft“ beim Thema Wolken und ihrer Wirkung auf das Klima etwas näher zu beschäftigen.

In der englischen Fassung von Wikipedia [WITE] werden Wolken unter Berufung auf eine Untersuchung von Schmidt et al. aus dem Jahre 2010 [SCHM] als Hauptverursacher der Klimaerwärmung eingestuft. Die Autoren ordnen dem Wasserdampf rund 50 % des Treibhauseffekts zu, die Wolken sollen weitere 25 % ausmachen, 20 % kommen demnach vom CO2 und die restlichen 5 % werden Aerosolen und den sogenannten „minor greenhouse gases“ zugeschrieben.

Weniger sicher ist man sich dagegen bei den Redakteuren der deutschen Fassung von Wikipedia [WITR]. Dort wird zunächst erläutert, dass Wolken als kondensierter Wasserdampf streng genommen kein Treibhausgas darstellten. Sie absorbierten aber IR-Strahlung und verstärkten dadurch den Treibhauseffekt ***). Zugleich reflektierten sie jedoch auch die einfallende Sonnenenergie und hätten daher auch einen kühlenden Einfluss. Die Frage, welcher Effekt überwiege, hänge von Faktoren wie der Höhe, Tageszeit/Sonnenhöhe, Dichte oder geografischen Position der Wolken ab. Inwieweit eine Erderwärmung die im gegenwärtigen Klima insgesamt kühlende Wirkung der Wolken abschwäche oder verstärke, sei die unsicherste Rückkopplungswirkung der derzeitigen globalen Erwärmung. Der letzte Satz ist übrigens so geschickt formuliert, dass man ihn erst genauer lesen muss. Erst dann erkennt man, dass hier den Wolken in der jetzigen klimatischen Situation de facto eine kühlende Wirkung zugesprochen wird. Die Unsicherheit bezieht sich lediglich auf den Fall, dass es in Zukunft tatsächlich zu einer Erwärmung des Klimas kommen sollte.

Ziemlich präzise sind dagegen die Angaben des Wiki-Bildungsservers [WIBI]. Dort wird ausgesagt, dass Wolken einerseits die planetare Albedo um ca. -50 W/m2 erhöhten, auf der anderen Seite jedoch auch durch Absorption und Emission der langwelligen Wärmestrahlung mit etwa + 30 W/m2 zum Treibhauseffekt beitrügen. Der Netto-Strahlungseffekt liege damit bei ungefähr -20 W/m2, was eine deutliche Abkühlung des gegenwärtigen Klimas bewirke. Nach Umrechnung der beiden gegenläufigen Effekte in Temperaturen ergebe sich aus einer Abkühlung um -12 °C und einer Erwärmung um +7 °C eine netto-Abkühlung von -5 °C.

Eine sehr fundierte Einschätzung findet man bei dem bereits erwähnten International Satellite Cloud Climatology Project (ISCCP) der NASA [WONA], wo man sich intensiv mit den extrem komplexen Zusammenhängen der Bildung von Wolken und ihres Einflusses auf das Klima beschäftigt. Dabei kommt man zu sehr klaren Aussagen: So wird im Zusammenhang mit Strahlungs- und Niederschlagswechselwirkungen von Wolken lapidar festgestellt, dass man derzeit nicht wisse, wie groß diese Effekte seien. Deshalb sei eine korrekte Vorhersage eventueller Auswirkungen auf den Klimawandel nicht möglich. Und dann kommt es (zumindest für die AGW-Vertreter) knüppeldick, findet sich dort doch die Einschätzung, dass die aktuell verwendeten Programme zur Simulation des Klimas insbesondere mit Blick auf die Vorhersagegenauigkeit bezüglich Wolkenbildung und Regenmengen viel zu ungenau seien. Für eine vertrauenswürdige Klimavorhersage müsse die diesbezügliche Vorhersagegenauigkeit um den Faktor 100 (!) besser werden. Dies setze auch entsprechend verbesserte Messverfahren voraus. Damit ist im Prinzip alles, was bisher an Klimasimulationen präsentiert wurde, aus berufenem Munde (NASA/GISS) für unbrauchbar erklärt worden.

Auf Satellitenmessungen des „Earth Radiation Budget Experiment“ (ERBE) stützt sich die Einschätzung von Prof. Walter Roedel in seinem Buch über Physik der Atmosphäre [ROED]. Diese Daten zeigten, dass global die Abkühlung durch die Erhöhung der planetaren Albedo (immer im Vergleich zu einer wolkenfreien Atmosphäre) gegenüber der Erwärmung durch die Reduzierung der langweiligen Abstrahlung weit überwiege, wenn auch mit starker regionaler Differenzierung. Einem globalen Verlust von etwa 45 bis 50 W/m² aufgrund der erhöhten Albedo stehe nur ein Gewinn von etwas über 30 W/m² durch die Reduktion der thermischen Abstrahlung gegenüber; die Strahlungsbilanz wird also durch die Bewölkung um 15 bis 20 W/m² negativer. Das liegt etwa um den Faktor 10 über dem behaupteten Einfluss des CO2.

Interessante Erkenntnisse zur Größe und Variation der IR-Strahlung aus der Atmosphäre zum Boden liefern Messungen von E.I. Nezval et al. [NEZV] bei Untersuchungen in Russland über mehrere Jahre. Obwohl hierbei nur die abwärtsgerichteten Strahlungskomponenten erfasst wurden, sind die Daten sehr aufschlussreich, da sie die erhebliche Größenordnung sowie die enorme Variabilität der von Wolken und Wasserdampf gelieferten Beiträge zum Energiehaushalt der Atmosphäre verdeutlichen, Bild 10.

Bild 10. Messdaten zur abwärtsgerichteten IR-Strahlung in der Region Moskau über drei Jahre. Der Beitrag aller „offiziellen Klimagase“ (vergl. Bild 5) ist nur etwa halb so groß wie die Strichdicke der Achseinteilung, auf die der Pfeil zeigt (Grafik: E.I. Nezval et al. [NEZV])

Die höchste abwärtsgerichtete IR-Strahlungsintensität wurde an einem wolkenreichen Juliabend 2009 mit 424 W/m2 gemessen, die niedrigste Wert von 169 W/m2 wurde bei klarem Himmel in den Morgenstunden eines Februartags registriert. Vergleicht man diese Zahlen und ihre Variationsbreite mit dem vom IPCC angegebenen „Strahlungsantrieb“ der Klimagase von lediglich 1,6 W/m2, so kommt man auf einen Multiplikator von bis zu 265 (!). In Sommermonaten variierte der nach unten gerichtete IR-Strahlungsanteil innerhalb eines Tages um bis zu 33 W/m2. Man vergleiche dies mit aktuellen Simulationen, die mit festen Mittelwerten von beispielsweise ganzjährig 1,6 W/m2 arbeiten. Zudem werden die atmosphärischen Eingangsdaten wie Temperatur oder Luftfeuchtigkeit bis heute oft nur mit einstelliger Genauigkeit gemessen. Daher ist die Nonchalance, mit der die Creme der „Klimawissenschaft“ meint, dem Einfluss des „anthropogenen CO2“ die Hauptrolle zuordnen zu müssen und Simulationen auf der Grundlage von solch unsicheren Daten vertrauen zu dürfen, selbst für jemanden ohne wissenschaftlichen Hintergrund nur sehr schwer nachvollziehbar. Stattdessen sollte man besser darangehen, zunächst einmal die Hauptfaktoren des Wetter-und Klimageschehens flächendeckend mit ausreichender Genauigkeit und zeitlicher Auflösung zu ermitteln, bevor man Klimasimulation betreibt 

Mangelnde Wissenschaftlichkeit: Das Dilemma der AGW-Vertreter

Die hier aufgeführten Beispiele zeigen, dass die ganze auf dem angeblichen Effekt des „wichtigsten Treibhausgases CO2“ basierende AGW-Theorie wissenschaftlich kaum haltbar ist. Hier wird vor allem Ideologie unter wissenschaftlichem Mäntelchen verpackt und dem Volk mit dem dicken Knüppel der Medien (Prof. Lesch, Schellnhuber und Konsorten) und der Politik (massive Einflussnahme auf Stellenbesetzungen und Fördergelder) schon ab Kindergartenalter in die Gehirne geprügelt. Kritische Meinungen versucht man nicht nur durch Verweis auf einen angeblichen „Konsens der Wissenschaft“, sondern zunehmend auch durch Einschüchterung, Verleumdung sowie direkte Diskriminierung zu unterdrücken. Und das, obwohl sich die Aussagen der AGW-Vertreter schon bei elementaren Grundlagen teils diametral widersprechen.

Präzise auf den Punkt gebracht hat dies der emeritierte Associate Professor für Meteorologie vom Geophysikalischen Institut der Universität in Fairbanks (Alaska, USA), Dr. rer. nat. Gerhard Kramm, in einer kürzlichen Stellungnahme zur Klimadiskussion [KRAM]: „Der sogenannte atmosphärische Treibhauseffekt beruht auf pseudowissenschaftlichem Müll. Mit Physik hat dieser Müll nichts zu tun. Wäre es ein physikalischer Effekt, dann wäre er eindeutig definiert. Das Gegenteil ist der Fall. Es gibt eine Vielzahl von unterschiedlichen Definitionen und Erklärungen, die sich z.T. sogar widersprechen. Selbst die Esoterik stellt höhere Ansprüche als die sogenannte Klimaforschung“.

Fred F. Mueller

Fußnoten

*) Bei der Quantifizierung von CO2-Kreisläufen wird aus praktischen Erwägungen nur der Kohlenstoffanteil im CO2 berücksichtigt, weil der Kohlenstoff in Reservoirs wie z.B. Pflanzen oder Humus auch in völlig anderen Verbindungen vorliegen kann, aus denen sich erst später wieder CO2 bildet.

**) In der Regelungstechnik entspräche dies einer „Mitkopplung“, also einem Effekt, den man z.B. dann erlebt, wenn man mit dem Mikrofon eines Verstärkers zu nahe an die Lautsprecher kommt: Es kommt zu einem immer lauter werdenden Brummen oder Pfeifen, das solange zunimmt, bis die Anlage an ihre Grenzen gekommen ist. Die Geowissenschaften beweisen jedoch, dass Temperaturen und Klimaentwicklung der Erde seit hunderten Millionen von Jahren trotz gelegentlicher schwerer Katastrophen (Vulkane oder Meteoreinschläge) stets innerhalb vergleichsweise vernünftiger Grenzen verblieben sind und die Effekte solcher Katastrophen ausbaalaciert werden konnten. Statt einer katastrophalen Mitkopplung wurde unser Klima demnach offensichtlich von einer sehr gutmütigen Gegenkopplung erstaunlich stabil auf einem lebensfreundlichen Kurs gehalten.

***) Diese Erklärung hätte bei Physiklehrern alter Schule noch die Bemerkung „Sechs, setzen“ ausgelöst, verbunden mit einer Strafarbeit zum Thema, dass nicht die Absorption, sondern höchstens die (Re-)Emission von IR-Strahlung einen Beitrag zu einem „Treibhauseffekt“ leisten könne. Aber Wikipedia als angeblich seriöses Nachschlagewerk mit dem Anspruch wissenschaftlicher Korrektheit ist schon längst fest in der Hand einer neuen Generation „moderner“ Wissenschaftler, denen ideologische Überzeugungen wichtiger sind als Mathematik, Physik oder Naturwissenschaften.

Quellen

[ACS] https://www.acs.org/content/acs/en/climatescience/climatesciencenarratives/its-water-vapor-not-the-co2.html

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml

[CDIA] http://cdiac.ornl.gov/trends/co2/recent_mauna_loa_co2.html

[EPA] https://www3.epa.gov/climatechange/kids/basics/today/greenhouse-gases.html

[IP01] spm2 https://www.ipcc.ch/report/graphics/index.php?t=Assessment%20Reports&r=AR4%20-%20WG1&f=SPM

[IP02] Climate Change 2013: The Physical Science Basis. Working Group I contribution to the IPPC Fifth Assessment Report

[KRAM] http://www.eike-klima-energie.eu/climategate-anzeige/klimaforschung-eine-spielvariante-der-zukunftsforschung-was-ist-zukunftsforschung-was-kann-sie-leisten/#comment_8

[NEZV] E. I. Nezval, N. E. Chubarova, J. Gröbner, and A. Omura. Influence of Atmospheric Parameters on Downward Longwave Radiation and Features of Its Regime in Moscow. ISSN 00014338, Izvestiya, Atmospheric and Oceanic Physics, 2012, Vol. 48, No. 6, pp. 610–617. © Pleiades Publishing, Ltd., 2012.DOI: 10.1134/S0001433812060102

[NOAA] Image provided by NOAA ESRL Chemical Sciences Division, Boulder, Colorado, USA http://www.esrl.noaa.gov/csd/news/2013/144_0930.html

[ROED] Walter Roedel. Physik unserer Umwelt: Die Atmosphäre. ISBN 978-3-540-67180-0

[SCHM] Schmidt, G. A.; R. Ruedy; R. L. Miller; A. A. Lacis (2010), "The attribution of the present-day total greenhouse effect" (PDF), J. Geophys. Res., 115, Bibcode:2010JGRD..11520106S, doi:10.1029/2010JD014287

[STEP] Stephens et al. The albedo of Earth. http://webster.eas.gatech.edu/Papers/albedo2015.pdf

[TREA] http://www.theresilientearth.com/files/images/Greenhouse_Gas_Absorption-dlh.png

[WIC1] https://commons.wikimedia.org/wiki/File:Sonne_Strahlungsintensitaet.svg   abgerufen am 10.9.2016

[WIC2] https://commons.wikimedia.org/wiki/File:Ice_Age_Temperature_de.png…abgerufen am 11.9.2016

[WILU] https://de.wikipedia.org/wiki/Luft …abgerufen am 30.8.2016

[WIME] https://commons.wikimedia.org/wiki/File:Albedo-R%C3%BCckstrahlung_Infografik.png ….heruntergeladen am 4.9.2016

[WITE] https://en.wikipedia.org/wiki/Greenhouse_gas    abgerufen am 30.8.2016

[WITR] https://de.wikipedia.org/wiki/Treibhausgas….abgerufen am 30.8.2016

[WONA] http://isccp.giss.nasa.gov/role.html….abgerufen am 4.9.2016




Polen bannt die Windenergie und verdoppelt die Förderung der Kohlekapazität, um die Lichter nicht ausgehen zu lassen

Bild rechts: Standardreaktion der Windindustrie auf einschränkende Regeln.

Schlimmer noch für polnische Windverehrer, konfrontiert mit einer erratischen Stromversorgung und steigenden Preisen, hat ihre Regierung beschlossen, die Unterstützung der Kohleindustrie und – Energie Erzeugung zu verdoppeln, damit „die Lichter nicht ausgehen“.

Polen meidet Wind und verdoppelt die Subventionen in zuverlässiger Kohleenergie zur Sicherung seiner Zukunft

Powermag, Autor Sonal Patel

1 August 2016

Polen, ein Land, in dem Stein- und Braunkohlekraftwerke derzeit etwa 85% der Energie erzeugen, hat ein Gesetz verabschiedet, das eine Windkraft Expansion stigmatisiert und grübelt jetzt über Gesetzesentwürfe, die helfen, Investitionen in neue Kohlekapazitäten zu steigern.

Das osteuropäische Land hat dem Trend zu erneuerbaren Energien abgeschworen, dem viele Länder auf dem Kontinent folgen. Als Grund nennen sie die Energiesicherheit. Polen gehört zu den energieintensivsten Volkswirtschaften in der Europäischen Union (EU) und es hat eine der am stärksten abgeschotteten Stromnetze.

Die Temperaturspitzen im letzten Sommer zeigten, wie angespannt die Stromversorgung der Nation ist.

Im August 2015, als eine dauerhafte Hitzewelle die verfügbaren Wassermengen für die Kraftwerkskühlung reduzierte, wurden einige Kraftwerke gezwungen runterzufahren oder wurden nur bei reduzierter Leistung betrieben.

Gepaart mit anderen unerwarteten Kraftwerksabstellungen, wurde der staatliche Netzbetreiber Polskie Sieci Elektroenergetyczne aufgefordert, temporäre Beschränkungen für den Stromverbrauch einzuführen. Mehr als 1.600 Kunden, vor allem die Industrie, wurden davon betroffen.

Bełchatów Power Station.

Bild: powermag.com/wp-content/uploads/2016/08/pwr_080116_gm_fig3.jpg

 Vorstehendes Bild: Wenn ein Riese ausfällt

Eine längere Hitzewelle im August 2015 senkte die Wasserstände in den Flüssen und Seen, so dass einige konventionelle Krafteinheiten aufgrund von Problemen mit der Kühlung gezwungen waren zu abzuschalten oder mit reduzierter Leistung zu arbeiten.

Die Leistungssystemreserven des abgeschotteten Stromnetzes wurden durch das abrupte Abschalten des landesweit größten Braunkohlekraftwerk Belchatow – Bild oben – nach einem technischen Defekt gefährlich vermindert..Mit freundlicher Genehmigung: Wikimedia Commons / Morgre

Das polnische Stromsystem wird wahrscheinlich nur mit Beschränkungen weiterbetrieben werden können, bis neue Projekte ans Netz gehen.

Zwischen 2017 und 2019 sind mehrere neue Kohle-Einheiten geplant, einschließlich des staatlichen 1,8-GW-Werk in Opole, der Polska Grupa Energetyczna, des Eneas 1-GW-Projekt in Kozienice und der 900-MW-Anlage in Jaworzno, der Tauron Polish Energy.

Die Regierung erklärt, dass Polen dringend noch mehr Kapazität benötigt, weil mehr als 75% der bestehenden Kraftwerke mehr als 26 Jahre alt sind und die Nachfrage nach Energie sprunghaft zugenommen hat. Aber Investitionen wurden wegen zu niedrigen [Strom-] Großhandelspreisen, freier Kohlenstoff Zertifikate und steigendem Anteil erneuerbarer Energien in der EU rückläufig.

Mehrere Kohle und Erdgas-Kraftwerke, die in der Entwicklung waren, wurden auf Eis gelegt. Der Energiesektor hat die Regierung aufgefordert, irgendeine Form von Kapazitätszahlungen einzurichten, um die Rentabilität der Einheiten im Bau zu stützen, wenn die Marktbedingungen, wie erwartet, bis 2020 gedämpft bleiben.

Inzwischen hat die Regierung beträchtliche Subventionen für eine Reihe von polnischen Kohleminen gewährt, die nicht in der Lage sind mit Importkohle zu konkurrieren. Eine Rücknahme der Reform ist unwahrscheinlich, für einen Kohlesektor, in dem 130.000 Menschen beschäftigt sind, konzentriert vor allem in der Industrieregion Oberschlesien.

Es überrascht nicht, dass die neue Regierung – dominiert von der konservativen Partei Recht und Gerechtigkeit, der langjährigen liberal-konservative Bürgerplattform im letzten Oktober-widersteht und die ehrgeizigen EU-Klimaziele verdrängt. Dafür wurde die Regierung auch in letzter Zeit beschuldigt, die Perspektiven des Landes für erneuerbare Energien durch Favorisierung des Kohlesektors zu sabotieren.

Ende Juni unterzeichnete der Präsident ein umstrittenes Gesetz, das den Bau von Windparks in der Nähe von Nationalparks und Wohngebieten verbietet und fordert von Betreibern von Windparks die Erneuerung der Betriebslizenz alle zwei Jahre und die Sicherzustellung, dass die [bestehenden] Windkraftgeneratoren repariert oder modernisiert werden.

Die Ratingagentur Moody sagte, das Gesetz werde die Investitionen in erneuerbare Energien bremsen, die gehaltene Reserve-Kapazität verschärfen und die Bemühungen Polens erschweren, bis zum Jahr 2020 15% seiner Leistung im Rahmen eines EU-Mandat aus erneuerbaren Energien zu erzeugen (derzeit 13% aus erneuerbaren Energien).

Polen wird sich wahrscheinlich auf Biomasse und Biogas verlassen, um die Lücke zu füllen. Zur gleichen Zeit werden die Gesetzgeber die Entwürfe der Gesetzgebung entwickeln, um Investitionen für mehr Kapazität im Kohlekraftsektor zu stimulieren. Laut Reuters wird der Gesetzentwurf in diesem Herbst veröffentlicht werden.

Auch in Polen ist es ein Flop

Bild: stopthesethings.files.wordpress.com/2016/05/turbine-collapse-ireland.jpg

Erschienen am 06.09.2016 auf Stopthesethings

Übersetzt durch Andreas Demmig

 https://stopthesethings.com/2016/09/06/poland-bans-wind-power-orders-a-double-helping-of-coal-to-keep-the-lights-on/




Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

Die konventionelle Landwirtschaft hatte ein ganz kleines bisschen weniger Ertrag, als im letzten Jahr des „Klima-Menetekels“. Deshalb jammert sie (wegen einem Prozent weniger gegenüber dem Höchstertrag) wie üblich, wies aber Erträge aus, welche einfach weiterhin nur hervorragend waren:

Anm.: Nicht Deutschland, aber zur Information, wie das angebliche CO2-Gift den Weizenertrag fördert, obwohl Amerikas Westen angeblich durch den Klimawandel „verbrennt“:
dlz Agrarmagazin: USA: So soll sich die diesjährige Weltweizenernte nur noch auf rund 727 Mio. t belaufen und damit das zweithöchste Niveau erreichen. Das wären ein Prozent oder rund 7 Mio. t weniger als 2015.


Bild 1 Getreide Welt. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Auch für Deutschland lässt sich das bekannte Frankenlied synonym verwenden, allerdings mit einer modernisierten Erweiterung:

So viel Korn ist zu verladen, dass auf des Maines Flut die Lastkähne in Stau geraten

Damit bestätigen die letzten Ernten, was bereits in „Ernteerträge und Klimawandel“ berichtet wurde: Die Erträge übersteigen laufend alles bisher da gewesene. Von einem negativen Klimawandel-Einfluss wirklich nirgends eine Spur.

Was nicht bedeutet, dass Bauernpräsidenten nicht umso dreister gegen alle Fakten (bzw. gegen die wegen Überangeboten zu niedrigen Weltmarktpreise) jammern, was das Zeug hält.

[2] Berlin – Die Ernte in Deutschland fällt diesmal drastisch schlechter aus
Vielen Ackerbauern geht das Geld jetzt auch aus», sagte Bauernpräsident Joachim Rukwied bei der Vorlage einer Erntebilanz.
Wegen ungünstigen Wetters zeichnet sich bei Getreide ein Minus von elf Prozent auf 43,5 Millionen Tonnen ab – weniger waren es zuletzt vor fünf Jahren. Auch bei Raps dürften mit 4,5 Millionen Tonnen elf Prozent weniger hereinkommen als im Vorjahr. Angesichts niedriger Weltmarktpreise für viele Produkte hoffen die Landwirte auf mögliche weitere Krisenhilfen des Staates von 100 Millionen Euro.

DER SPIEGEL: Ernte 2016: Regen, Pilze, Krankheiten – schlechtes Wetter lässt Bauern verzweifeln Der verregnete Sommer sorgte bei Kartoffeln für Probleme mit Pilz- und Infektionskrankheiten. "Wir sind froh, dass wir heute mit Pflanzenschutzmitteln, die Pilzinfektionen bekämpfen können. Hätten wir diese nicht gehabt, gäbe es in diesem Jahr keine Kartoffeln", sagte Rukwied dem Bayrischen Rundfunk.

Was für einen Bauerverbands-Präsidenten „drastisch schlechter“ bedeutet, kann man in der offiziellen Ertragstabelle sehen. Die Abweichungen vom hohen Mittelwert der Jahre 2010 – 2015 sind in der Regel so minimal, dass es kaum gemessen werden kann. Interessant ist nur, dass die Erträge im angeblichen Katastrophenjahr 2015 bis auf Sommerweizen und Hafer durchgehend noch besser waren. Lediglich aufgrund der extrem guten Ergebnisse des Jahres 2015 ergeben sich nun moderate Minderungen:

  

Bild 2 Getreide Deutschland 2016, Daten aus dem Schaubild 1 im BFEL-Bericht vom Autor tabelliert und erweitert. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Selbst der Hopfen, nach den Grünen und Prof. H. Lesch ein angeblich untrüglicher Indikator für den schlimmen Einfluss des Klimawandels „Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?“, spielt das grüne Klimaspiel nicht mit:

Bild 4 Deutschland Hopfenerträge. Daten für 2016 vom Autor ergänzt (rot). Quelle: LfL Jahresbericht 2015 Sonderkultur Hopfen

Und nicht einmal die gemeldeten, angeblich immer schlimmeren Ertragsschwankungen zeigen sich bei einer Nachschau: „Schlechte Erntejahre kommen ganz offenbar immer häufiger

Einfügung: Gerade vor dem Wegschicken kam auf EIKE die Ernteinfo von Herrn Kämpfe:

Die erfreuliche Nachricht: Sehr gute Getreideernte 2016 in Thüringen- wo bleiben die negativen Folgen des angeblichen „Klimawandels“?

welche die Darstellungen bestätigt.

Trotzdem wird von Experten unbekümmert simuliert. Und im Computer sinken die Weizenerträge kontinuierlich. Wenn man feststellt, dass die Simulationen nicht mit den realen Daten übereinstimmen, werden viele Simulationen erzeugt und dann gemittelt – mangels Unabhängigkeit ein eklatanter, statistischer Fehler – beim Klimawandel aber erlaubt, falls sich nur so ein Alarm erzeugen lässt. Und wie früher dem Mann auf der Kanzel nicht widersprochen werden durfte, gilt es heute für Ergebnisse von Computersimulationen.

Bundesministerium für Bildung und Forschung, Journalbeiträge:

Rechnen mit der Unsicherheit Starke Einbrüche beim Weizen

Die Forscher verglichen die Ergebnisse von 30 Computermodellen mit experimentellen Daten von Versuchsfeldern in Arizona (USA). Dabei stellten sie fest, dass die Modelle mit zunehmender Temperatur von den Ergebnissen der Feldversuche abwichen. Lediglich der Median aller Modelle kam den im Feld ermittelten Ergebnissen nahe. Daraus schlossen die Forscher, dass ein Modell alleine unter Umständen keine realitätsnahen Prognosen liefern kann, sondern dass die Werte mehrerer Modelle verwendet werden sollten, um Aussagen zu treffen. Ihre Ergebnisse nutzten die Forscher anschließend zu einer Prognose der globalen Weizenerträge bei steigenden Temperaturen: Hier zeigte sich, dass die Erträge mit jedem Grad mehr um etwa sechs Prozent einbrechen werden. Weltweit wären das 42 Millionen Tonnen, etwa ein Viertel des 2013 global geernteten Weizens. Sie stellten zudem fest, dass die Ertragseinbußen beim Weizen bereits bei geringeren Temperaturanstiegen einsetzen, als bisher berechnet wurde.

Während sich die Ernten der gescholtenen Agrarindustrie allen Simulationsergebnissen sogenannter Klimafachleute widersetzen und dank dem sich stetig wandelnden Klima von einer Ertragsspitze zur nächsten eifern, gibt es eine Ausrichtung, welche nach der Ideologie davon nicht betroffen sein soll, aber genau darunter massiv verzweifelt.

Biobauern traf der Sommer 2016 hart

Neue Zürcher Zeitung 4.8.2016: [6] Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?

In einem Jahr wie diesem zeige sich schonungslos, dass diese ökologisch geprägte Politik nicht aufgehe. An Zürcher Sammelstellen zeige sich bezüglich der Getreideernte «der blanke Horror»: Vor 150 Jahren hätte eine solche Missernte ein Hungerjahr bedeutet, sagt Haab, jetzt müsse halt stärker auf das Ausland gesetzt werden. Dies sei die Quittung dafür, dass Bauern mit Beiträgen vom Bund im Rahmen des Extenso-Programms und mit IP-Suisse-Geldern davon abgehalten würden, ihre Weizen wirksam vor Pilzbefall zu schützen.
Bauern, die extensiv produzierten, also ohne Einsatz von Fungiziden, hätten einen Ernteausfall von rund 40 Prozent zu verkraften, konventionelle Produzenten einen solchen von 20 bis 25 Prozent, sagt er.

DIE WELT 11.08.16: [5] Ernteausfälle bei Bio-Gurken im Spreewald
Ein Betrieb aus Steinreich (Dahme-Spreewald) etwa beklagt bei Bio-Schälgurken Ernteausfälle von 70 Prozent. Grund sei eine Pilzkrankheit. Die EU stufte vor Jahren ein Mittel dagegen, das im Ökolandbau angewendet durfte, als Pflanzenschutzmittel ein. Damit darf es nicht mehr auf die Felder
.

Frankfurter Rundschau 21. Juli 2016: Kleine Körner, faule Kartoffeln
Auch Kartoffeln dürfte es dieses Jahr weniger geben. Die Kraut- und Knollenfäule wütet, eine Pilzkrankheit, die ebenfalls durch Nässe ausgelöst wird. „Auf manchen Äckern gibt es Einbußen bis zu 100 Prozent“, sagt Weber.

[3] Insbesondere für die Erzeuger von Biokartoffeln war die Ausbreitung des Krautfäuleerregers Phytophthora infestans ein großes Problem; im Ökoanbau wurde auch ein vermehrtes Auftreten von Kartoffelkäfern beobachtet.

topagrarONLINE, 09.08.2016: Bio-Kartoffelbauern in der Pfalz drohen 100 Prozent Ernteausfall
Feucht-warme Witterung begünstigt die Krankheit und kann zu Ertragsverlusten von 20 bis 40 % oder sogar zu Totalschaden führen. Die Behandlung mit Kupfer, die im Bio-Anbau bis zu einer bestimmten Grenze pro Hektar erlaubt ist, greift bei häufigen Niederschlägen nicht, weil das Kupfer sofort wieder von der Pflanze abgewaschen wird und damit wirkungslos bleibt. Andere Pflanzenschutzmittel, wie zum Beispiel das systemisch wirkende und komplett abbaubare Kaliumphosphonat, sind beim Bio-Anbau nicht erlaubt.
Die Ökobauern befinden sich aufgrund des dauerhaft feuchten Wetters im Frühjahr und Frühsommer 2016 in einer Zwickmühle. Entweder sie verlieren ihr
Biosiegel oder die komplette Ernte.

Welch gewaltigen Ertragunterschiede schon „im normalen Mittel“ bestehen, zeigt ein Artikel von „agrar heute“. Und er zeigt, dass der Biolandbau im Vergleich nicht besser, sondern schlechter wird. Die Daten stammen vom inzwischen grün eingefärbten Landwirtschaftsministerium, somit dürften sie nicht allzu weit daneben liegen.

agrar heute 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Die Datengrundlage lieferte das sogenannte Testbetriebsnetz des Bundeslandwirtschaftsministeriums. Hier werden repräsentative Daten von Betrieben beider Bewirtschaftungsformen unter ähnlichen Bedingungen (u. a. Betriebsgröße, Standort) erhoben und verglichen.

Bild 5 Mehrerträge im konventionellen Landbau gegenüber Ökolandbau. Quelle: agrar heute, ausgabe 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Natürlich finden sich beliebig viele Veröffentlichungen, welche das Gegenteil beweisen. In aller Regel gelingt dies, indem „Umweltkosten“ und vor allem auch „Klimaschutz-Nutzen“ monetär bewertet und zugerechnet werden.

Nutzen von Pflanzenschutzmitteln

Man sollte meinen, diese Tatsachen würden zwar nicht Biophantasten, aber wenigstens offizielle Verantwortliche überzeugen. Dem ist aber nicht so. Berliner Ideologie und Frau Hendricks kann keine Krautfäule überzeugen. Was ideologisch als böse festgelegt ist, muss bestraft werden.
Klimaretter.Info 08.09.3015: "Heutige Landwirtschaft ist auch nicht gut für Bauern"

(Anm.: Frau Hendricks)auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Die Natur hat auf den Menschen noch nie Rücksicht genommen

Das gesamte, vorherige Kapitel zieht es sich wie ein roter Faden hindurch: Ohne moderne Pflanzen-Schutzmaßnahmen geht in feuchteren Jahren ein erheblicher Teil der Ernte verloren.
Im Artikel: Biobauern darben ohne Klimawandel wurde es schon einmal thematisiert.

Eine Illusion der Grünen ist, Natur wäre grundsätzlich „gütig“. Dieses Jahr zeigte wieder, wie sie wirklich ist.

TELEPOLIS 22.08.2016: [4] Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
Welche Folgen Missernten ohne Pflanzenschutzmittel haben, konnte man Mitte des 19. Jahrhunderts sehen: Damals sorgte der Kartoffelmehltau (Phytophthora infestans) dafür, dass die Ernten in Europa in den Jahren 1845 und 1846 deutlich zurückgingen: In Preußen beispielsweise um 47, in Württemberg um 55, in Dänemark um 50, in Schweden um 20 bis 25, in Frankreich um 20, in den Niederlanden um 71, in Belgien um 87 und in Irland um 88 Prozent zurückging.
Dort, in Irland (und in den schottischen Highlands), hatte der Ernterückgang die verheerendsten Folgen, weil man auf etwa einem Drittel der bebaubaren Fläche Kartoffeln anbaute, während man in Württemberg nur 3 bis acht Prozent dafür nutzte. Deshalb verhungerten auf der Insel zwischen 1845 und 1852 mindestens eine Million Menschen. Weitere ein bis zwei Millionen entkamen dem Hungertod nur dadurch, dass sie auswanderten – vor allem in die USA. Am Ende der Hungersnot lebte in Irland ein Fünftel bis ein Viertel weniger Menschen als vorher.

Damit sind die Grünen mit den Biobauern die größten Lebensmittel-Vernichter

Zitierungen aus einem lesenswerten Artikel, von dem die Überschrift zu diesem übernommen wurde.

Novo Argumente, Ludger Wes: [1] Schluss mit der Lebensmittel-Verschwendung
Oft wird den Discountern und Verbrauchern unterstellt, sie würden in großem Maße Lebensmittel verschwenden. Doch an anderer Stelle werden viel mehr Lebensmittel verschwendet.
Verschwendung Biolandbau
Aufmerksame Leser ahnen es: Es geht um den Biolandbau. Der hat in diesem Jahr bei Kartoffeln, Wein, Weizen und Gurken extreme Ernteausfälle zu verzeichnen; in einzelnen Regionen verdarben 30-50 Prozent der Ernte, in anderen 100 Prozent. Als Ursache geben die Ökobauern das feuchte Wetter an, das das Wachstum von Schädlingen wie dem Falschen Mehltau oder der Kraut- und Knollenfäule begünstigt habe.
Das ist jedoch nur die halbe Wahrheit. Unter der Witterung hatten auch konventionell arbeitende Bauern zu leiden. Doch ihre Ertragseinbußen waren weitaus geringer, dank moderner Pflanzenschutzmittel.

Ernteverlust durch Agrarwende
Andreas von Tiedemann, Professor für Pflanzenpathologie und Pflanzenschutz an der Universität Göttingen, rechnete kürzlich bei einem
Vortrag in Göttingen vor, dass Weizen, Reis, Mais, Kartoffeln und Soja etwa 90 Prozent der Weltnahrungsmittel ausmachen. Pro Jahr geht etwa ein Drittel davon durch Krankheiten und Schädlinge verloren. Ohne Pflanzenschutzmittel wären es zwei Drittel. Verluste bei Lagerung und Transport sind dabei noch nicht eingerechnet.
Von Tiedemann erinnerte daran, dass die Gelbrost-Epidemie, die sich seit 2010 in Europa ausbreitet, ohne den Einsatz von Pestiziden 60 Prozent der hiesigen Weizenernte vernichten würde. Ohne Pflanzenschutzmittel würde für Weizen, Gerste, Raps und Kartoffeln eine doppelt so große Anbaufläche benötigt, um die gleichen Erträge wie mit Pestiziden zu erzielen. Die von der Partei Die Grünen und von Umweltschützern geforderte Agrarwende mit Umstellung auf 100 Prozent Bio würde, so von Tiedemann, einen Ernterückgang von 20 bis 50 Prozent bedeuten. In diesem Jahr würden deutsche Landwirte dann womöglich gar keinen
Wein, kaum Kartoffeln und Gurken und nur minderwertigen Weizen ernten.

Das Beispiel zeigt: Bio ist eine Luxuswirtschaftsweise für Menschen in Ländern, in denen die Läden von Nahrungsmitteln überquellen. Menschen in solchen Ländern können es sich leisten, Feldfrüchte auf Hunderttausenden von Hektar vergammeln zu lassen. Mutwillig auf bewährte, jahrelang getestete Pflanzenschutzmittel zu verzichten, bedeutet, die Verschwendung von Ressourcen und Lebensmitteln in großem Maßstab in Kauf zu nehmen. Wer so handelt, hat kein Recht, Unternehmen und Menschen zu verurteilen, die Lebensmittel wegwerfen.
Es scheint also, dass die Verschwendung von Nahrungsmitteln im Ökolandbau zur Standardpraxis gehört. Dank der hohen Preise lässt sich auch dann noch Geld verdienen, wenn ein Großteil der Ernte den Schädlingen überlassen wird. Gelebte Nachhaltigkeit?

Das Klima des Jahres 2016

In einigen Publizierungen wurde das Wetter dieses Jahres und die langfristige „Einsortierung“ bereits dargestellt:

Klima-Monatsrückschau August 2016

Im Klimawandel nicht Neues, der Juli 2016 war im Mittel wieder zu warm

Nachdem vor allem die Feuchte den Biobauern zu schaffen machte, anbei die Niederschlagsdaten der Vegetationsperiode. Dieser lag dieses Jahr im Vertrauensbereich der Mittelwerte und innerhalb eines Bereiches, der dem Wert seit 1881 entspricht. Und trotzdem war es für die Biobauern bereits ein Fiasko. Was passiert erst, wenn das Wetter wie von den Grünen gefordert, noch schlechter wird?


Bild 6 Niederschlag Deutschland Frühling von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

Bild 7 Niederschlag Deutschland Sommer von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

An den Niederschlagsdaten kann man natürlich auch sehen, dass der ominöse Klimawandel in Deutschland bis auf einen geringen Anstieg der Temperaturen (nachdem vorher eine Kaltzeit war) mit keinem sonstigen Klimaparameter feststellbar ist. Da die Daten bis zum August 2016 reichen, lässt sich das Gerede immer weiter steigender Niederschläge (wärmer = mehr Niederschlag) auch in das Land der Klimafabeln verweisen. Jedenfalls lässt sich weder für den Frühling noch den Sommer ein statistischer Unterschied zum Beginn der Messreihe im Jahr 1881 feststellen. Auch die Variabilität nimmt nicht zu, wie es die goldenen Jahres-Differenz-Werte seit 1881 zeigen.

Bonner Politik ist inzwischen zur reinen Umsetzung von Ideologie verkommen

Von der Idee, sich an der Wirklichkeit zu orientieren und dazu glaubhafte Politik zu machen, haben sich die Koalitionsparteien längst verabschiedet. Es ist unfassbar, wie schnell, problemlos und konsequent es einer in Agitation geschulten Person gelang, eine komplette Parteienlandschaft zum reinen Marionettentheater zu degradieren – und wie unsere „Eliten“ wieder dazu überlaufen.
Nun war das Thema Landwirtschaft schon immer fest in Lobbyisten-Hand. Aber nun wird dies selbst in den C-Parteien im Bemühen, die Grünen unbedingt überholen zu müssen, stur um eine ideologische Komponente erweitert: Bayerischer Klimakongress 2016 in Würzburg.

Was auf Landesebene gilt, gilt natürlich auf Bundesebene:

BMEL: Eine Zukunftsstrategie für den ökologischen Landbau

Bei der Kick-Off-Veranstaltung im BMEL in Berlin hat Bundeslandwirtschaftsminister Christian Schmidt am 19. Mai 2015 den offiziellen Startschuss für die Entwicklung der "Zukunftsstrategie Ökologischer Landbau" gegeben. "Die Öko-Landwirtschaft leistet schon heute einen entscheidenden Beitrag zu unserer Ernährung! Ihr Potenzial will ich voll auszuschöpfen!", unterstrich Schmidt.

Umweltbundesamt: Ziel der Bundesregierung ist es, den Ökologischen Landbau in Deutschland weiter zu stärken. Hierzu soll der Anteil der ökologisch bewirtschafteten Fläche an der gesamten landwirtschaftlich genutzten Fläche in Deutschland auf 20 % erhöht werden.

Wie in Berlin aber allgegenwärtig, gibt es Ressorts, welche jeden Unsinn noch wagen zu übertrumpfen. Frau Hendricks will eine Abgabe auf Pflanzenschutzmittel:

Klimaretter.Info 08.09.3015: Hendricks fordert stärkeres Ministerium
"Heutige Landwirtschaft ist auch nicht gut für Bauern"… auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Damit nicht etwa noch im Ansatz so etwas Vernunft diese Erntevernichtung und Frau Hendricks Anweisungen topedieren kann, soll es per Machterweiterung geschehen:

Klimaretter.Info 08.09.3015: … Und fordert ein neues Initiativrecht für ihr Haus – "zur Stärkung der Umweltpolitik des Bundes". Berater empfahlen Hendricks, ein Vetorecht zu fordern

Das würde bedeuten: Die Umweltministerin kann – im Einvernehmen mit der Bundeskanzlerin – verlangen, dass sie sich auch mit Angelegenheiten befassen darf, die eigentlich in den Geschäftsbereich eines anderen Ministeriums gehören.

Wer die Maßnahmen und vor allem unreflektierende Klimahysterie von Frau Hendricks und ihrem Ministerium verfolg, ahnt was das bedeutet: (Noch) denkbare Opposition soll in Zukunft von vornherein ausgeschaltet werden, damit Frau Merkel weiterhin international als Vorreiterin der Klimarettung brillieren kann.

Anmerkung:
Damit soll nicht gesagt werden, dass die industrielle Landwirtschaft in jeder Form immer problemlos und allein selig machend wäre. Aber von einer Seite zur anderen zu überschlagen, sind keine erfolgreichen Zukunftsszenarien.

Die Hopfenbauern machen vor, wie man mit Verzicht auf Ideologie mit gezielter Pflanzenzüchtung und gekonntem (und nicht ideologisch verbotenem) Planzenschutzmittel-Einsatz beides in Einklang bekommen kann.

agrar heute 18.08.2007: Laut dem Industrieverband hat sich gerade beim Hopfen in der Vergangenheit eine erstaunliche Entwicklung vollzogen. Der Ertrag an Alphasäure, der eigentlichen Bierzutat, konnte durch moderne Sorten von 50 auf 400 Kilogramm pro Hektar gesteigert werden. Auch im Pflanzenschutz gab es laut dem Industrieverband beispielhafte Fortschritte. Pilzkrankheiten hätten noch vor 30 Jahren 15 bis 16 Spritzungen im Jahr erfordert. Seither sei in der Hallertau ein raffiniertes Vorhersagesystem für Pilzkrankheiten entwickelt worden. An zahlreichen Beobachtungsstellen werde täglich die Anzahl der Pilzsporen ermittelt. Erreichen sie eine bestimmte Schwelle, werden die Hopfenpflanzer per SMS oder Fax informiert, dass sie eingreifen müssen. Dadurch hätten die Spritzungen bei den modernen toleranten Sorten auf zwei bis vier in der Vegetationsperiode reduziert werden können.

Quellen

[1]
Novo Argumente, Ludger Wes: Schluss mit der Lebensmittel­verschwendung
https://www.novo-argumente.com/artikel/schluss_mit_der_lebensmittelverschwendung

[2]
WELT, 19.08.2016: Schlechte Ernte 2016 bringt Bauern in Bedrängnis
https://beta.welt.de/newsticker/dpa_nt/infoline_nt/wirtschaft_nt/article157749020/Schlechte-Ernte-2016-bringt-Bauern-in-Bedraengnis.html?wtrid=crossdevice.welt.desktop.vwo.google-referrer.home-spliturl&betaredirect=true

[3]
Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

[4]
TELEPOLIS 22.08.2016: Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
http://www.heise.de/tp/artikel/49/49188/1.html

[5]
DIE WELT 11.08.16: Ernteausfälle bei Bio-Gurken im Spreewald
http://www.welt.de/regionales/berlin/article157605956/Ernteausfaelle-bei-Bio-Gurken-im-Spreewald.html

[6]
Neue Zürcher Zeitung 4.8.2016: Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?




Zwei neue Bücher zu Energiewende und „Klimaschutz“

"Risiko Energiewende, Wege aus der Sackgasse"

Konrad Kleinknecht beschränkt sich in seinem Buch im Wesentlichen auf das Thema der Energieversorgung und hier insbesondere auf die deutsche Energiewende. In den Kapiteln 1 bis 4 "Fossile Energiequellen", "Neue Energie" (liest sich wohltuend anstelle des propagandistischen "erneuerbar") und "Neue Spieler" erhält der Leser einen fachlich untadeligen und wohltuend komprimierten Überblick über die fossilen Ressourcen, die Methoden ihrer Nutzung und die "neuen Spieler" China und Indien. Insbesondere in diesem letztgenannten Kapitel werden die ungleichen Größenordnungen der Stromerzeugung deutlich, welche die beiden zu Global Playern strebenden Länder von deutschen Verhältnissen unterscheiden.

Der faktische Unsinn der hierzulande betriebenen Energiewende wird unter dem globalen Blickwinkel noch deutlicher als er aus elementaren technisch-naturwissenschaftlichen Gründen ohnehin schon ableitbar ist. Allein in China werden jedes Jahr so viele Kohlekraftwerke neu gebaut wie in Deutschland insgesamt stehen. Und auch Indien plant seine Stromerzeugung mit Kohle in den nächsten 5 Jahren zu verdoppeln. Daher ist es befremdliche Arroganz zu versuchen diese Länder mit unserem Klimaschutz- und Energiewende-Wahn zu beglücken. Länder von jeweils mehr als einer Milliarde Menschen auf der Schwelle zu Industrienationen hängen überlebenswichtig von der Kohleverbrennung ab. Ihr zügiger Zubau von Kernkraftwerken zeigt zudem, dass sie auch über die Kohlenutzung hinaus klüger und weiter denken als die deutsche Politik. 

Ohne dass es Konrad Kleinknecht explizit formuliert, wird ganz nebenbei an den Beispielen China und Indien der Abersinn der zu nichts verpflichtenden Pariser Klimaverträge entlarvt. Aus nüchterner Faktenschilderung in seinem Buch offenbart sich ferner die schier unglaubliche sachliche Dummheit Deutschlands (oder ist es womöglich sogar eine bewusst geplante Zerstörung der Strominfrastruktur?) mit planwirtschaftlichen Zwangsverfügungen "Klimaschutz", "Dekarbonisierung" und "EEG" in Gesetze und Durchführungsbestimmungen zu gießen. Von Windradmonstern hat die betroffene Bevölkerung ohnehin schon die Nase voll, wie es die stetig zunehmenden Bürgerinitiativen zeigen. 

Der Abschnitt 1.8 des Buchs von Konrad Kleinknecht bietet eine sachgerechte, kurzgehaltene Übersicht über die Wirkung des anthropogenen CO2 auf Klimaparameter und nimmt dieses Thema später unter Abschnitt 5.3 "Risiko Kima" noch einmal auf. Diese beiden Abschnitte bieten ohne unnötigen Ballast das Wichtigste, was der Laie zum Thema "Klima und CO2" wissen sollte. Kapitel 5.3 schließt mit den zutreffenden Sätzen "Die Modellrechnungen über Zeiträume von hundert Jahren sind mit so großen Unsicherheiten behaftet, dass die vorhergesagten Entwicklungen der Temperatur mit Vorsicht zu betrachten sind. Die Modelle müssen wesentlich genauer werden, wenn man sie ernst nehmen will. Es ist zu voreilig, aus den Ergebnissen politische Konsequenzen zu ziehen".

Die verantwortliche Politik freilich "ignoriert so etwas noch nicht einmal" (Zitat Karl Valentin). Dies sagt bereits alles über Demokratieverständnis und Bürgernähe der Verantwortlichen aus. Versuche von neutralen Fachleuten, den politisch Verantwortlichen technische Expertise zu vermitteln und damit für Vernunft zu sorgen, waren bisher so erfolgreich wie einen störrischen Ochsen das kleine Einmaleins zu lehren. Die Politik bevorzugt die Meinung von Öko-Ideologen. Die Mainstream-Medien klagen über Politikverdrossenheit und deren Anprangerung als "Lügenpresse"; wen wundert das unter diesen Umständen eigentlich noch?

Auf den neben "Klimaschutz" zweiten politischen Anlass der Energiewende, die Abwicklung der deutschen Kernkraftwerke, geht Konrad Kleinknecht unter 4.2 "Die Ethikkommission" näher ein. Trotz seiner stilistisch-höflichen Zurückhaltung  entgeht dem Leser natürlich nicht, dass diese Kommission aus Theologen, Soziologen, Juristen und Politikern bestand, aber nicht aus Energie-Experten! Sie war eher eine Art Talk-Show denn ein seriöses Gremium für eine der wichtigsten Gegenwartsentscheidungen Deutschlands.

Zweifellos offenbarte sich mit der Ethikkommision ein absoluter Tiefpunkt des deutschen Intellektualismus. Es offenbarte sich aber auch Feigheit der wenigen Kommissionsmitglieder, die hätten laut und deutlich widersprechen müssen (wie zum Beispiel Jürgen Hambrecht, BASF). Fachfremde und zudem ideologisch Voreingenommene über wichtige technische Weichenstellungen einer Industrienation entscheiden zu lassen ist so sinnvoll wie Gänse zum Sinn des Weihnachtsfestbratens zu konsultieren.

Im zweiten Teil des Buchs von Konrad Kleinknecht werden alle mit der Energiewende verbundenen Risiken fachkundig behandelt: Großflächige Black Out Ereignisse, unheilvoller Einfluss der Energiewende-Profiteure, Untergang der großen Energieversorger, Probleme der Stromspeicherung, Zähmung des fluktuierenden Sonnen- und Windstrom mit teueren Back-up Kraftwerken, expodierende Stromkosten, sich daraus ergebende soziale Schieflagen, Abwanderungen energie-intensiver deutscher Industrie ins Ausland usw. Dies erfolgt ähnlich auch in zahllosen anderen Buchveröffentlichungen mit identischen Schlussfolgerungen. Der Stil von Kleinknecht bleibt aber im Gegensatz zu dem vieler anderer Autoren stets zurückhaltend und ist dabei niemals trocken. Wenn es sachlich ganz schlimm wird, klingen ab und an Ironie oder schwarzer Humor an.

Als Fazit des Buchs von Konrad Kleinknecht bleibt für den Leser eine untadelige Sachinformation und die aus dem Buch implizit zu entnehmende Erkenntnis, dass die konsequente, sofortige Beendigung des gesellschafts-gefährdenden Experiments "Energiewende" unabdingbar ist. Das Buch hat den moderaten Preis von 19,99 €.

"Kriminalfall Klima: Opfer, Täter, Profiteure"

Das Buch von Wolfgang Burkel unterscheidet sich zwar im Stil deutlich von dem w.o. besprochenen Kleinknecht-Buch, die Kernaussagen sind dennoch identisch. Burkel beschränkt sich auf das Thema "Klima", das ja bekanntlich (s. oben) einer der beiden Begründungs-Pfeiler der Energiewende ist. Wolfgang Burkels Stil vermeidet im Gegensatz zu Konrad Kleinknecht nicht die Polemik, ohne diese aber unangemessen zu übertreiben. Das Buch ist daher bestens für Einsteiger geeignet, die sich über Motive, Gründe und Folgen der deutschen "Klimapolitik" informieren und dabei auf angriffsfreudigen und unterhaltsamen Lesegenuss nicht verzichten möchten. Hierbei tragen auch die ämüsanten Zeichnungen im Buch bei, deren Protagonisten – sogar der Eisbär auf dem Buchcover – stets nur mit Zorro-Augenmasken krimineller Täter abgebildet sind.

Wolfgang Burkel scheut keine drastischen Worte, wenn er zum Beispiel über die Klimaforschung schreibt "

Der gesamte blinde Aktionismus zur Rettung des Klimas ist ein extrem teurer und schädlicher Irrsinn. Könnte das ein Laie erkennen? Ja, anders als damals bei Galileo, er könnte! Ein gesunder Menschenverstand reicht völlig aus: Wieso sollte ein wärmeres Klima plötzlich eine Katastrophe sein? Noch nie waren Warmzeiten von Nachteil für die Menschheit, ganz im Gegensatz zu Kaltzeiten oder gar Eiszeiten. Für diesen klammheimlichen Paradigmen Wechsel ist uns die Klima Wissenschaft jede Erklärung schuldig geblieben. Außerdem deutet nichts auf eine galoppierende Erwärmung hin. Entgegen den Prognosen der Panikmacher macht die Klimaerwärmung schon seit 20 Jahren Pause. Ein Zusammenhang zwischen Kohlendioxid und globaler Temperatur besteht offensichtlich nicht oder nur in sehr geringem Maße. Das erkennt man auch daran, dass die Kohlendioxid-Konzentration schon zigfach höher war. Außerdem weiß jeder, dass Kohlendioxid der unverzichtbare Baustein des Pflanzenwachstums ist. Ohne Kohlendioxid wäre Leben auf der Erde nicht möglich. Eine höhere Konzentration steigert die Ernte Erträge, ein Umstand, der seit Jahrzehnten in Gewächshäusern genutzt wird."

Das Buch von Wolfgang Burkel bietet somit einen Gesamtüberblick über alle Schattierungen von "Klimaschutz" sowie den weiteren von Politik und interessierten Interessengruppen aus "Klimaschutz" abgeleiteten sachlichen Schwachsinn. "Klimaschutz" schädigt durch seine extremen Kosten unseren Wohlstand und die unseren Wohlstand erst ermöglichende Industrie. Darüber hinaus bedroht er unsere Demokratie durch die von Ökoideologen geforderte und von der Bundesregierung allen Ernstes in Angriff genommene "große Transformation". Deren Hauptmerkmal ist nichts anderes als Planwirtschaft nach dem Vorbild der ehemaligen DDR.

Ein Atout von Wolfgang Burkels Buch ist sein unschlagbarer Preis von 4,43 € infolge amazon self publishing.

 




Substanzlose Endlagersuche

Zum Artikel der F.A.Z vom 5. August: „Neue Köpfe für die Suche nach dem Atomendlager“ von Herrn Mihm habe ich den veröffentlichten Leserbrief vom 11. August in der F.A.Z „Substanzlose Endlagersuche“ geschrieben, der dieser unglaublichen Geschichte folgt.

Wiesbadener Kurier, 26.09.16         

Die unglaubliche Geschichte von Gorleben, das weltweit zu den technisch     aussichtsreichsten Endlagerprojekten gehört(e)!

„Neue Köpfe für die Suche nach dem Atomendlager“ F.A.Z:

     „ … Jetzt haben BGE und BfE auch Gesichter. Bundesumweltministerin Barbara Hendricks (SPD) hat deren Leiter ernannt. Es sind alte Bekannte, und sie bilden das Spektrum der politischen Farben ab: Schwarz, Rot und Grün. Die dem Ministerium unterstellte Endlagergesellschaft bekommt gleich drei Geschäftsführer: Ursula Heinen-Esser, Ewold Seeba und Hans-Albert Lennartz …“ (F.A.Z. vom 5. August 2016)

Dr. Barbara Hendricks SPD:

BundesumweltministerIn, in deren Ressort die Endlagerung bzw. Untertagedeponierung von radioaktiven „Abfällen“ liegt, brilliert öffentlich mit ihren markanten Ansichten zur Endlagerung:

 2013: „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ (RHEINISCH POST vom 21.12.2013). Dazu sei angemerkt:

– Das soll wohl bedeuten, dass nach ihrer Meinung die bisherigen Untersuchungen und Ergebnisse von Gorleben nicht nach strengen wissenschaftlichen Kriterien durchgeführt worden sind. Darauf kann man nur mit einem Sprichwort antworten: Schuster bleib bei Deinem Leisten.

– Es ist im wahrsten Sinne des Worte realitätsfremd, einen „bestmöglichen“ Standort zu fordern. Gefragt ist ein lange Zeit sicheres Endlager bzw. eine für eine lange Zeit sichere Untertage-Deponie (Synonyme). Denn bei der Forderung ‚bestmöglich‘ müssten dafür mehrere Standorte bis zur Eignungsaussage untersucht und diese Ergebnisse dann miteinander verglichen werden, ohne dabei den sichersten Standort wirklich zu finden, denn es könnte ja noch einen besseren geben, der nicht untersucht wurde.

– Auch ist es fachfremd, ein für eine lange Zeit sicheres Endlager/Untertage-Deponie zu konzipieren, bei dem für 300 Jahre eine Rückholung der „Abfälle“ möglich sein soll: Ein Friedhof kann nicht gleichzeitig ein Krankenhaus sein. Ende ist Ende. Diese Forderung hat keinen rationalen, sondern einen taktisch geschickten ideologischen Hintergrund. Mit ihr ist das viel versprechende geologische Medium Salz aus dem Rennen, denn Salz schweißt als einziges den „Müll“ sehr schnell für lange Zeit sicher ein – und damit ist Gorleben mit dieser eigentlichen sicheren Lösung vom Tisch. Für Zwischenlager eignen sich Stollen oder Hallen.

– Abgebrannte Brennelemente haben nach ca. 600.000 Jahren den Wert der natürlichen Strahlung erreicht. Kokillen mit „Abfällen“ aus wieder aufgearbeiteten Brennelementen nach ca. 300.000 Jahren und der „Müll“ aus „transmutierten“  Brennelementen nur noch nach ca. 300 Jahren. Warum dann die Forderung für eine Million Jahre? Diese Thema wurde wohl aus gutem Grund in dem Kommission-Bericht (Kapitel 542, Teil B, S.128) kaum angesprochen, obwohl es von kompetenten Fachleuten des Instituts für Festkörper-Kernphysik gGmbH Berlin, also von außerhalb der Kommission Vorschläge, dazu gegeben hat (Ruprecht, G.: 10.06.16 EIKE: Das Ende der Endlagerkommission).

 2014: am 10. April  (ZEIT ONLINE, NEWSTICKER) machte sie die Aussage „ … sie hält ein Ausscheiden des Salzstocks Gorleben aus der Suche nach einem Atommüll-Endlager für möglich. Sie könne es sich ’sehr gut vorstellen‘, dass Gorleben nach wissenschaftlichen Kriterien nicht in Frage kommt. Eine ‚politische Vorfestlegung‘ gegen Gorleben könne es aber nicht geben, betonte sie. Gorleben müsse genauso untersucht werden wie alle anderen denkbaren Standorte…“. Die Ergebnisse der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“ scheinen ihr vorenthalten worden zu sein. Auch im Endlagersuchgesetz steht etwas anderes.

 2016: am 5.7.2016 um 17.51 Uhr sagte sie im NDR:  „ … sollten wir uns hüten, bei der Bewältigung dieser Jahrtausendaufgabe auf Zeit zu spielen …“.

Diese Einschätzung könnte heute schon überholt sein. Siehe meinen folgenden Leserbrief vom 11.08.2016.

Ursula Heinen Esser:

 Diplom-Volkswirtin; seit 1983 Mitglied der CDU: Politikerin, von 2009 bis 2013 Parlamentarische Staatssekretärin im Bundesumweltministerium, zuerst unter Norbert Röttgen, dann unter Peter Altmaier. Damals hatte sie die Verlängerung der AKW- Laufzeit unterstützt und im „Untersuchungsausschuss“ zu Gorleben die Meinung der CDU/CSU und FDP mitgetragen: „aus heutiger Sicht sei die Erkundung (von Gorleben) geradezu beispielhaft und fortschrittlich“.

 In dieser Legislaturperiode hat sie das Endlagersuchgesetz mitgestaltet, mit dem Gorleben „quasi“ verboten worden ist, war Vorsitzende der Atommüll-Kommission und wurde nun Vorsitzende der Geschäftsführung der neu gegründeten Bundesgesellschaft für Endlagerung (BGE).

 Zur Asse schrieb sie einmal als Antwort auf Nachfrage von Bärbel Höhn, B’90/DIE GRÜNEN,

Um den beobachteten Anstieg der Krebsfälle durch Strahlung erklären zu können, müsse die Dosis etwa 10 000 Mal höher sein als beobachtet“.

Trotzdem unterstützt sie später als Mitglied der „Frauenkonsensgruppe Asse“, bestehend aus Vertreterinnen der CDU, FDP, SPD und B’90/DIE GRÜNEN, die jeder strahlenrelevanten Vernunft widersprechende Rückholung der nur noch schwachen und immer schwächer werdenden radioaktiven Abfälle (Halbwertzeiten), deren Zwischenlagerung und deren erneute Entsorgung in der Untertage-Deponie „Schacht Konrad.“ In La Paz, Bolivien, das knapp zwischen 3500 und 4000 m über NN liegt, ist die ewige natürliche Strahlung beträchtlich höher als bei der Asse. Dort leben mehr als 800.000 Menschen. Sie werden nicht evakuiert. 

Dieser kurze Abriss zeigt beispielhaft, wie bei der Endlagerwende ein politisch hochgelobter, sehr teurer Konsens gegen einen vielfach dokumentierten fachlich positiven Kenntnisstand der vorigen Endlagerung an den Bürgern vorbei sich durchgesetzt hat. Dies ist ein Rückschritt beim heutigen rasant wachsenden Wissen- und Technologiefortschritt. Hauptsache, man kann dieses Vorgehen für politische und auch eigene Zwecke nutzen wie im DER SPIEGEL zu lesen ist: „… es geht auch um Pfründe und Einfluss, um Gefälligkeiten und Personalpolitik und um die Frage, wer sich den Zugriff auf die wichtigsten Posten sichern kann …“. Und es ist auch ein nicht zu übersehender Hinweis der CDU, zum Machterhalt auf die ökologistischen Wünsche ihres zukünftigen Wunsch-Koalitionspartners B’90/DIE GRÜNEN einzugehen, wie wir schon vor zwanzig Jahren in unserem Politthriller „DIE GERMAN ANGST“ im letzten Kapitel angedeutet haben. Dort sagte der romanhafte Vater des Ökosozialismus Karl: „… Denn jetzt betteln sogar die Konservativen schon bei seinen ideologisch gestählten Polittruppen darum, sie bei ihrem Wunsch zum Machterhalt zu unterstützen. …“ Ein Wunsch-Partner, der weiterhin mit demokratisch nicht legitimierten und um Spenden buhlende Hilfstruppen, wie beispielhaft den NGOs, taktisch geschickt Angst vor Allem erweckt, um weiter an der Macht zu bleiben. Und dann dürften diese auch schnell im politischen Konsens eine hoch subventionierte totale Kohlenstoffwende für Deutschland einfordern. Laut der F.A.Z. vom 27. August fand in diesem Sinne ein gemeinsames Abendessen zwischen der Bundeskanzlerin (CDU) und dem Ministerpräsidenten von Baden-Württemberg (B’90/DIE GRÜNEN) statt, der angeblich meint: „… Schwarz-Grüne passe in die Zeit“!

„ …In der Rolle folgen wird ihm der heutige Präsident des Bundesamtes für     Strahlenschutz, Wolfram König. Der ausgewiesene Entsorgungsexperte König ist 58 Jahre alt, Mitglied der Grünen und war einmal Umwelt-Staatssekretär in Sachsen-Anhalt. Er leitet das BfS, das mit der neuen Behördenstruktur zahlreiche Aufgaben abgeben muss.“ (F.A.Z. vom 5. August 2016).

Wolfram König:

1998 nach der Machtübernahme der Regierung durch die SPD und durch das B’90/DIE GRÜNEN wurde von dem grünen Politiker Trittin, neuer Bundesumweltminister, umgehend sein Parteigenosse König zum Präsidenten des Bundesamtes für Strahlenschutz (BfS) ernannt. Mit dieser Auswahl eines Fachfremden wurde schnell erkennbar, dass damit eines der wichtigsten strategischen Ziele der rot-grünen Regierungskoalition erreicht war: Aus der Behörde von innen heraus taktisch, medial und publikumswirksam zusammen mit politisch gleich gesinnten NGOs die Endlagerung in Deutschland subtil zu stören, zu verzögern, zu unterbrechen und letztendlich zu verhindern. Dieses Ziel hat er inzwischen erfolgreich erreicht. Trotzdem wird er heute als ausgewiesener Entsorgungsexperte gelobt. Zynischer kann man diese Einschätzung der Öffentlichkeit nicht näher bringen.

♦ 2000: zehnjähriges Moratorium für weitere Untersuchungen in Gorleben durchgesetzt.

 2001: Ergebnis der Bewertung des Moratoriums durch eine Internationale Expertengruppe (IEG): Ein Moratorium ist fachlich nicht gerechtfertigt. Wird vom BfS nicht zur Kenntnis genommen, denn es wird in keinem vom BMU und BfS initiierten Bericht erwähnt. Passte wohl nicht in das politishe Konzept des BfS! 

 2001(11. Juni) Vereinbarung zwischen Bundesregierung und den Energieversorgungsunternehmen, dass nichts gegen Gorleben spricht.

 2002: Das Ergebnis des Abschlussberichtes des unabhängigen Arbeitskreises Auswahlverfahren Endlagerstandorte (AkEnd), den der damalige Bundesumweltminister Trittin 1999 vergeben hat, lag vor. Der Arbeitskreis hatte die Aufgabe, alle fundierten Kriterien aufzustellen und zu bearbeiten, die bei einer landesweiten Endlagersuche wichtig sind. Dort sind praktisch schon alle Endlager-relevanten Themen ausführlich behandelt, wie z.B. unterschiedliche Gesteinsformationen, Erkundung, Strahlenschutz, Langzeitsicherheit, Auswahlverfahren,  Öffentlichkeitsbeteiligung, Chancen für die Entwicklung der Standortregionen und vieles mehr. Trotzdem werden jetzt nach der Endlagerwende nochmals die gleichen Kriterien erarbeitet, das heißt, das Rad der Erkenntnis soll unter enormen personellem und monetärem Aufwand neu erfunden werden. 

 2002: Anstatt die damals schon versprochene deutliche Verbesserungen der Transparenz ab jetzt durch eine sachliche und vollständigen Öffentlichkeitsarbeit zu realisieren, wie es in dem AkEndbericht (Kapitel 3 ) sehr deutlich beschrieben wird, wurde vom BfS im Tagesgeschäft zum Thema Gorleben genau das Gegenteil gepflegt.

 2003 – 2005: Beauftragung der BGR durch das BfS, eine Gesamtanalyse zur Entsorgung von radioaktiven Abfällen in Deutschland zu erstellen: Ergebnis: positive Bewertung der geologischen Befunde zu Gorleben. Nichts spricht gegen eine Weiterführung der Untersuchungen.

 2005: Die von der rot-grünen Bundesregierung erhobenen Zweifelsfragen von 2001 sind mit  dieser Einschätzung abgearbeitet. Trotzdem wird das Moratorium nicht aufgehoben.

 Seit 2000: Positive Verlautbarungen zu Gorleben, die vom BfS der Öffentlichkeit sehr zurückhaltend mitgeteilt wurden:

            – Zwischen der Bundesregierung und dem BfS

            – des Bundesrates

            – des Bundesrechnungshofes

            – und von zahlreichen anerkannten Sachverständigen.

 Seit 1997: Unwidersprochene negative Verlautbarungen zu Gorleben:

            – jahrzehntelang von NGOs wie Greenpeace; BUND etc.

            – Gruppe Ökologie (1998) im Jahresbericht der Heinrich Böll Stiftung

            – in der Koalitionsvereinbarung zwischen der SPD und B’90/DIE GRÜNEN (1998) etc..

 2010: In einer gemeinsamen Erklärung von Bundesminister Röttgen und vom Präsidenten König (BfS) heißt es: Zum 1. Oktober wird das Moratorium wieder aufgehoben.

 2013: Der 424 seitige Bericht „Vorläufige Sicherheitsanalyse Gorleben (VGS)“, der die Ergebnisse zahlreicher Einzelberichte von insgesamt 5628 Seiten zusammenfasst, erstellt unter der Leitung der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS), der knapp 8 Millionen Euro gekostet hat, enthält keine Aussagen, die gegen die Eignung von Gorleben sprechen. Der Gesamtbericht ist für Jedermann im Internet zu finden und kann von jedem, der lesen kann, gelesen werden.

 2014: Trotzdem wurde im Konsens aller Parteien die ursprünglich geplante Bewertung des Berichtes durch eine neutrale Peer-Review-Fachgruppe beauftragt, entweder durch die EU, die IAEA oder die OECD/NEA, am 27. Juli 2014 also schon nach vier Tagen panikartig abgesagt, nachdem diese Vergabe durch das Endlagersuchgesetz am 23. Juli 2014 per Gesetz verboten worden ist. Diese Panik beweist die Riesenangst der Anti-Gorleben Ideologen in der Regierung vor der fachlichen Bewertung der VSG-Studie durch eine neutrale Instanz – genauso wie der Teufel eine Riesenangst vor dem Weihwasser hat. Warum wohl? 

 2014: die Ergebnisse des GRS-Studie, die vom BfS wie häufig bei anderen positiven Bewertungen von Gorleben auch nicht aktiv und mediengerecht verbreitete oder nicht verbreitet werden durften, waren dem Niedersächsischen Umweltminister Stefan Wenzel (B’90/DIE GRÜNEN) anscheinend auch nicht bekannt. Denn in seiner Antwort auf die von der FDP parlamentarisch vorgebrachte Frage, welche Fakten gegen eine Eignung von Gorleben sprächen, hat er nur die 9 kurzen, negativen Meinungsäußerungen (17. Wahlperiode Drucksache 17/1799) genannt, die fast ausschließlich in den späten 90iger Jahren von seinen grünen Parteigenossen und NGOs erstellt wurden. In mehreren Fällen mussten die Ergebnisse von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) inhaltlich korrigiert werden. Die positiven Ergebnisse der VSG-Studie wurden wohlweislich nicht genannt. Warum wohl? Kannte er sie nicht oder wollte er nicht?

 2016: Wenzel und König verkünden am 16. Mai (wendland-net.de), dass sich die Arbeiten zur Vorbereitung des Offenhaltungsbetriebes verzögern werden. Deshalb muss der Hauptbetriebsplan bis zum 31.12.2017 notgedrungen verlängert werden.

 2016: In seinem Leserbrief vom 03. Mai 2016 in der F.A.Z und in mehreren anderen Zeitungen „Millionenschwere Subvention“ meint Herr Amannsberger, früherer Leiter des Präsidial-Büros im BfS, dass alle Kosten für Gorleben aus Gründen des Verursacherprinzips, verbunden mit Kapitalismuskritik, von der E-Wirtschaft zu tragen sind. Dabei verleugnet er wider besseres Wissen – er gehörte ja zu den Insidern –, dass in Wirklichkeit die wahren Verursacher der immensen zukünftigen Kosten die Politik aller Parteien ist. Kann man hier möglicherweise noch den langjährigen Geist des BfS erkennen?

Mit der Regierungsübernahme von SPD und B’90/DIE GRÜNEN in 1998 und der seit 2013 bestehenden Großen Koalition von CDU/CSU und SPD, insbesondere nach der Fukushima Havarie,  wurde die von der grünen Bewegung taktisch sehr geschickt gesteuerte „Quasi-Zerstörung“ von Gorleben erreicht. Bei der Wende zur neudeutschen Endlagerung handelt es sich nicht um eine objektive Entscheidung, sondern um eine machtpolitische. Wie mit der „Energiewende“ des grünen Masterminds Baake und wie auch mit der „Endlagerwende“ des grünen Masterminds König sind nicht nur für grüne Parteigenossen langfristig lukrative Beamtenstellen sowie eine ausufernde Bürokratie geschaffen worden, sondern es wurde eine weitere, sehr sehr teure Sackgasse für die Steuerzahler geöffnet, die von der deutschen Öffentlichkeit erst mittelfristig erkannt werden wird. Denn schon heute stellt sich die spannende Frage, ob man überhaupt  noch ein Endlager in 50 Jahren für den dann wertvollen Energie-Rohstoff „Atommüll“ benötigt.

                             Der ökosozialistische Zeitgeist hat es geschafft!

                                                   Gorleben ist Geschichte!

Mit dem noch verbleibenden Galgenhumor kann man die heutige Situation in Deutschland nur noch in einem Gedicht zusammenfassen

Minister Stefan Wenzel lud am 28 Juli ein; ein "großes Gespräch" sollt‘ es sein.

Im Leineschloss traf sich die Runde, beharkte sich so manche Stunde.

Man labert und man diskutiert – ob dies auch zum Konsens mal führt?

Was ist das Fazit denn gewesen? Man konnte es in der Zeitung lesen:

Statt "Konsens" nur "Nonsensens" – leider! Nur Rechthaberei –

bringt die uns weiter?

Wer löst die Fragen aller Fragen, die ungelöst in all den Tagen?

Wo bleibt der Müll, der atomare? Hier gibt es Streit schon viele Jahre!

Ich sehe für die Lösung schwarz! Beginnt die Suche man am Harz?

Versucht man es am Nordsee-Strand? Oder anderswo im Land?

Der Schwarzwald käme auch in Frage – dort im Granit, tief unter Tage…

Doch unser Landesbischof Meister reaktiviert nun alte Geister,

indem er lautstark konstatiert: Die Wissenschaft hat sich geirrt!

Die Theologie besitzt die Wahrheit – das sage ich in aller Klarheit.

(Galileo musst‘ es einst schon spüren und seine Thesen revozieren…)

Gemeinsam gehen sie jetzt ran: Bei „Null“ fängt alles wieder an.

Die Theologen vorneweg; zieh’n sie die Karre aus dem Dreck?

Gestützt von Greenpeace, NABU, BUND; läuft künftig dann die Sache rund?

Bin schon gespannt, ob das was bringt und ob es wirklich jetzt gelingt,

zu einem Standort „ ja“ zu sagen, statt alte Schlachten neu zu schlagen!

Rudolf Eberhart, Gedichtesammlung

Eigenverlag, NAEBev

Substanzlose Endlagersuche (Mein veröffentlichter Leserbrief vom 11.08.2016 in der F.A.Z.)

Zum Artikel „Neue Köpfe für die Suche nach dem Atomendlager“ (F.A.Z. vom 5. August). Die neue Bundesgesellschaft für Endlagerung und das ebenfalls neue Bundesamt für kerntechnische Entsorgungssicherheit sowie das verkleinerte Bundesamt für Strahlenschutz sollen in den nächsten Jahrzehnten in Deutschland ein Endlager errichten, um den Atomabfall eine Million Jahre langzeitsicher zu vergraben. Bei diesem über mehrere Jahrzehnte dauernden und sehr teuren Unterfangen scheinen jedoch physikalische und chemische Gesetze sowie absehbare technische Entwicklungen außer Sichtweite geraten zu sein. Der sogenannte „Atommüll“ ist eine nationale und nachhaltige Energie-Rohstoff-Reserve für Deutschland, die die natürlichen Energieressourcen (Öl, Gas, Kohle, Uran) schonen kann: Abgebrannte Brennelemente enthalten energetisch nutzbare Nuklide, die heute schon bei wieder aufgearbeiteten Brennstäben eingesetzt werden. Die dabei entstehenden Reststoffe lassen sich in einer zweiten Recyclingstufe mittels des Transmutationsverfahrens zu neuen Brennstäben verarbeiten und abermals zur Stromerzeugung nutzen. Obwohl dieses Verfahren heute weder technisch noch ökonomisch voll ausgereift ist, wird in zahlreichen Ländern an seiner Optimierung gearbeitet. In Russland werden sogar heute schon nach diesem Verfahren hergestellte Brennelemente in Kernkraftwerken eingesetzt. In den nächsten Jahrzehnten dürfte sich außerhalb Deutschlands dieses zweite Recycling von sogenanntem „Atommüll“ weltweit als wichtiger Beitrag zur Stromerzeugung erweisen und zwar noch bevor ein Endlagerstandort in Deutschland gefunden, untersucht und genehmigt ist: Geschieht das im Jahre 2050 oder 2060? Diesen Standort würde man dann nicht mehr benötigen, da die nach der zweiten Recyclingstufe verbleibende Strahlung des restlichen Atommülls schon nach etwa 300 Jahren der natürlichen Strahlung entspricht. Oberflächlich wirkt das Konzept der deutschen Endlagerpolitik ausgearbeitet und beeindruckend, es fehlt ihm jedoch aus wissenschaftlichen, technischen, wirtschaftlichen und ökologischen Gründen jede Substanz.




Der Unterschied zwischen echtem Skeptizismus und Leugnen

Der Leser wird sofort mit dem Themenbereich ,Klimawandel‘ konfrontiert. Die Kontroverse um den Klimawandel ist lediglich ein Beispiel einer polarisierten öffentlichen Diskussion, die vom tatsächlichen Status der Wissenschaft entfernt und abgekoppelt ist: innerhalb der wissenschaftlichen Gemeinschaft gibt es einen allgegenwärtigen Konsens, dass sich die Erde durch Emissionen von Treibhausgasen erwärmt (Anderegg, Prall, Harold, & Schneider, 2010; Cook et al., 2013; Doran & Zimmerman, 2009; Oreskes, 2004; Shwed & Bearman, 2010), aber außerhalb der Wissenschaft wird diese Tatsache fest verwurzelt geleugnet, zumindest in einigen Teilen der Gesellschaft (e.g., Dunlap, 2013; Lewandowsky, Gignac, & Oberauer, 2013). (Hervorhebung von mir [= dem Autor]).

Hoppla! Substantiell geht es bei ,Klimawandel‘ nicht einfach darum, ob sich der Planet durch Treibhausgasemissionen erwärmt hat. Wichtigere und damit zusammenhängende Fragen sind u. A. wie viel er sich erwärmt hat, was noch außer Treibhausgasen dabei mitgewirkt hat, oder ob die Erwärmung beispiellos ist oder nicht, spielt es überhaupt eine Rolle (ist Erwärmung nicht besser als Abkühlung?) neben vielen anderen. Genau genommen gibt es keine Notwendigkeit, einen Konsens mit dem Adjektiv allgegenwärtig [pervasive] zu schmücken. Falls es ein Konsens ist, ist er definitionsgemäß allgegenwärtig, was ,durchdrungen‘ [permeated] bedeutet oder ,diffundiert durch‘ usw.

Dann könnten sich interessierte Leser fragen, wo man das fest verwurzelte Leugnen der vermeintlichen Tatsache findet, dass sich die Erde durch Treibhausgasemissionen erwärmt. Die skeptische Gemeinschaft akzeptiert meiner Ansicht nach großenteils, dass Treibhausgase zur Erwärmung beigetragen haben, zu der es im vergangenen Jahrhundert oder so gekommen war (was nicht wirklich das Gleiche ist). Es gibt jedoch ein paar Abweichler [dragon-slayers], die anderer Ansicht sind (hier). Aber tief verwurzeltes Leugnen? Davon sehe ich nichts. Die Links helfen nicht, befasst sich doch die Studie von Dunlap 2013 mit 108 Klimawandel-Leugungs-Büchern [climate change denial books], wobei das größte Interesse den vermeintlichen Links zu Industriegruppen gilt. Der Lewandowsky-Link ist sogar noch weniger hilfreich, abgesehen davon, dass es sich um eine intellektuell scheußliche Studie (hier) handelt. Ich weiß nicht, was ich als Beispiel für tief verwurzeltes Leugnen zu finden erwarte im Gegensatz zu allgegenwärtigem Konsens, aber dafür gibt es hier keinen Beweis. Weiter heißt es:

In Medienberichten wird sogar gelegentlich proklamiert, dass die Erwärmung aufgehört hat (Ridley 2014) oder dass wir einer globalen Abkühlung entgegen gehen (z. B. Rose 2013). Diese Einwürfe haben keine wissenschaftliche Unterstützung…

Nun, das Op Ed von Matt Ridley im Wall Street Journal mag keine Spitzen-Wissenschaft sein, obwohl er sich auf die Wissenschaft beruft (hier), aber das UK Met. Office hat tatsächlich bestätigt, dass es bzgl. der Erwärmung einen Stillstand gibt (hier) und dass sich dieser noch bis 2017 fortsetzen werde. Die Wissenschaftler, die die Möglichkeit einer Abkühlung ins Spiel bringen, sind zumeist Solarphysiker, und ihre Ansichten mögen falsch sein. Aber die ,Abkühlungs‘-Sicht HAT einige wissenschaftliche Unterstützung (siehe z. B. hier).

Diese einführenden Bemerkungen sind ein wenig misstönend im Zusammenhang mit der reinen Plattitüde, die noch kommen wird. Öffentliche Debatte und Skeptizismus sind in einer funktionierenden Demokratie essentiell. Tatsächlich hat sich der Skeptizismus als fähig erwiesen, den Menschen die Unterscheidung zwischen Wahrheit und Lüge leichter zu machen. Wie könnte man anderer Ansicht sein? Wie also können wir feststellen, ob das, was man uns sagt, wissenschaftliches Faktum oder Leugnen ist? Aber – es gibt drei Faktoren, die immer gegenwärtig sind, wenn Leugner involviert sind. Erstens bauschen sie alles auf. Zweitens, Leugnen enthält immer Bemerkungen hinsichtlich einer Verschwörung. (Ich glaube, dass der o. g. Dunlap 2013 ein perfektes Beispiel für die Art und Weise ist, wie Verschwörung ins Spiel gebracht werden kann, aber ich glaube nicht, dass die Autoren ihn im Sinn hatten). Drittens, Leugner fahren persönliche und professionelle Angriffe auf Wissenschaftler sowohl öffentlich als auch hinter den Kulissen und stoßen reichlich Klagen aus gegen die Institutionen, an denen die Wissenschaftler arbeiten mit Vorwürfen bzgl. des Forschungsgebahrens. Zwei der Autoren dieses Beitrags geben an, Derartiges schon erlebt zu haben.

Die Autoren behaupten aufgrund von etwas, das sie jüngste Beweise nennen, dass bis zu 1 Milliarde US-Dollar in Stiftungen und Denkfabriken in den USA fließen, jedes Jahr, deren Zweck es ist, politische Lobbyarbeit zu leisten für alle möglichen Themen. Eine der prinzipiellen Objektiven dieses Netzwerkes ist es, eine Klima-„Gegenbewegung“ zu unterstützen, die danach trachtet, das öffentliche Gerede um Klimawandel umzuleiten von einem überwältigenden wissenschaftlichen Konsens hin zu Zweifel, Diskussion und Unsicherheit (Brulle, 2014; Plehwe, 2014). Zur Verdeutlichung: über 90% aller jüngst erschienenen Bücher, die Umweltprobleme nicht ernst nehmen, wurden mit konservativen Denkfabriken in Verbindung gebracht (Jacques, Dunlap, & Freeman, 2008),, und solche Bücher werden niemals einer Begutachtung unterzogen (Dunlap & Jacques, 2013).Das sieht mir schon nach Verschwörung aus, zumindest auf den ersten Blick, aber auch hier glaube ich nicht, dass die Autoren dies im Sinn hatten.

Jetzt kommen weitere Plattitüden: In einer Demokratie sind Aufforderungen zu einer echten Debatte willkommen und müssen ernst genommen werden. Angesichts des Umstandes, dass wissenschaftliche Dinge weit reichende politische, technologische oder umweltliche Konsequenzen haben können, kann eine stärkere Teilhabe der Öffentlichkeit nur willkommen sein und zu einer besseren Politik führen. Wer würde dem nicht zustimmen? Man gibt uns hier ein kleines Beispiel, wie dies in der Praxis ausgesehen hat (es geht nicht um Klimawandel): Trotz des Anspruchs der Öffentlichkeit, in Dinge involviert zu sein, die wissenschaftliche Bildung voraussetzen, müssen wissenschaftliche Debatten immer noch geführt werden, wenn man den Regeln der Wissenschaft folgt. Argumente müssen auf Beweisen beruhen und Gegenstand von Begutachtungen sein, bevor sie einstweilig akzeptiert werden. Halt! Falls Argumente auf Beweisen beruhen müssen und diese Beweise die Argumente nicht stützen – was dann? Müssen wir wirklich auf gute Politik warten, bis der Begutachtungsprozess (etwas, dass fast ausschließlich akademische Arbeiten betrifft) sich mit der Angelegenheit beschäftigt hat? In der Arena der Klimawissenschaft haben es selbst sehr angesehene skeptische Wissenschaftler sehr schwer gehabt, dass kritische Studien zur Veröffentlichung akzeptiert worden waren.

Was das Thema Nichtübereinstimmung betrifft: die beiden erstgenannten Autoren räumen die Unsicherheit von Klimaprojektionen ein, machen aber geltend, dass im Gegensatz zur populären Intuition jedwede Unsicherheit sogar noch größeren Auftrieb für Klima-Entschärfung [climate mitigation] bietet. Diese Argumentationskette ist mir schon früher begegnet, und ich muss hier der ,populären Intuition‘ folgen. Falls es Unsicherheiten gibt darüber, ob etwas getan werden muss, weil die Beweise schwach oder zweifelhaft sind, würde es wirklich seltsam daherkommen zu sagen ,Ha! Das ist sogar noch mehr Grund, meinem gewählten Pfad zu folgen!‘ Ich bin offen dafür, überzeugt zu werden, aber nicht für diese Art der Beteuerung.

Was meiner Ansicht nach in dieser seltsamen, wirren und von Beweisen freien Studie vor sich geht, ist eine Art expliziter Argumentation, dass Begutachtung der einzige Weg ist, und sei es nur, weil die Blogosphäre (welche die Autoren verunglimpfen) kaum etwas zur Stützung des vermeintlichen Konsens‘ bietet. Inzwischen haben die Autoren den Titel der Studie vergessen, und wir bekommen dies: Menschen, die wissenschaftliche Fakten leugnen, die sie unakzeptabel finden, sind im Gegenteil in keiner Weise Skeptiker. Im Gegenteil, sie scheuen demonstrativ zurück vor einer wissenschaftlichen Debatte, indem sie es umgehen, ihre Gedanken einer Begutachtung zu unterziehen. Man muss noch einmal sagen, dass Begutachtung etwas für Akademiker und nicht der goldene Standard der Wissenschaft ist. Schlechte Daten, schlechte Argumentation und Eigeninteresse werden normalerweise rasch erkannt, und jedweder Vorschlag, der daraus resultiert, wird gewöhnlich verworfen oder zumindest beiseite gelegt. Was ,Klimawandel‘ davon unterscheidet ist, dass politische Maßnahmen wie die Kohlenstoffsteuer eingeführt wurden, bevor die Wissenschaft ordnungsgemäß durchgeführt worden ist (was immer noch nicht der Fall ist), und dass aus politischen Gründen diese Maßnahmen bestehen bleiben, trotz des Fehlens bekräftigender wissenschaftlicher Beweise.

Oha, schon wieder eine engstirnige, zwielichtige begutachtete Studie. Wer hat diese durchgewunken? Oh, ich habe vergessen, die Leitlinien zu erwähnen. Die erste davon mit dem Titel [übersetzt] ,vorgeschlagene Leitlinien für kritisches wissenschaftliches Engagement durch Mitglieder der Öffentlichkeit‘ beginnt mit dieser kleinen Präambel: Falls man etwas zu einer wissenschaftlichen Konversation beitragen will, muss man bestimmten Regeln folgen. Eine dieser Regeln lautet, dass wissenschaftliche Argumente in der begutachteten wissenschaftlichen Literatur behandelt worden waren. Falls man hierzu unwillig ist, haben diese Leitlinien kaum einen Wert. Tatsächlich! Viel Glück, du Möchtegern-Beitragender!

Der zweite Satz ist für Wissenschaftler gedacht, die von einem Mitglied der Öffentlichkeit angegangen werden, das nach kritischem Dialog trachtet. Die Leitlinien sagen, dass man sorgfältig vorgehen soll – es könnte jemand kommen der nicht gutgläubig ist und der Fehler in der Arbeit der Wissenschaftler finden will. Man helfe ihnen nicht!

Und wenn man beiden Leitlinien genügt hat, weiß man immer noch nicht, was die Autoren meinen mit ,echtem Skeptiker‘, oder wie er oder sie von einem ,Leugner‘ unterschieden werden kann. Und doch ist das eingebettet in den Titel des Beitrags.

Und schließlich die Autoren. Die ersten beiden Namen werden Lesern dieser Website bekannt vorkommen, ebenso wie jedem, der am Thema ,Klimawandel‘ interessiert ist: Stefan Lewandowsky, Michael E. Mann, Nicholas J. L. Brown und Harris Friedman. Über den dritten und vierten Autor erfährt man etwas aus der Lektüre des Artikels. Sie scheinen irgendwie vernünftiger als die ersten beiden. Oh, es gibt 96 Referenzen, von denen 22 von den Autoren selbst stammen, 16 von Lewandowsky allein. Ich kann mich irren, aber ich konnte nur drei Referenzen finden, die kritisch gegenüber dem Standpunkt der Autoren eingestellt waren. Nicht wirklich eine begutachtete Studie, wenn man all die Ansprüche betrachtet.

Und ich frage mich selbst wieder einmal: diese schlimme, kaum durch Argumente belegte und eigensüchtige Studie hat den Begutachtungsprozess erfolgreich durchlaufen? Wohin sind wir in der Welt der Journale schon gekommen?

Link: http://donaitkin.com/the-distinction-between-true-scepticism-and-denial/

Übersetzt von Chris Frey EIKE




Schiff HMS Terror nach 170 Jahren im nördlichen Eis wieder aufgetaucht.

Heute, also über 170 später ist das Wrack offenbar gefunden worden und viele der offenen Fragen zu dem Unglück von damals können möglicherweise beantwortet werden.

Die Meldung ist vermutlich genauso interessant, wie eine Meldung, die wir möglicherweise im Jahr 2050 lesen, wenn dann vielleicht endlich das Wrack von Flug MH370 gefunden wird.

Dennoch beinhaltet der Artikel, der beispielsweise auf dem Schweizer Fernsehen  oder auf n-tv  nachgelesen werden kann, noch eine ganz andere versteckte Nachricht:

Wie kann es sein, dass sich damals im Mai 1845 eine ganze Crew auf den Weg gemacht, um die Nordwestpassage zu durchqueren? War es damals vielleicht doch nicht so, dass die Eisbedeckung der Arktis viel größer war?

Es muss wohl bereits 1845 die realistische Chance gegeben haben, diese Seeroute zu durchqueren, hätte es auch im Sommer Packeis gegeben, wäre Sir Franklin wohl nie auf die Idee gekommen, es doch zu versuchen.

Manchmal gibt es in den Medien interessante Berichte, die ganz versteckt die Theorie der einzig vom Menschen gemachten Klimaerwärmung  in Frage stellen. Die Autoren stellen die wirklich kritischen Fragen zu ihren eigenen Artikeln leider nicht, aber Eike-Leser vielleicht eben schon. Dieser Artikel passt hier auch dazu.