1

Neues Buch zur Energiewende – „Mehr Energie wagen – Plädoyer für eine erfolgreiche Energiewende“

Am besten illustriert dieser Versuch, auch dem Schlechten noch etwas Gutes abzugewinnen, schon der Titel. In Anlehnung an Willy Brandts erste Rede als frisch gewählter Bundeskanzler mit dem Satz:“ Mehr Demokratie wagen“ wurde der Titel gewählt „Mehr Energie wagen“. Dass Willy Brandt mit diesem, nicht nur von seinen Anhängern umjubelten Satz, keineswegs die Einführung der direkten Demokratie meinte, sondern in erster Linie den Einfluss der Verwaltung vergrößern und die Staatsquote hochfahren wollte und auch  fuhr, erschloss sich – wie auch der Rezensent zähneknirschend und tief bereuend, zugeben muss- den betroffenen deutschen Zahlern erst später.

Doch anders als vermutlich Willy Brandt, meint der Autor es ehrlich, zumindest dahingehend, dass er viele alternative Quellen der Energieerzeugung detailliert auf ihre Stärken und Schwächen untersucht und Handlungsanweisungen für die Politik vorgibt, die durchaus rational sind. Titel und Untertitel „Mehr Energie wagen“ und „Plädoyer für eine erfolgreiche Energiewende“ lassen zunächst ein „Pro-Buch“ vermuten. Lediglich das auf dem Cover dargestellte brennende Windrad passt nicht zu dieser Schublade.

Den scheinbaren Widerspruch versucht Patzner wird im Buch aufzulösen. Patzner nimmt eindeutig Stellung zum Konzept der bundesdeutschen Energiewende, da lässt er praktisch kein gutes Haar dran. Er findet aber eine ganze Reihe von Gründen, die eine Energiewende ratsam erscheinen lassen. Ob die zutreffend sind oder nicht, darüber kann oder sollte man sogar streiten. Sein Grundtenor lautet demnach: Energiewende ja – aber richtig. Eine Vorgehensweise, die man gutheißen kann, wenn man davon überzeugt ist, dass „es sooo nicht weitergehen kann“. Eine Überzeugung, der sich der Rezensent nicht anschließen kann, aber die von vielen auch in der Sache kompetenten Leuten durchaus geteilt wird.

Die meisten „contra-Bücher“ erläutern mehr oder weniger ausführlich die technischen Unzulänglichkeiten der Energiewende, die ordnungspolitischen Fehler, die ökologischen Folgen oder die höchst fragliche Begründung der Energiewende, nämlich die angebliche CO2-indizierte Klimaänderung.

Erweitert werden im vorliegenden Buch diese Themen durch einen Ausflug in die ideologischen und politischen Auseinandersetzungen der letzten 50 Jahre. Patzner beginnt bei den Ideen der sog. „68er“ und endet bei der durch die opulenten Segnungen des Erneuerbaren Energiegesetzes entfachten Gier, sich an der Energiewende zu bereichern.

Für Patzner ist die Energiewende nichts anderes als ein Vehikel der in den 1968er Jahren lautstark vernehmbaren „Systemüberwinder“, die im Zuge ihres „Marsches durch die Institutionen“ endlich einen Hebel gefunden haben, die ungeliebten Energieriesen in die Knie zu zwingen. „Strukturwandel in der Energieerzeugung“ oder „dezentrale Energieerzeugung“ ist genauso untauglich wie „dezentrale Automobilherstellung“. Schon Mao-Tse-Tung ist mit seinen dezentralen Stahlkochern gescheitert.

Kombiniert wird diese ideologische Grundströmung mit den Drohkulissen einer angeblichen Klimakatastrophe, einem undefinierten Naturschutz, Antiatomhysterie und religiösen Leerräumen.

Patzner mutmaßt allerdings, dass es die Ideologen bei der Energiewende allein nicht belassen werden. Er verweist auf Traktate von leider sehr einflussreichen Instituten, die die gesamte „industrielle Zivilisation“ über Bord werfen wollen. Patzner befürchtet hinter diesem Geflecht von Ideologen, militanten Umweltschützern, Atomgegnern und Profiteuren die „brisante Mischung“ für eine drohende Ökodiktatur und mahnt zur Wachsamkeit. Die Politik scheint nicht mehr in der Lage zu sein, diesen Kräften Herr zu werden.

Als Ingenieur will er diese Dinge nur anreißen und schlägt vor, dass unabhängige Wissenschaftler sich intensiver mit dieser doch erschreckenden Entwicklung beschäftigen mögen.

Statt einer angeblichen Klimakatastrophe gibt es laut Patzner zahlreiche ernstere globale Bedrohungen und kommt zu dem verblüffenden Ergebnis, dass die meisten dieser Gefahren mit dem Einsatz von mehr Energie klar abwendbar seien. Ja, im Gegensatz zu den Umweltbewegten aller Parteien sogar Voraussetzung für ihr Gelingen ist. Im Gegensatz zu der Forderung, den globalen Energieverbrauch auf dem heutigen Niveau einzufrieren bzw. sogar zu senken, müssen wir „mehr Energie wagen“. Alles andere führe in die globale Katastrophe. Der Zugang zu billiger (nicht „bezahlbare“ Energie, bezahlbar ist ein Rolls Royce auch, für den der das Geld dafür hat) Energie ist die Voraussetzung jeglichen Wohlstands und dieser wieder für eine intakte Umwelt und die Vermeidung von Kriegen.

Ein weiteres Thema sind die globalen Interessenlagen, geprägt von Billionenumsätzen und nationalen Reichtümern, die jede „Energiewende“ gleich welcher Art, bereits im Keim zu ersticken versuchen.

Patzner legt dar, wenn auch nicht sehr überzeugend, dass mit den derzeitigen technischen Möglichkeiten eine Energiewende – wenn auch beschränkt – möglich sei. Die Ausführungen stehen unter der hypothetischen Prämisse der Richtigkeit der CO2 – bedingten Klimaänderung. Mit Windenergie oder mit Photovoltaik geht es ganz sicher nicht. Patzner stellt mehrere andere Technologien vor.

Den Schlüssel zu einer allseits befriedigenden Energiewende sieht Patzner in einer Intensivierung der Forschung und beklagt, dass die in Deutschland behindert würde.

Alles in allem ein sehr lesenswertes Buch bzw. eine Pflichtlektüre für alle, die sich mit dem Thema der Energiewende auseinandersetzen wollen, und an die Notwendigkeit eines „Energiemixes“ glauben, also vor allem für Entscheidungsträger in der Politik, für Bürgermeister, Landräte und Ministerpräsidenten. Patzner versucht, den Blick über den Tellerrand zu lenken und stellt die Energiefrage in einen größeren Kontext globaler Probleme.

Buchtitel: „Mehr Energie wagen – Plädoyer für eine erfolgreiche Energiewende“

Autor: Norbert Patzner

Vorwort: Enoch zu Guttenberg

Verlag: Wittgenstein-Verlag, ISBN-Nr. 978-3-944354-28-6




Hysterie um globale Erwärmung zerreißt die Welt

Institutionen wie die Vereinten Nationen und die Europäische Union haben starken Druck ausgeübt, um Mitgliedsstaaten davon zu überzeugen, ihre Kohle-, Erdgas- und Ölvorräte in der Erde zu lassen im Namen des Klimas. Aber nach 18 Jahren ohne globale Erwärmung und wegen großer ökonomischer und sozialer Vorteile in vielen Ländern durch den Gebrauch fossiler Treibstoffe ziehen einige Regierungen einen Schlussstrich.

Von der Pazifikküste bis nach Europa verkünden Länder ihre Opposition zu weit reichenden Plänen, gegen die globale Erwärmung vorzugehen durch die Vermeidung fossiler Treibstoffe und der Verwendung kostspieliger, unzuverlässiger grüner Energie.

Schlachtfeld Europa

In Europa bildet sich ein neuer Eiserner Vorhang zwischen Westeuropäern und Osteuropäern darüber, was man hinsichtlich der globalen Erwärmung unternehmen sollte. Sechs mittel- und osteuropäische Länder haben sich gegen die EU-Pläne zur globalen Erwärmung ausgesprochen.

Den EU-Plänen zufolge wird festgelegt, dass Treibhausgasemissionen „40 Prozent niedriger liegen sollten, der Marktanteil erneuerbarer Energie bei 27 Prozent liegen und die Energieeffizienz sich um 30% verbessern sollte“, schreibt der EU Obsever.

Natürlich im Angesicht des russischen Hebels bzgl. Öl- und Erdgasimporten nach Europa haben sechs ehemalige Satellitenstaaten der Sowjetunion massiv gegen die Versuche der EU Einspruch erhoben, sie abhängiger von Energielieferungen von Wladimir Putin zu machen. Die sechs Länder sind Tschechien, die Slowakei, Ungarn, Polen, Bulgarien und Rumänien.

Die sechs Länder fordern ein Klimaabkommen, dass „die unterschiedlichen Bedürfnisse und Umstände“ berücksichtigt. Die Länder haben frühere Versuche der EU zurückgewiesen, den Mitgliedsländern bindende Klimaziele vorzuschreiben.

Was diese sechs Länder gemeinsam haben, außer dass sie Jahrzehnte lang Geiseln des Totalitarismus waren, ist dass sie alle die Entwicklung fossiler Treibstoffe wie Kohle und Erdgas vorantreiben, von denen sie abhängig sind, um den Bürgern bezahlbaren Strom zur Verfügung zu stellen. Die Wirtschaft Polens wurde durch das teure russische Gas so stark behindert, dass die polnische Premierministerin versprochen hat, gegen jede Entscheidung der EU ihr Veto einzulegen, die zu höheren Energiepreisen für die polnische Bürger führen. „Die Polen werden nicht schlechter gestellt, wenn es um Strompreise geht“, sagte Premierministerin Ewa Kopacz.

Aber diese sechs Länder stehen in Opposition zu einer Gruppe von 13 westlichen und nördlichen EU-Mitgliedsstaaten, genannt die Green Growth Group, die aggressiv die Prämisse vorantreiben, die fossilen Treibstoffe im Boden zu lassen. …

Abbott gegen Obama

Präsident Obama hat danach getrachtet, die G20 als Plattform für Klimapolitik zu nutzen. Aber der australische Premierminister Tony Abbott wollte da nicht mitspielen und bildet gerade eine Koalition gegen Obamas Bemühungen, dessen Klimaagenda auf die globale Bühne zu hieven.

Abbotts konservative Regierungskoalition hat einen großen Erdrutsch-Sieg im vorigen Jahr eingefahren mit seiner Opposition zur Kohlenstoffsteuer des Landes, die für steigende Energiekosten und Arbeitslosigkeit verantwortlich gemacht wurde. Die Regierung Abbott erntete auch Verachtung von UN-Delegierten, weil er die letzte große internationale Klimakonferenz nicht ernst genommen hatte.

Seine jüngste Aktion bestand darin, den Bemühungen der Obama-Administration einen Riegel vorzuschieben, die G20 als Plattform für Klimapolitik zu nutzen. Dazu bildet Abbott eine Anti-Obama-Koalition unter den Ländern des Commonwealth. Der kanadische Premierminister Stephen Harper hat bereits seine Unterstützung für Abbott angekündigt (hier).

Australien führt gegenwärtig den Vorsitz bei den G20 und möchte die Gruppe dazu bringen, den freien Handel voranzubringen (hier) und nicht eine Politik, die den Handel behindert in Gestalt immer neuer Vorschriften und exportfähige natürliche Ressourcen im Boden zu lassen.

Full post

Link: http://www.thegwpf.com/global-warming-hysteria-is-tearing-the-world-apart/

Übersetzt von Chris Frey EIKE




Teures Wunschdenken

Wenn es um Energiepolitik geht, hat unsere Energieministerin Doris Leuthard (CVP) eine flexible Meinung. Vor zehn Jahren plädierte sie noch für Atomstrom (Weltwoche Nr. 34/2014), nach Fukushima war über Nacht alles anders. Heute redet sie am liebsten nicht mehr über das Thema. Erst kürzlich schrieb Leuthard in der Westschweizer Zeitung Le Temps einen Artikel zur menschengemachten Klimaerwärmung. Leuthard plädiert für eine Reduktion des CO2-Ausstosses.

Eine CO2-Reduktion sei nur zu erreichen, wenn man den Verbrauch fossiler Brennstoffe reduziere. Das wiederum rufe nach drastischen Massnahmen: der Beschränkung des Energieverbrauchs pro Kubikmeter Wohnraum etwa, der Begrenzung des Energie­verbrauchs pro Einwohner – und nach dem Ausbau der inländischen Stromproduktion. Spätestens hier ist Stirnrunzeln angesagt. Kommen nicht fast vierzig Prozent unseres Stroms – vertraglich gesicherte Bezüge aus französischen AKW nicht mit eingerechnet – aus Kernkraftwerken? Wie ist das nun genau mit dem Atomausstieg?

Seit einem Jahr arbeitet der Nationalrat an der bundesrätlichen «Energiestrategie 2050», die in der Wintersession traktandiert ist. Anfang nächstes Jahr geht das Geschäft in den Ständerat. Wichtige Weichen werden gestellt. Zur Debatte steht ein Paket mit zehn revidierten Gesetzen. Angesichts der politischen Grosswetterlage ist zu befürchten, dass das Parlament die Strategie in den wesentlichen Teilen gutheissen wird. Das eingangs erwähnte, unlösbare Dilemma zwischen CO2 und Atom wird man dabei nach Leuthards Vorbild tunlichst ignorieren. Ein Winkelried, der sich für diese unbequeme Wahrheit eine Bresche schlagen würde, ist leider nicht in Sicht.

Man mag einwenden, der Strom müsse halt künftig «ökologisch», mit Sonne, Wind und Biomasse, erzeugt werden. Wie realistisch ­diese Option ist, zeigt ein Blick nach Deutschland, wo die sogenannte Energiewende seit über zehn Jahren im Gang ist und bislang mit über hundert Milliarden Euro subventioniert wurde.

Dazu ist festzuhalten, dass der Anteil des Atomstroms in Deutschland vor dem Ausstiegsentscheid mit 22 Prozent markant tiefer lag. Doch obwohl bislang nur die ältesten AKW stillgelegt wurden, konnte der CO2-Ausstoss Deutschlands nicht gesenkt werden. Wegen der tageszeit- und witterungsbedingten massiven Produktionsschwankungen und der gewaltigen Differenz zwischen Sommer und Winter erwiesen sich Wind und Sonne schlicht und einfach als untaugliche Stromlieferanten. Das Defizit wird am Ende mit Kohle gedeckt.

Alle zwei Monate ein neues AKW in China

Tatsächlich ist der Atomausstieg nur in ganz wenigen Ländern ernsthaft ein Thema. In den meisten Industrieländern, von Frankreich über Grossbritannien, Finnland, Tschechien, Russland bis zu den USA, befinden sich neue Kernkraftwerke im Bau. Schwellenländer setzen massiv auf diese Option. In China zum Beispiel befinden sich zurzeit 28 AKW im Bau, durchschnittlich alle zwei Monate geht ein neues Kernkraftwerk ans Netz.

Der Grund ist simpel: Die Kernenergie ist allen Vorurteilen zum Trotz sicher, günstig und umweltfreundlich. Kraftwerke der vierten Generation, an denen China intensiv forscht, schaffen lange strahlende Abfälle aus der Welt.

Gemäss der bundesrätlichen Energiestrategie soll bis 2050 die Stromproduktion aus Wasserkraft um zehn Prozent gesteigert werden, diejenige aus Sonne, Geothermie, Wind, Biomasse gar um das Siebzigfache. Weil sich mittlerweile trotz steigender Konsumentenpreise nicht einmal die relativ günstige Wasserkraft mehr rechnet – die Weltwoche erklärte dieses «grüne Paradox» in der Nr. 41/2013 –, wäre das nur mit milliardenschweren Subventionen denkbar.

Alternative Kraftwerke erfordern neue Stromnetze und gigantische Speicher, was die Kosten zusätzlich massiv in die Höhe treibt. Doch selbst wenn das Plansoll erreicht würde, reichte es bei weitem nicht aus, um die Lücke des Atomstroms zu schliessen.

Deshalb soll gespart werden. Trotz wachsender Wirtschaft und Bevölkerung soll der Energieverbrauch innert vierzig Jahren halbiert werden. Der Stromverbrauch soll – bei gleichzeitigem Ersatz von Erdöl und Erdgas durch Elektrizität – um zehn Prozent sinken. In der Theorie ist alles möglich. Tatsache ist: Obwohl das Energiesparen seit vier Jahrzehnten über alle Kanäle propagiert wird und obwohl der Konsum gemäss Plansoll schon lange sinken müsste, ist er in Wirklichkeit stetig gestiegen. Konkret stieg der Gesamtenergiebedarf letztes Jahr um 2,5 Prozent, beim Strom betrug die Zunahme 0,6 Prozent. Lediglich in Krisenzeiten sinkt der Bedarf jeweils leicht, doch bislang hat noch niemand ernsthaft die Forderung aufgestellt, zwecks Energiesparens eine Rezession herbeizuführen.

Wissenschaftler der ETH haben errechnet, dass die Energiestrategie technisch durchführbar ist. Auf dem Papier ist alles möglich – aber zu welchem Preis? Und mit welchen Folgen für die Verbraucher, die Wirtschaft und die Umwelt? Es hat den Anschein, dass diejenigen das Absurde der «Energiestrategie 2050» leichter erkennen, die nicht an einer Universität studiert haben (sie vertrauen eher dem gesunden Menschenverstand). Und selbstverständlich ­alle, die nicht vom Staat gefördert werden (sie müssen die Zeche bezahlen).

Die deutschen Konsumenten zahlten letztes Jahr rund 21 Milliarden Euro für Ökostrom – und bekamen dafür Energie im Wert von zwei Milliarden Euro. Man kann im Moment nur beten, dass die Schweiz diesen Wahnsinn nicht wiederholt.

Lukas Weber ist Elektroingenieur ETH und hat zum Thema Energieverbrauch promoviert. Er arbeitete beim Elektrizitätswerk der Stadt Zürich (EWZ) und publiziert über Energiefragen.

=================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

© Die Weltwoche; 09.10.2014; Ausgabe-Nr. 41; Seite 45   /   http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==================================================================

PDF zum Download unten

==================================================================

Welche Blüten der Subventions-Wahn bei "Grünen Energien" nicht nur in Deutschland, sondern auch anderswo treibt, das ist z.B. auch hier in der WELTWOCHE zu lesen:

Das Solardebakel von Calasparra

Von Alex Baur

Für 180 Millionen Franken liessen Schweizer Stromversorger das Solarkraftwerk Puerto Errado nahe dem ­spanischen Murcia bauen. Bei ihrem Meisterwerk unterschätzten sie die Launen der spanischen Sonne und Politiker. Ein Augenschein vor Ort.

http://www.weltwoche.ch/ausgaben/2014-10/das-solardebakel-von-calasparra-die-weltwoche-ausgabe-102014.html

===============================================

Related Files




Über die Illusion, 80-100 des Stroms über alternative Energien erzeugen zu können

Durch das volatile Verhalten von Wind- und Solarstrom ist schon häufig auf die Notwendigkeit von Stromspeichern zum Gelingen der Energiewende 2010/2011 hingewiesen worden, ohne jedoch eine exakte Beschreibung von Anzahl und Zeitpunkt zu benennen.

H.-W. Sinn errechnete erstmals für einen ausschließlichen Einsatz von Wind- und Solarstrom die erforderliche Anzahl von Speichern auf der Basis des im Jahre 2011 und 2013 erzeugten volatilen Wind- und Solarstroms, um diesen „Zappelstrom“ überhaupt nutzen zu können.

Es stellt sich jedoch die Frage, ob bei der im Rahmen der Energiewende  vorgesehenen umfangreichen Installation von Wind- und Solarstrom bei deren volatilem Verhalten die Ziele dieser Energiewende wie Anhebung der Stromerzeugung über alternative Energien auf mindestens 80% überhaupt bzw. unter welchen Vorraussetzungen erreicht werden können. Gleichzeitig stellt sich die Frage  nach der gesicherten Stromerzeugung.

Die Ausarbeitung dieser Fragen führte zu folgenden Ergebnissen:

1. In naher Zukunft wird bei zunehmender Stromerzeugung über Wind und Solar die Netzkapazität überschritten.

2. Ab 2019-  also in 5 Jahren-   übersteigt das Stromangebot über Wind + Solar  sowie „Sonstige (Biomasse, Wasser, etc.)“ zunehmend den Strombedarf.

3. Um eine Stilllegung der Wind- und Solaranlagen zu vermeiden, müssen ab dem Jahre 2019 zunehmend Stromspeicher zur Verfügung stehen: 

2030       2040           2050

-zu speichernde Strommengen

(GWh/Tag)            119              260          268 

– Anzahl Speicher für das tägliche

Auffangen des Überschussstroms

(Basis Goldisthalspeicher)   (n)              14,2              31           31,9

4. Goldisthal ist das größte Pumpspeicherwerk Deutschlands, wurde in 11 Jahren erbaut und hat eine Leistung von 1 GW, die es jeweils für ca. 8 h leisten kann. Damit kann es ca. 8 GWh liefern. Dann ist es leer.

5. Diese zu speichernden Strommengen sind Mindestmengen und beziehen sich auf den jeweils höchsten Strombedarf, da unterhalb des höchsten Strombedarfes durch die Überlagerung von stochastisch anfallender Stromerzeugung über Wind und Solar und stochastischem Strombedarf eine Quantifizierung der Überschussstrommenge nur schwer möglich ist.

Wie aber bereits die Gegenwart zeigt, sind diese im Bereich der stochastischen Überlagerung anfallenden Überschussstrommengen beträchtlich.

6. Um eine 14-tägige Windflaute mit wenig Sonnenschein im Winter überbrücken zu können, müssten in den Jahren 2030 bis 2050 folgende Strommengen über Erdgas oder im Vorraus zu füllende Stromspeicher abgedeckt werden ( die Energiewende 2010/2011 sieht eine ausschließliche Stromerzeugung nur noch über alternative Energien und Erdgas vor): 

bis Jahr2030    2040    2050

–    über Erdgas abzudeckende Strommenge (GWh) 6350   7291    7493

–    erforderliche Anzahl von im Voraus zu

füllender Speicher (Goldisthal- Größe)        (n)     756      868      892

 

7. Wenn diese Pumpspeicherwerke weder in Deutschland noch im Ausland ab 2019  zur Verfügung stehen – wovon auszugehen ist – müssen die Wind- und Solaranlagen ab 2019 vermehrt still gesetzt werden und es ist eine nur geringe Stromerzeugung über alternative Energien möglich:

2050

-Anteil Stromerzeugung über alternative

Energien ( Wind + Solar +

„Sonstige“)                             (%)                           38,3

-nur über Wind und Solar       (%)                                 14,7

Dies ist eine erschreckende Abweichung von der Zielvorstellung von „mindestens 80%“.

8. Sollten bis 2050 ausreichend Stromspeicher zur Verfügung stehen, könnte der CO2- Gehalt der Atmosphäre von 0,039% ausgehend durch die deutsche Energiewende um 0,000 008% vermindert werden.

Sollte eine ausreichende Stromspeicherung nicht zur Verfügung stehen, kann der CO2-Gehalt nur noch um 0,000 0038% abgebaut werden- ein kaum messbarer Betrag.

Diese nicht bezahlbare Energiewende zur Absenkung des CO2-Gehaltes ist zudem vor dem Hintergrund zu sehen, dass aus thermodynamischen Gründen CO2 die Atmosphäre kühlen muß und nicht erwärmen kann. Fakt ist, dass die Temperatur seit der kleinen Eiszeit im 19.Jahrhundert ansteigt auch ohne anthropogenen CO2-Ausstoß und das seit fast 18 Jahren kein weiterer Temperaturanstieg trotz  zunehmender CO2-Konzentration stattfindet. 

9. Andere Speicherverfahren wie Batterien, Druckluftspeicher, CH4-Herstellung (Sabatier-Verfahren) sowie H2-Herstellung zur Aufnahme von Strom aus alternativen Verfahren scheitern am Wirkungsgrad sowie an den Kosten.

Der im September 2014 in Betrieb genommene größte deutsche Batteriespeicher hat eine Leistung von 0,005 GW und kostet 6 Millionen € (1.2 Milliarden €/GW).

10. Es ist geradezu absurd, wenn zur Zeit die für das Gelingen dieser Energiewende unabdingbaren Pumpspeicherwerke vermehrt geschlossen werden müssen durch die Einspeisung eines durch das EEG kostenfreien und bevorzugt abzunehmenden Stroms aus alternativen Energien, der zwangsläufig auch zur Schließung aller anderen Stromerzeugungsverfahren führen muss.

11. Stromausfälle der Vergangenheit  haben gezeigt, dass zu ihrer Vermeidung den Netzbetreibern nur Sekunden verbleiben, um gegenzusteuern. Diese Gegensteuerung ist nur über die kinetische Energie der rotierenden Massen der Turbinen und Generatoren konventioneller Kraftwerke möglich.

Dies setzt voraus, dass bei zunehmendem Anteil von Wind- und Solarstrom im Stromangebot eine kritische Grenze für konventionelle Kraftwerke von rund 28 GW nicht unterschritten werden darf.

Selbst Gaskraftwerke sind zur Gegensteuerung nicht geeignet, da sie Minuten bis zur Abgabe einer nennenswerten Leistung benötigen.  Auch diese Aussage belegt, dass eine Erzeugung von mindestens 80% des       Stroms über alternative Energien im Sinne einer gesicherten Stromerzeugung nicht darstellbar ist. 

12. Durch das volatile Verhalten der Stromerzeuger Wind und Solar müssen die Stromnetze bis zum Jahre 2050 mindestens um den Faktor 2,5 größer ausgelegt werden. Ohne Stromspeicherung steigt dieser Faktor um Größenordnungen.

Diese gewaltige Erweiterung schließt nicht die dezentrale Stromerzeugung durch die alternativen Energien und deren Transport zu den Netzknotenpunkten ein, von wo der Strom zu den Verbrauchszentren geleitet werden muß.           

13. Die im Jahre 2014 festgelegten Änderungen der Energiewende 2010 / 2011, die einschneidende Auswirkungen haben werden, bedürfen einer gesonderten Betrachtung.

Dr.Ing. Erhard Beppler EIKE

Related Files




Die Vergangenheit ist der Schlüssel zur Zukunft: Temperaturhistorie der letzten 10.000 Jahre

Die Veränderung von Sauerstoff-Isotopen in Eiskernen ist eine Maßzahl für Temperatur-Fluktuationen. Der meiste atmosphärische Sauerstoff besteht aus 16O, aber ein kleiner Teil enthält 18O, ein Sauerstoff-Isotop, das um Einiges schwerer ist. Wenn Wasserdampf (H2O) aus der Atmosphäre als Schnee kondensiert, enthält es ein Mischungsverhältnis von 16O/18O (δ18O), welches die Temperatur zu jener Zeit reflektiert. Wenn der Schnee auf einen Gletscher fällt und zu Eis wird, verbleibt ein isotopischer ,Fingerabdruck‘ der Temperaturbedingungen zum Zeitpunkt der Kondensation. Messungen des 16O/18O-Verhältnisses in tausende Jahre altem Gletschereis erlauben Temperatur-Rekonstruktionen aus der Vergangenheit. Tausende beschleunigende Messungen von δ18O aus dem grönländischen GISP2-Eiskern durch Stuiver und Grootes an der University of Washington können verwendet werden, um Temperaturfluktuationen in Grönland während der letzten 100.000 Jahre zu rekonstruieren (Stuiver and Grootes, 2000;. Grootes and Stuiver, 1997; Stuiver et al.., 1995; Stuiver, et al., 1993). Was diese Messungen so nützlich macht, ist die Genauigkeit der Datierung der Proben, begleitet von der Zählung der jährlichen abgelagerten Staubschichten, die sich im Eis während jeder Schmelzsaison auf dem Gletscher angesammelt haben, was eine Datierung auf wenige Jahre genau zulässt über einen Zeitraum von vielen tausend Jahren. In den Eisbohrkernen aus der Antarktis ist dies nicht möglich.

Obwohl der Ort des GISP2-Eisbohrkerns spezifisch ist (Grönland), korreliert er gut mit globalen Gletscher-Fluktuationen und einer großen Vielfalt anderer Klimaproxys. Er wurde zum ,goldenen Standard‘ unter den globalen Klimarekonstruktionen. Man sollte allerdings nicht vergessen, dass Temperaturvariationen für jede geographische Breite spezifisch sind. Die tatsächlichen Temperaturen aus den GISP2-Bohrkernen zeigen eine höhere Bandbreite von Werten als globale Daten. Der GISP2-Bohrkern reicht 100.000 Jahre zurück, aber hier wollen wir uns auf die Daten der letzten 10.000 Jahre konzentrieren (das Holozän) und diese vergleichen mit Erwärmungs- und Abkühlungsperioden aus jüngster Zeit.

Die GISP2-Temperaturdaten enthalten zwei Typen: (1) Messungen der Sauerstoffisotope ( δ18O), die die Temperaturen zur Zeit der Schnee-Akkumulation reflektieren und (2) Temperaturmessungen im Bohrloch, die eine Temperaturrekonstruktion in Grad Celsius gestatten.

Messungen der Sauerstoffisotope (δ18O)

Abbildung 1 zeigt δ18O aus dem GISP2-Bohrkern während der letzten 10.000 Jahre. Die Isotopen-Aufzeichnung beginnt im Jahre 1987 am oberen Ende des Bohrkerns. Temperaturen höher als im Jahre 1987 sind rot, niedriger als 1987 blau gezeichnet. Das Erstaunlichste an dieser Kurve ist, dass die Temperaturen während fast der gesamten 10.000 Jahre höher lagen als 1987. Während der letzten rund 1500 Jahre war es kälter. Abschmelzen erfolgte seit der Kleinen Eiszeit, aber die Temperaturen haben noch nicht wieder das Niveau erreicht, das fast im gesamten Holozän vorherrschend war.

Abbildung 1: δ18O aus dem GISP2-Eiskern der letzten 10.000 Jahre. Rote Bereiche kennzeichnen Temperaturen über dem Niveau von 1987 (oberes Ende des Bohrkerns), blaue Bereiche Temperaturen unter diesem Niveau. Während fast der gesamten letzten 10.000 Jahre war es wärmer als während der letzten 1500 Jahre (aus Grooes und Stuiver 1997).

Temperaturen in Grönland seit 1987

Das obere Ende des GISP2-Bohrkerns zeigt die Bedingungen im Jahre 1987. Um also die Temperaturen der letzten Jahrzehnte mit den Isotopen-Temperaturen der letzten 10.000 Jahre vergleichen zu können, müssen wir wissen, wie sich die Temperaturen in Grönland seitdem entwickelt haben. Chylek et al. (2004) analysierten die Temperaturverläufe an Küstenstationen im südlichen und zentralen Grönland und erzeugten fast ununterbrochene Temperaturreihen zwischen 1930 und 1940. Anschließend war der Rückgang der Temperatur so substantiell und nachhaltig, dass die gegenwärtigen Temperaturen an der Küste „etwa 1°C niedriger liegen als deren Werte 1940“. „Auf dem grönländischen Eisschild hat die mittlere Sommertemperatur mit einer Rate von 2,2°C pro Dekade abgenommen, und zwar seit Beginn der Messungen im Jahre 1987“. Chylek et al. kamen zu dem Ergebnis, dass während der Erwärmung in Grönland in den zwanziger Jahren (Abbildung 2) „die mittleren jährlichen Temperaturen zwischen 2 und 4°C in weniger als zehn Jahren gestiegen waren (im Winter bis zu 6°C)“. Sie nannten dies die große Grönland-Erwärmung der zwanziger Jahre und folgerten: „da es damals keine signifikante Zunahme atmosphärischer Treibhausgase gegeben hatte, zeigt dies, dass es zu großen und rapiden Erwärmungen in Grönland und vielleicht auch in anderen Gebieten der Arktis kommen kann, geschuldet der internen Klimavariabilität … ohne einen signifikanten anthropogenen Einfluss“.

Abbildung 2: Temperaturen in der Arktis von 1880 bis 2004. Man beachte die sehr starke Erwärmung in den zwanziger Jahren und dass die Temperaturen in den dreißiger Jahren höher lagen als 2004 (aus dem Jones et al.-Datensatz).

Abbildung 3 zeigt Temperaturvariationen an 8 Stationen in Grönland. Man beachte, dass trotz des Temperaturanstiegs nach dem Jahr 2000 die Temperaturen nicht über das Niveau der dreißiger Jahre hinausgehen.

Abbildung 3: Temperaturvariationen in Grönland seit 1880 an acht Stationen.

Jährliche Fünf-Jahres-Mitteltemperaturen von 1995 bis 2005 an acht Stationen in Grönland waren ähnlich wie von 1920 bis 1930, waren aber nicht über diese hinausgegeangen.

Abbildung 4: Jährliche Fünf-Jahres-Mitteltemperaturen von 1900 bis 2005 an acht Stationen in Grönland. Die Temperaturen lagen von 1995 bis 2005 etwa auf der Höhe des Zeitraumes 1920 bis 1930, aber nicht höher (Chylek et al. 2006).

Die zwei Wetterstationen, Godthab Nuuk und Angmagssalik an den gegenüber liegenden Küsten von Grönland verzeichnen die längsten Reihen, die über ein Jahrhundert zurückreichen. Beide zeigen ähnliche Temperaturverteilungen – starke Erwärmung in den zwanziger und dreißiger Jahren, gefolgt von Abkühlung von 1950 bis 1980 und dann wieder Erwärmung von 1980 bis 2005. Mit Ausnahme des Jahres 2003 an einer Station liegen die Temperaturen derzeit auf dem Niveau Mitte der zwanziger Jahre.

Die Bedeutung dieser neuen Temperaturreihen ist, dass sie zeigen, dass die Temperaturen in den letzten Jahrzehnten nicht über diejenigen der dreißiger Jahre hinausgegangen sind. Daher können die δ18O-Werte für den Vergleich der jüngsten Temperaturen mit denen der letzten 10.000 Jahre verwendet werden, d. h. etwa 85% der vergangenen 10.000 Jahre waren wärmer als in der Gegenwart.

GISP2-Temperatur-Rekonstruktionen

Ein zweites Verfahren der Temperaturrekonstruktion für Grönland aus dem GISP2-Bohrkern war die Verwendung von Temperaturmessungen im Bohrloch, korrigiert um die Anlaufzeiten der Temperaturwerte, thermischen Störungen durch den Bohrprozess und fluid convention [?] im Bohrloch nach Cuffy und Clow 1997 (Abbildung 5) sowie Alley 2000 (Abbildung 6). Die von Alley 2000 erzeugte Kurve zeigt, dass die Temperaturen in 8.500 der letzten 10.000 Jahre signifikant höher lagen.

Abbildung 5: Temperatur-Rekonstruktionen von Cuffy und Clowe (1997) aus dem GISP2-Eisbohrkern.

Abbildung 6: Temperatur-Rekonstruktion nach Alley (2000) aus dem GISP2-Eisbohrkern.

Es gab hinsichtlich des Anfangszeitpunktes der Kurve von Alley einige Verwirrung. Die archivierte NOAA-Datenbasis sagt: „Aufzeichnungsperiode: 49.00 Jahre bis zur Gegenwart“. Da dies eine Veröffentlichung im Jahre 2000 war, dachten Einige (auch ich), dass ,Gegenwart‘ hier das Jahr 2000 meint. Aber andere Möglichkeiten enthalten 1987 (das obere Ende des Bohrkerns) oder 1950, was 20 Meter unter der oberen Spitze des Bohrkerns liegt. Offensichtlich wurde das Jahr 1950 als ,Gegenwart‘ bezeichnet, so dass der erste Datenpunkt auf der Kurve von Alley (95 Jahre) bedeutet, dass es 164 Jahre lang einen Stillstand gab zwischen dem ersten Datenpunkt und 2014. Dies ist ein Problem für die Bestimmung der Beziehung zwischen den Grönland-Temperaturen der letzten Jahrzehnte und dem 10.000 Jahre umfassenden GISP2-Bohrkern. Soll heißen, waren wirklich 8500 Jahre der Vergangenheit wärmer als die letzten Jahrzehnte? Glücklicherweise können wir die δ18O-Aufzeichnungen für das fehlende Intervall heranziehen, ebenso wie gemessene Temperaturen an den grönländischen Wetterstationen. Abbildung 7 zeigt die δ18O-Kurve von 1850 bis 1987.

Abbildung 7: δ18O-Kurve 1850 bis 1987. Man beachte, dass der erste Alley-Datenpunkt (2000) genau der gleichen Zeitleiste folgt wie an der Spitze des Bohrkerns (1987). Folglich gibt es keine Temperaturdifferenz zwischen dem ersten Datenpunkt bei Alley (2000) und der Spitze des Bohrkerns.

Über die Temperaturen seit 1987 haben wir oben gesprochen (Abbildungen 2, 3, 4). Sie zeigen, dass die Temperaturen während der letzten Jahrzehnte nicht über diejenigen der dreißiger Jahre hinausgegangen sind, so dass 1987 als Zeitleiste benutzt werden kann für den Vergleich mit den Temperaturen während der letzten 10.000 Jahre.

Schlussfolgerungen

Sauerstoffisotop-Messungen des GISP2-Eisbohrkerns zeigen, dass es während 8500 Jahren der letzten 10.000 Jahre signifikant wärmer war als während der letzten Jahrzehnte. Die letzten 1500 Jahre einschließlich der Kleinen Eiszeit waren kälter. Temperaturrekonstruktionen aus Bohrloch-Daten bestätigen die Sauerstoffisotop-Daten und zeigen, dass etwa 8500 Jahre der letzten 10.000 Jahre signifikant wärmer waren als die letzten Jahrzehnte. Temperaturmessungen an acht grönländischen Wetterstationen zeigen, dass die Temperaturen der letzten Jahrzehnte nicht über das Niveau der dreißiger Jahre hinaus gegangen waren. Damit kann die Spitze des Bohrkerns (1987) mit den Paläo-Temperaturen der letzten 10.000 Jahre verglichen werden.

Link: http://www.kaltesonne.de/?p=21199

Übersetzt von Chris Frey EIKE




Klimaänderung stirbt als Thema in deutschen Medien…Leere Sitze beim „9. Extremwetterkongress in Hamburg“

Bild rechts: Leere Sitze am Tag 3 der 9. Hamburger Extremwetter-Konferenz. Dieses Photo ist ein Schnappschuss von einem Youtube-Video wenige Minuten vor Beginn am 3. Tag des Kongresses (bei der Marke 11:12).

Wer sich das über 3 Stunden lange Video antun möchte:

Video vom Extremwetterkongress in Hamburg

Es scheint, dass die deutschen Medien immer müder geworden sind hinsichtlich der Klimawissenschaft allgemein, und dass sie das Gefühl haben, dass irgendetwas an den Behauptungen der „Experten“ nicht stimmen kann. Rekordhohe Meereis-Ausdehnung, fehlende Hurrikane, geringe Tornado-Aktivität, spektakulär falsch liegende Klimamodelle und bitterkalte Winter haben etwas, dass sie nachdenklich macht.

Einige deutsche Fernsehstationen reisten am ersten Tag an (z. B. hier), aber selbst dabei sehen wir viele leere Sitze – was angesichts des Hypes um den Eröffnungstag ungewöhnlich ist.

Kein Ton über den Meereis-Ausdehnungsrekord in der Antarktis!

Wir fangen an zu empfinden, dass die Medien zunehmend genervt sind vom Thema Klima allgemein. Jede Erinnerung daran, wie sie betrogen worden sind, wird vermieden. Da ist es kein Wunder, dass man beim Googeln nach „rekord eis antarktis 2014“ rasch herausfindet, dass die deutschen Mainstream-Medien dieses Ereignis komplett ignoriert haben. Zu empörend! Abgesehen davon, dass die deutschen Zuschauer vom Thema Klima inzwischen total gelangweilt sind.

Einige kleinere Sites haben jedoch darüber berichtet. Die Online-Website www.wetteronline.de schreibt, dass das Meereis in der Arktis „deutlich ausgedehnter ist als im Jahr mit dem Rekordminimum, 2012“ und dass das deutsche Polarforschungsschiff Polarstern „keinen Erfolg hatte, in der zweiten Augusthälfte die Nordwest-Passage zu durchfahren“.

Wetteronline erwähnte auch die Lage in der Antarktis, um die herum die Meereis-Ausdehnung den bisherigen Allzeitrekord der Satellitenära gebrochen hat. Allerdings vermied es die Site, das Wort „Rekord“ zu verwenden, und schrieb:

…das Meereis um die Antarktis erreichte eine Ausdehnung von 20 Millionen km². Folglich wurde der 30-Jahres-Rekord des vorigen Jahres noch um 0,4 km² übertroffen.*

Natürlich hat dieser neue Satelliten-Rekord die Klimawissenschaftler verblüfft. Er hat sie verwirrt zurückgelassen, und sie können nur spekulieren, was hinter dem unerwarteten Trend steckt. Wetteronline schreibt:

Grund hierfür ist nach Einschätzung mancher Wissenschaftler neben anderen Faktoren eine sich abschwächende Meeresströmung rund um die Antarktis. Folglich gibt es weniger Durchmischung der Wassermassen, was das Wachstum von Meereis begünstigt.*

[*Beide Zitate sind Rückübersetzungen aus dem Englischen. Ich habe auf die Schnelle die Originaltitate nicht gefunden. Anm. d.Übers.]

Es gibt keine Daten zur Stützung dieser Aussage. Das heißt folglich, dass die Wissenschaftler keine Ahnung haben und nur im Dunklen tappen, und das sollten sie auch sagen.

Inzwischen ist auf der alarmistischen Website klimaretter.info die Summary des polaren Meereises für 2014 erschienen. Allerdings hat man vergessen, auch nur ein Wörtchen über den Südpol zu verlieren.

Link: http://notrickszone.com/2014/10/11/climate-change-dying-as-an-issue-in-german-media-empty-seats-pack-hamburg-9th-extreme-weather-congress/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion.

Das hanoveranische Live-Style Blättchen „Stadtkind“ scheint diesen Trend zu bestätigen. In der Oktoberausgabe wurde eine „Polemik“ veröffentlicht mit dem bezeichnenden Titel: „Die Klimaskeptiker haben gewonnen! Glückwunsch“ Eine kurze Einführung findet man hier. Den ganzen Artikel zu lesen lohnt nicht.




Vom Winde verweht….Grünes Vorzeiguntenehmen JUWI in existentiellen Nöten..MT_Energie Faulgasanlagenhersteller meldet Insolvenz an

Die Verluste, rund 100 Millionen Euro Verlust seit Anfang vergangenen Jahres, haben den größten Teil des Eigenkapitals aufgezehrt. Die Eigenkapitalquote der Juwi AG lag schon Ende 2012 bei bescheidenen 17 Prozent. Nun müssen die Gründer und Eigentümer von Juwi, Fred Jung (43) und Matthias Willenbacher (45), fürchten, dass sie ihre Anteile am Unternehmen verlieren. Die beiden waren 2009 noch als "Entrepreneure des Jahres" ausgezeichnet worden. Aber auch ein Bankenkonsortium unter Führung der Deutschen Bank hat viel zu verlieren: Sie haben einen Juwi-Kredit über 250 Millionen Euro in den Büchern stehen.

Und der Branchendienst IWR der sich als Business- und Wirtschaftsthemen Erneuerbare Energien bezeichnen meldet:

Nächste Biogas-Pleite: MT-Energie insolvent

Zeven / Münster – Der Biogas-Spezialist MT-Energie aus Zeven hat Antrag auf Eröffnung eines Insolvenzverfahrens gestellt. Die Suche nach einem Investor zur Weiterführung des Geschäftsbetriebes läuft. Die Insolvenzwelle für Biogasanlagen-Hersteller setzt sich damit nach der Verabschiedung der EEG-Novelle weiter fort. Daneben entlässt ein weiteres Branchenunternehmen rund die Hälfte seiner Belegschaft.

Nach der Insolvenz der AC Biogas GmbH aus Münster hat es nun den Zevener Biogasanlagen-Hersteller MT-Energie GmbH getroffen. Aufgrund von drohender Zahlungsunfähigkeit und Überschuldung hat die MT-Energie GmbH am Mittag (08.10.2014) beim Amtsgericht Torstedt einen Antrag auf Eröffnung eines Insolvenzverfahrens gestellt. 

Hier sind 300 Mitarbeiter betroffen




Fracking – kann die Politik noch sachbezogen handeln?

Worum geht es?

Da sowohl Erdöl als auch Erdgas leichter sind als das umgebende Formationswasser, haben diese Kohlenwasserstoffe das Bestreben, nach oben aus den Muttergesteinen auszuwandern, um dann letztlich an der Erdoberfläche in die Atmosphäre zu gelangen. Auf diesem Weg nach oben können sie in „Fallen“ geraten, beispielsweise domförmige (antiklinale) undurchlässige Schichten, unter denen sie sich dann dauerhaft anreichern.  Ausschließlich auf diesen „sekundären“  Lagerstätten beruhte bisher die Förderung von Kohlenwasserstoffen, weshalb diese Lagerstätten oder auch deren Nutzung heute „konventionell“ genannt wird. Da die Kohlenwasserstoffe in diese Lagerstätten hineingewandert sind, sich also in diesen Gesteinen bewegen können, kann man sie auch verhältnismäßig leicht gewinnen. Ist dies in Ausnahmefällen durch zwischenzeitliche Gesteinsveränderungen nicht mehr der Fall, spricht man oft von „tight gas“ Lagerstätten. Die angesprochenen Sekundärlagerstätten sind global nahezu erschöpft, die Reichweiten liegen für Öl bei einigen Jahrzehnten und bei Gas etwas länger. Die Menge der Kohlenwasserstoffe, die im Muttergestein verblieben sind, ist ungleich größer. Gelingt es, diese zu fördern, steigen die verfügbaren Vorräte und somit die Reichweiten drastisch an. Die Tatsache, dass noch Öl und Gas im Muttergestein ist, ist natürlich ein Hinweis darauf, dass es dort nicht ohne Anstrengung heraus zu bekommen ist.  Brauchbare Technologien sind heute jedoch verfügbar und werden seit Jahrzehnten, inzwischen auch millionenfach, angewendet. Einerseits müssen die Förderbohrungen über lange Strecken in der Kohle- oder Tonsteinschicht geführt werden (oft unpräzise horizontales Bohren genannt), andererseits muss erreicht werden, dass Öl oder Gas aus der Umgebung der Bohrung dieser zufließen kann. Es geht dabei um Entfernungen von einigen hundert Metern. Dies alles wird durch hydraulisch erzeugte (gefrackte) und künstlich offen gehaltene kleine Risse in der Umgebung der Bohrung erreicht. Im tight gas wird dies seit Jahrzehnten weltweit erfolgreich und ohne große Risiken praktiziert. Für unkonventionelle Lagerstätten hat dies in den USA einen Öl- und Gasboom ausgelöst und von dort aus einen weltweiten Technologieschub bewirkt, der nur aus politischen Gründen das eine oder andere Land noch nicht erreicht hat.

Und was sagt die Öffentlichkeit?

Jahrzehnte lang nahm die Öffentlichkeit von der neuen Technologie (eben diesem Fracking) keine Notiz, erfreute sich aber dennoch an niedrigen Energiekosten. Dann kam der Film „Gasland“, der mit spektakulären Falschbehauptungen und gefälschten Bildern – beispielhaft erwähnt das „brennende Wasser“ – nicht nur einen Oskar einheimste und zum wirtschaftlichen Riesenerfolg wurde, sondern geradezu eine Anti-Fracking-Volksbewegung begründete. Trockene Dementis amerikanischer Fachbehörden hatten gegen die „Kraft der Bilder“ keine Chance. In Deutschland, das ja ohnehin zu überzogener Angst neigt, war die Verbreitung der Angst vor Fracking besonders durchdringend. Populismus-Tendenzen taten ihr übriges. Medien fühlten sich ihren Lesern, Zuhörern und Zuschauern verpflichtet, die großen Naturschutzverbände handelten so, wie es ihre Mitglieder und Kleinsponsoren erwarteten, die großen Kirchen nutzten die Chance, zu zeigen, dass ihnen das Wohl der Gläubigen am Herzen liegt. Dann kamen in einer zweiten Welle die Bierbrauer, die Bauern, die Ärzte und viele andere dazu. Es wimmelte plötzlich bei den Veranstaltungen der Bürgerinitiativen von selbsternannten Frackingexperten.

Und die Politik?

Die Politik besann sich auf die Basisdemokratie als dem schöner klingenden Bruder des Populismus. Was die Mehrheit der (zuvor irregeleiteten) Wählerschaft denkt, muss umgesetzt werden. Die Lobbyarbeit der Verbände und Bürgerinitiativen tat ein übriges. Die Politik schwenkte ein, wollte sich aber zunächst noch ein „Wissenschaftsmäntelchen“ umhängen. Es wurden Gutachten und Studien in Auftrag gegeben (NRW und UBA 1 und 2). Die Wissenschaftler wurden sorgfältig so ausgesucht, dass sie von Fracking möglichst keine Ahnung hatten, zumindest aber noch nie etwas zum Thema veröffentlicht hatten. Dennoch entstanden überraschenderweise brauchbare Gutachten, die zum größten Leidwesen der Politik deren populistische Positionen nicht begründeten. Die Gutachten stuften Fracking nicht als Risikotechnologie ein, sondern bezeichneten es als „beherrschbar“. Freilich formulierten sie auch eine ganze Reihe von „Handlungsempfehlungen“, die einerseits die Beherrschbarkeit sicherstellen, andererseits aber die Zukunftstechnologie ermöglichen sollten. Die Politik stand nun vor einem Problem, da die unbedarfte Bevölkerung nach wie vor große Risiken im Fracking sieht, die Wissenschaft diese aber verneint. Auf wen wird die Politik hören?

Und was macht die Wissenschaft?

In vielen Fragen ist sich ja „die Wissenschaft“ uneins und es wäre vermessen, dies zu leugnen. Das war auch bei der Sicherheit der Atomkraftwerke so. Beim Fracking ist es aber grundsätzlich anders. Es gibt keinen seriösen Wissenschaftler, der im Fracking eine Risikotechnologie sieht (verglichen mit anderen Methoden der Energiebereitstellung). Die Wissenschaft versucht aktuell, dies der Politik, den Medien und der Bevölkerung zu verdeutlichen. Universitäten und Großforschungseinrichtungen haben sich gemeldet,  die Bundesanstalt für Geowissenschaften und Rohstoffe, auch die geologischen Landesämter sind sich einig. Ein Schulterschluss mit den Kompetenzzentren der europäischen Nachbarländer wurde hergestellt. Die Wissenschaft freut sich verständlicherweise nicht, wenn sie gegenüber den Laienmeinungen untergeht – sie wehrt sich aber entschieden dagegen, dass uminterpretiert und umgedeutet wird, was sie geschrieben hat. Die Politik sollte zumindest den Mumm haben, deutlich zu sagen, dass sie gegen die einheitliche Meinung der Wissenschaft handelt, wenn es denn unbedingt so sein muss.

Und wie geht es weiter?

Das Kind ist ja noch nicht in den Brunnen gefallen. Vielleicht entscheidet sich ja die Politik doch noch gegen den Technologiestillstand. Wir müssen abwarten, wie der Entwurf des  Fracking- oder Antifracking-Gesetzes aussehen wird. Die Politik sollte sich dann auch erinnern, dass es sich oft bewährt hat, Entscheidungen auf der Basis wissenschaftlich begründeter Argumente zu fällen: beispielsweise beim Heilen des Ozonlochs. Politiker hätten im übrigen ohne die Arbeit der Wissenschaft dieses Loch sicher nicht selbst bemerkt. Und sollte es mit dem Fracking erst 2021 (nach Ablauf des Moratoriums durch das geplante „Totregeln“) losgehen, ist das Gas sicher noch immer dort, wo es schon seit einigen Millionen Jahren auf uns wartet.

Prof. Dr. Horst Rüter ist Präsident von HarbourDome
und Mitglied der folgenden Organisationen:
 
  • Deutsche Geophysikalische Gesellschaft (DGG)
  • Geothermische Vereinigung – Bundesverband Geothermie (Vice-president)
  • International Geothermal Association (IGA), (Director)
  • European Geothermal Council (EGEC)
  • Geounion- Alfred Wegener Stiftung (Board Member)
  • European Association of Geoscientists and Engineers (EAGE)
  • Society of Geophysicists (SEG)
  • Australian Society of Geophysicists (ASEG)
  • Society of Professional Well Log Analysts
  • Deutsche Gesellschaft für Polarforschung
  • Indian Geophysical Union (IGU) Foreign Fellow

Mit Dank übernommen von der Website des Deutschen Arbeitgeberverbandes hier




Deutscher Wetterdienst (DWD) im Fantasia Land – Wie die DWD-Führung die Bevölkerung in die Irre führt

Bild rechts: Phantasialand bei Brühl, Original, Quelle: www.staedte-server.de

Die selbsternannten Klimaretter, oder übersetzt, Mittelwertretter, haben daraus gelernt – 30 Jahre, wer will ihre Aussagen nach 30 Jahren denn überprüfen, wenn sie, natürlich wieder einmal, nicht eingetroffen sind und, 30 Jahre gut leben von der Klimahype ist doch viel besser als 5 Jahre. Auch den Journalisten ist damit gedient. Können sie doch viel länger ihren Phantasien freien Lauf lassen (als journalistische Freiheit bezeichnet man dies wohl) und die Bevölkerung mit immer abenteuerlichen Szenarien in ihren Bann ziehen. Nein, weder in 5 Jahren, noch in 30 Jahren, noch in 100 Jahren wird es (sofern uns nicht der Himmel in Form eines Asteroiden auf den Kopf fällt) eine Klimakatastrophe geben. Warum? Dies erfahren Sie in unserem Bericht.

Wärmster April, wärmster Mai, wärmster Frühling, wärmster Sommer, wärmster September, …. Wer kennt sie nicht, diese Meldungen, die stereotyp und ohne zu hinterfragen, durch die Presse geistern. Von den ZDF-Wetterfröschen zuverlässig jeden Monatsende einer breiten Zuschauerschar aufgenötigt werden. Aufgenötigt daher, weil sie ungefähr so viel mit dem Wetter, also dem Tatsächlichen zu tun haben, wie Star Track mit der Realität.

„Ich traue nur der Statistik, die ich selbst gefälscht habe.“ Dieser geflügelte Satz von einem der ganz Großen der europäischen Geschichte, Herrn Winston Churchill, passt in der heutigen Zeit wohl nirgends so gut, wie zu den Argumenten von Deutschem Wetterdienst (DWD) und Co. zur Verteidigung der Klimakatastrophe. Wir möchten an dieser Stelle anführen, dass wir mit DWD, nicht die vielen Wissenschaftler/Meteorologen meinen, die dort täglich ihr Bestes geben, uns „Verbrauchern“ die Informationen zukommen zu lassen, mit denen wir jeweils die nächsten Tage vom Wettergeschehen planen können, sondern die DWD-Führung, die in verantwortungsloser Weise die Pfade der Wissenschaft verlassen hat und Verlautbarungen von sich gibt, wie z.B. den Temperaturgang der nächsten 100 Jahre zu kennen, die vielleicht Hollywood-verdächtig sind, aber mit Wissenschaft und Rechtschaffenheit nichts zu tun haben. Die DWD-Führung argumentiert schlichtweg gegen die eigenen Daten. Eine Klimaerwärmung gibt es definitiv seit 15 Jahren nicht mehr!

Mit Statistik ist Alles und Nichts zu beweisen. Aus Abb.1 wird dies ersichtlich. Wir betrachten nacheinander die Temperaturen Deutschlands der letzten 30 Jahre, der letzten 25 Jahre und der letzten 14 Jahre.

Abb.1a, nach Daten den DWD, zeigt den Temperaturgang für Deutschland der letzten 30 Jahre (diese Zeitspanne wird im allgemeinen als Klimazeitraum definiert). Man sieht den Anstieg ab 1983, der in Deutschland dann im Jahre 2000 den bisherigen Rekordwert erreichte.

Abb.1b, die letzten 25 Jahre.

Auf den ersten Blick ist leicht zu erkennen, dass es seit 25 Jahren keine Erwärmung mehr gibt in Deutschland. Nach dem Kälter werden der letzten Jahre sind wir momentan wieder auf dem Temperaturniveau von 1988/1989/1990 angekommen. In diesem Zeitraum sind übrigens die Kohlendioxidwerte, die angeblich für weitere Erwärmung dienen sollen, weiter angestiegen. Das zeigt die kleine eingeblendete Grafik. Die Temperaturen sind indes deutlich gefallen. Irgendetwas scheint demnach mit der Theorie von IPCC und Co. nicht zu stimmen…

und nun die letzten 14 Jahre Temperaturentwicklung in Deutschland.

Abb.1c: Je näher wir uns der Gegenwart, also der Realität nähern, umso deutlicher fallen in unserem Land die Temperaturen. Umso deutlicher wird es in Deutschland, nein, nicht wärmer, sondern kälter. Die Klimastatistik 30 Jahre sagt: In Deutschland wird es (bis zum Jahr 2000) wärmer, die Statistik der 25 Jahre: In Deutschland wird es kälter. Die Statistik der 14 Jahre: In Deutschland wird es noch kälter.

Die Temperaturgänge in Abb.1 sind nach Originaldaten des DWD gezeichnet. Sie zeigen keine Momentaufnahme, sondern viele Momentaufnahmen, die zu einem Vergleich aneinander gereiht sind. Genauso, wie dies DWD und Co. für ihre Darstellungen nutzen. So veröffentlicht der DWD eine Deutschlandtemperaturreihe der letzten 100 Jahre und mehr. Nur, ist dieser Momentvergleich, hier Jahresvergleich, überhaupt statthaft? Jeder, der sich halbwegs mit Deutscher Geschichte auskennt, weiß: Nein, dieser Vergleich ist nicht statthaft.

Unser Land hat sich in den letzten 120 Jahren vielfältig geändert. In seinen Grenzen (andere Wetterstationen, die in die Statistik eingehen). Andere Messverfahren (die Celsius-Messung existierte nur tlw.). Aber vor allem änderte sich das Landschaftsbild grundlegend. Eine Ausuferung der Urbanisierung durch die Bevölkerungszunahme seit 1900, den Städte- und Straßenbau und die gewaltige Zunahme des Energieverbrauches sind Kennzeichen der letzten 120 Jahre.

Völlig unberücksichtigt blieb bislang beim Deutschen Wetterdienst in der Betrachtung seiner Temperaturreihen auch die enorme Trockenlegung der freien Landschaft durch Kanalisierungen, Entwässerung und Überbauungen. Wo einst Flüsse und Bäche durch die Landschaft flossen, stehen neue Wohnsiedlungen. Unzählige Kilometer Sickerungsgräben entlang der Straßen und Feldwege, Drainagen und zigtausende Kilometer an (gelben) Sickerschläuchen, wodurch sich die physikalischen Eigenschaften des Erdbodens verändern. Das Regenwasser fließt schneller ab, die Verdunstungsrate der freien Landschaft und damit die Kühlung haben abgenommen und nehmen ständig weiter ab. Wo vor 50 Jahren beispielsweise in Hüttlingen bei Aalen die Kühe in den Feuchtwiesen „Wasserstall“ bis zu den Knien im Wasser weideten, da steht heute ein ausgedehntes trockenes Neubaugebiet in schönster warmer Südhanglage, mit der für Fremde unerklärlichen Bezeichnung „Wasserstall/Teich“.

Abb.2a: Früher so, im Jahre 1955

Die beiden Aufnahmen sind vom gleichen Standpunkt aus gemacht worden und decken auch den gleichen Bildausschnitt ab.

Und heute so.

Abb.2b: Zum Bild: Der kühlende Effekt des Weihers und der dahinter liegenden Sumpfauen auf die Landschaftsumgebung ist bei der oberen Aufnahme offensichtlich. Inzwischen hat sich der Ort ausgeweitet und an derselben Stelle steht der Gewerbebetrieb. Nicht nur der kühlende Effekt der einstigen Naturlandschaft ging verloren, sondern es wird zusätzlich durch die Gebäude und den eigenen Energieumsatz des Betriebes Wärme in die Landschaft eingetragen.

Und der Trend zur Trockenlegung und Betonierung der Landschaft hält an: Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland seit 2005 im Durchschnitt 107 ha pro Tag. In Baden-Württemberg beispielsweise im Jahr 2009 allein 7 ha pro Tag. Bei jedem neuen Bauwerk ist die Natur der Verlierer. Die Kühlung des feuchten Bodens entfällt, die Fotosynthese der Pflanzen, die einen Teil der Sonnenwärme verschlang, um Nährstoffe herzustellen, entfällt, umgekehrt speichert der Beton die Wärme für die Nacht, die achtmonatige Heizung vom September bis Mai verstärkt den Wärmeinseleffekt.

Aus den einstigen, viel kleineren Wärmeinseln um 1900, sind inzwischen weiträumige zusammenhängende Wärmeflächen entstanden. Der ganze Oberrheingraben, der Mittlere Neckarraum und die weite Tourismuszone um den Bodensee, verbunden mit der Trockenlegung der einstigen Sumpflandschaft Oberschwaben, sind ein nachweisbarer Beleg dieser Entwicklung in Baden-Württemberg.

Die Aussage des Deutschen Wetterdienstes Offenbach: Auch früher habe es den WI schon gegeben, deshalb könne man ihn unberücksichtigt lassen, ist somit nicht richtig. Es gab früher den WI, er war aber wesentlich kleiner. Bei jeder Klimastation vergrößert sich der Wärmeinseleffekt von Jahr zu Jahr. Vor allem in den Alpen macht sich der WI stark bemerkbar, denn dort ist in den letzten 60 Jahren der Eingriff in die Natur, verstärkt durch das Anschwellen der Touristenströme, recht groß. Zudem steigt die Warmluft der Täler nach oben und damit auch die Vegetationszonen.

Fazit: Ein direkter Temperaturvergleich von heute und vor 120 Jahren ist bei keiner Klima-Station möglich. Das wäre unseriös und führt zu falschen Ergebnissen. Man muss vom heutigen Temperaturmesswert einen Korrekturfaktor abziehen, eben den stetig zunehmenden Wärmeinseleffekt, um zu erfahren, welche Restwärme durch eine globale Klimaänderung seit 120 Jahren dazugekommen ist.

Und Einstein sagt uns nicht umsonst „Die Zeit ändert den Raum“ und damit all seine Eigenschaften, die ihn bestimmen und eine seiner Eigenschaften ist seine Temperatur. Ergo, darf es nicht einfach eine Aneinanderreihung nicht vergleichbarer Momentaufnahmen, hier der Jahrestemperatur, geben. Sie ist unzulässig. Dem haben die Autoren Rechnung getragen. Leistenschneider hat für drei Zeitabschnitte unseres Landes, in denen sich sein Erscheinungsbild und damit sein Raum besonders änderte, den in der Wissenschaft bekannten Wärmeinseleffekt berechnet und von den gemessenen Temperaturen abgezogen, um so die richtigen Vergleichstemperaturen zu erhalten, damit nicht falsche Vergleiche vorgenommen werden.

Die Theorie zur Berechnung basiert auf den Strahlungsgesetzen nach Planck und dem Abkühlungsgesetz nach Newton. Die Berechnung erfolgte anhand Vergleichsbetrachtungen in den Kennliniensteigungen des Temperaturganges für Deutschland und der Referenzstation Hohenpeißenberg (HPB). Leistenschneider hatte daher HPB als Referenz ausgewählt, weil auch der DWD diese Station als Referenzstation ansieht. Abb.3 zeigt die tatsächlichen Vergleichstemperaturen für Deutschland.

Abb.3: Die rote Kurve zeigt den Temperaturgang in Deutschland von 1890 – 2013, so wie sie vom DWD erfasst wird. Man sieht den Anstieg bis zum Jahr 2000 und den darauf folgenden Abfall.

Wir haben diese Temperaturen WI-bereinigt und in blau in die gleiche Grafik eingetragen. Sofort wird sichtbar, dass die WI-bereinigten Vergleichstemperaturen für die letzten dreißig Jahre deutlich fallen. Was wäre also, wenn sich Deutschland in diesen letzten 130 Jahren überhaupt nicht verändert hätte, d.h. gleiche Einwohnerzahl mit dem gleichen Lebensstandard, keinen Eingriff in die Landschaft. Ohne diesen zunehmenden Wärmeinseleffekt hätten wir gegenwärtig in Deutschland vergleichbare Temperaturen, wie vor ca. 130 Jahren.

Von einer Klimakatastrophe ist weit und breit nichts zu sehen. Mehr noch, anhand der nachlassenden solaren Aktivität, dem einzigen Energielieferanten für unser Wetter und dessen Mittelwert, dem Klima, ist für die nächsten Jahrzehnte von weiter fallenden Temperaturen auszugehen. So ist es natürlich nicht verwunderlich, dass die Gesamteismasse beider Pole im letzten Jahrzehnt zunehmend ist, auch tritt der menschengemachte WI dort (noch) nicht auf.

WI-bereinigte Daten heißt:

1) Die Zivilisationsveränderungen durch den Menschen sind erfasst.

2) Die Änderungen des Raumes durch die Zeit werden berücksichtigt.

Wie ist nun diese starke Diskrepanz zwischen den DWD-Darstellungen und den Unsrigen zu erklären? Nun, in 2010/2011 haben wir gut 150 DWD-Stationen einer Güteprüfung unterzogen ( http://eike-klima-energie.eu/climategate-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/ )

und dabei festgestellt, dass, selbst nach wohlwollender Prüfung, ca. 40% der DWD-Temperaturstationen für eine Vergleichsmessung ungeeignet sind (Abb.4).

Abb.4 zeigt eine typische Flughafenmessstation (hier Frankfurt) im direkten Umfeld heißer (ca. 600°C) Triebwerksabgase. Bei Temperaturvergleichen, die sich im Zehntel-Grad-Celsius-Bereich abspielen, braucht nun wirklich niemanden erläutert zu werden, dass solche Vergleiche mit WI-unbereinigten Messstationen sinnlos sind.

Abb.5 zeigt die langjährige DWD-Messstation Karlsruhe in unmittelbarer Nähe eines Parkplatzes. Die heiße Motorabwärme der Fahrzeuge steht über Stunden an. Auch mit solchen Stationen in der Nähe von Parkplätzen sind Temperaturvergleiche sinnlos.

Frankfurt/Main ist ein gutes Beispiel, dass sich Flughäfen überdurchschnittlich erwärmen. In der folgenden Abbildung 6 wurden die DWD- Werte von Frankfurt/Main mit dem Deutschland- Mittel seit 1949 verglichen:

Und just diese Station am Frankfurter Flughaben führt der DWD als ländliche Station in seiner Statistik, angeblich weitab von allen Wärmeinseln.

Abb. 6: Im Vergleich zum Deutschland-Mittel hat sich der immer wieder stark erweiterte und immer stärker frequentierte Flughafen in Frankfurt/Main überdurchschnittlich erwärmt. Das ohnehin im Vergleich zum Deutschland-Mittel sehr warme Frankfurt hatte anfangs, um 1950, einen „Temperaturvorsprung“ von etwa 1,2 Kelvin, der bis heute auf 1,8 Kelvin angewachsen ist. Zur besseren Orientierung sind neben den immer weiter auseinander laufenden Lineartrends auch dien polynomischen dargestellt. Man erkennt sehr schön die markanten Abkühlungsphasen kurz nach der Mitte des 20. Jahrhunderts und nach dem Beginn der 2000er Jahre. Mit dem CO2- Anstieg, der in dieser Zeit kontinuierlich verlief, hat diese Temperaturentwicklung nichts zu tun!

Nicht schwer zu erraten, dass dem DWD sowohl unsere Aussagen, als auch unsere berechneten WI-Werte für Deutschland nicht gefallen und er beides in Abrede stellt. Eingangs möchten wir den für Deutschland berechneten WI-Wert nennen, um ihn dann zu prüfen. Er beträgt nach Abb.3 +0,9°C bis +1,2°C. Die Wertepaarung ergibt sich, je nachdem, ob der Referenzstation HPB ein eigener WI zugeordnet wird, oder ob nicht.

Prüfung unseres WI-Wertes anhand unserer Hauptstadt Berlin

Die Freie Universität Berlin erhielt in den 1970-Jahren ein umfangreiches Netzwerk von Wetterstationen in (West)Berlin. Diese Epoche eignet sich auch daher in besonderem Maße, weil sie die Zeit abdeckt, in denen sich noch niemand mit einem menschengemachten Klimawandel und mit einer Angst vor hohen Temperaturen befasste und daher auch frei von irgendwelchen „Betrachtungsinterpretationen“ ist. Die Stationen befanden sich in Charlottenburg, Tempelhof, Tegel, Dahlem, Grunewald, Zehlendorf, Insel Scharfenberg, Pfaueninsel, Gatow, Baumschule Neukölln, Rudow, Botanischer Garten, Heiligensee, Frohnau, Kohlhasenbrück, Tegel am Fließtal und Span. Forst (Jagen 64). Sie decken damit die unterschiedlichsten geographischen Gegebenheiten ab und eignen sich daher in erstklassiger Weise zur Betrachtung der Temperaturentwicklung in gleichen Zeiträumen und unterschiedlichen Bebauungszonen. Also mit ein und denselben Wetterverhältnissen im Raum (West)Berlin. Bevor wir zur Temperaturbetrachtung und Analyse übergehen, die Aussage des DWD zu den Auswirkungen des WI in Deutschland:

In persönlichen Mails (an Herrn Kowatsch), räumt der DWD für Städte wie Frankfurt zwar einen WI-Antrieb von 1°C ein, geht aber davon aus, dass dieser in der Fläche umgerechnet nicht mehr als +0,1°C liegt, was, wie gezeigt wird, eine Falschaussage ist.

Herr M.-W. vom DWD, Zitat: “Natürlich gibt es einen Wärmeinseleffekt in großen Städten. Er kann dort im Mittel auch etwa 1 Grad ausmachen. In Anbetracht des auch in Deutschland geringen Anteils dicht bebauter Gebiete an der Gesamtfläche ist das aber weniger als 0,1 Grad. Dieser Effekt ist auch nicht neu und hat sich in den letzten Jahrzehnten kaum verändert, so dass der  Wärmeinseleffekt für irgendwelche Temperaturveränderungen in den letzten Jahren völlig ohne Belang ist.“ Zitat Ende.

Grundsätzlich vertritt der DWD in Offenbach die Meinung: Auch früher habe es den WI schon gegeben, deshalb könne man ihn unberücksichtigt lassen. Der DWD begreift (noch) nicht, dass der WI ein ständig steigender Wert ist.

Der DWD geht also höchstenfalls von einem WI-Fehler in seinen Messungen und Ergebnissen von +0,1°C aus. Weiter sieht der DWD Flughafentemperaturmessstationen als ländliche Stationen, ohne WI an. Hier ein Schreiben des DWD vom Juni 2010: „… In diesem Jahr war es in Frankfurt auch 0,5 Grad wärmer als im Vergleichszeitraum, weil der Wärmeüberschuss im Süden und Westen Deutschlands höher war als im Landesdurchschnitt. Mit einem Wärmeinseleffekt hat das aber alles nicht zu tun, denn der aktuelle Wert und der Bezugswert stammen von der Station am Flughafen weitab von irgendwelchen Wärmeinseln.“

Wir werden sehen, was es mit beiden Aussagen auf sich hat – was beide Aussagen des DWD wert sind. Siehe auch:

http://www.eike-klima-energie.eu/climategate-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/

In der folgenden Abbildung 7 haben wir die Temperaturgänge von 6 Stationen in Berlin betrachtet.

Tempelhof: Eine ausgesprochen Städtische Station

Dann die beiden Flughäfen Tempelhof und Tegel, die der DWD als ländlich einstuft.

Und dann noch drei ländliche Stationen, sofern man in Berlin überhaupt von ländlich reden kann. Jedenfalls liegen Kohlhasenbrück, Tegel im Fließtal und Spandauer Forst nicht mitten in der Stadt.

Die Ergebnisse sind eindeutig und bestätigen unsere früheren Arbeiten zum Wärmeinseleffekt, z.B.

http://www.eike-klima-energie.eu/news-cache/klimawandel-in-deutschland-bedeutet-abkuehlung-trotz-deutlicher-zunahme-von-co2-teil-1/

http://www.eike-klima-energie.eu/news-cache/klimawandel-in-deutschland-bedeutet-abkuehlung-trotz-deutlicher-zunahme-von-co2-teil-2/

Abb.7 zeigt den Temperaturgang der beiden Flughafenstationen Tempelhof und Tegel im Zeitraum von 1970 – 1974 und dazu den Temperaturgang von Charlottenburg, deren Messstation mitten in der Stadt liegt – städtischer geht es nicht. Damit Sie sich ein Bild von der Lage der Station machen können, haben wir Ihnen jeweils die Satellitenaufnahme (Quelle: Google-earth, Abbildungen 9) angefügt. Die räumliche Veränderung heute zu 1970 ist auf den beiden Flughäfen unwesentlich verändert, was auch für Charlottenburg zutrifft, welches seinerzeit wie heute, mitten in der Innenstadt liegt.

Beachte: Tempelhof (braune Grafik) ist ab 1971 deckungsgleich mit Tegel, deshalb verschwindet der Graph im Diagramm.

Anhand der obigen Aussage des DWD, dass Flughafenstationen als ländlich einzustufen sind, „überrascht“ das Ergebnis, denn es ist nicht der geringste Unterschied zu erkennen. Flughafentemperaturmessstationen sind nicht als ländlich, sondern als städtisch, mit einem hohen WI einzustufen. Der DWD sollte schnellstens seine unsinnige Aussage zu den Flughafentemperaturmessstationen korrigieren. Deutlich kühler sind die drei ländlichen Temperaturstationen, sie zeigen zugleich, welche Temperaturunterschiede durch Bebauung bereits auf einer verhältnismäßig kleinen Fläche wie in Berlin vorliegen.

In Abb.7 haben wir die Ergebnisse von städtischen Stationen betrachtet. Deren Temperaturgang von all der städtischen Abwärme aus Heizungsanlagen, technischen Anlagen, Straßenverkehr, Bebauung, Reduzierung Luftzirkulation und Bodenversiegelung, um einige zu benennen, beeinflusst und damit deren Ergebnisse nach oben, zu höheren Temperaturen verfälscht werden. Bei Flughafenstationen sind dies die heißen Triebwerksabgase und die Abwärme der Motoren. Weiter zeigt Abb.7 die Messergebnisse von drei ländlich gelegenen Berliner Temperaturmessstationen. Aus Abb.8 geht hervor, warum solch ein Unterschied in den Temperaturen vorhanden ist. Sie zeigt, wie sich der Temperaturgang in Abhängigkeit zur Bodenbeschaffenheit ändert.

Abb.8 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975.

Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich. Die Gründe hierfür sind vielfältig:

– Im Sommer speichert der verwendete Feststoff die tagsüber von der Sonne eingestrahlte Wärme (spezifische Wärmekapazität der Stoffe) und gibt sie nachts ab, die Bebauung erwärmt somit die Umgebung.

– Bei Regen fließt Regenwasser sofort ab und erzeugt keine Verdunstungskälte.

– Bäume und Pflanzen, die vor der Versiegelung der Landschaft angesiedelt waren, haben einen erheblichen Teil der Sonnenstrahlung für ihre Fotosynthese verwendet. Nur ein Teil der Sonnenstrahlung erreichte den Boden. Die Sonnenstrahlung wurde abgefangen, und in chemischer Form in den Pflanzen gespeichert. Die Versiegelung der Landschaft hält weltweit an, bedingt durch die Bebauungszunahme. In Deutschland pro Tag 104 ha.

– Zunahme des Wohlstandes in Teilen der Welt, vor allem auf der Nordhalbkugel.

Auch die freie, unbebaute Landschaft hat gegenüber dem Deutschland vor 100 Jahren eine Erwärmung erfahren, die auf dem WI beruht. Dabei handelt es sich nicht um eine statistische Umlegung des WI aus der Bebauung auf die Gesamtfläche des Landes, wie der Deutsche Wetterdienst dies per Mail darlegt und eine genannte Schätzung von +0,1°C WI in der Gesamtfläche abgibt, sondern um einen realen Wärmeinseleffekt, basierend auf einer wärmenden Landschaftsumgestaltung.

Abb.7 zeigt den Temperaturgang von 1970 – 1974 der drei städtischen Messstationen, die einen hohen WI-Anteil beinhalten, mit den drei ländlichen Stationen des Messnetzwerks der Freien Universität Berlin. Wie stark der WI-Anteil die Temperaturwerte beeinflusst und damit nach oben verfälscht, ist offensichtlich.

Eingangs wurde darauf hingewiesen, dass anhand der von Leistenschneider auf Basis der Planckschen Strahlungsgesetze und dem Newtonschen Abkühlungsgesetz berechnete WI für Deutschland +0,9°C bis +1,2°C beträgt.

Abb.9a zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Charlottenburg lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Abb.9b zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Flughafen Tempelhof lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Abb.9c zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Flughafen Tegel lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Abb.9d zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Kohhasenbrück lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Abb.9e zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Tegel am Fließtal lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Abb.9f zeigt die Satellitenaufnahme von der Umgebung, in der die Messstation Spandauer Forst lag und den durchschnittlichen Jahreswert der Temperatur im Betrachtungszeitraum 1970-1974.

Sowohl zur Messvergleichbarkeit, als auch der statistischen Vergleichbarkeit haben wir jeweils drei Stationen am Ende der jeweiligen Messwerteskala bewertet. Die Temperaturmittelwerte der Betrachtungsjahre ergibt ein Wertepaar von 9,2°C (städtische Messwerte) zu 8,0°C (ländliche Messwerte). Der Temperaturunterschied Stadt zu Land in gleichen Zeitfenstern ist der WI und beträgt anhand der Daten der Freien Universität Berlin +1,2°C.

Eingangs erwähnten wir, dass selbst bei wohlwollender Prüfung gut 40% der DWD-Messstationen für Temperaturvergleichsbetrachtungen wertlos sind, da sie z.B. auf Flughäfen, in der Nähe von Parkplätzen oder in Städten, den Alpen, … sind. All diese Stationen sind stark WI-behaftet, da sie in einer sich stetig ändernden Landschaft hin zu mehr Verkehr oder mehr Bebauung (oder Tourismus) liegen. Das flächendeckende Netz des DWD eignet sich demnach nicht zum Vergleich von Jahrestemperaturen oder Monatstemperaturen über längere Zeiträume. Dies ist bei der WMO, die die Jahreserdtemperaturen veröffentlicht, nicht besser. Über 50% von deren Stationen liegen auf Flughäfen, weitere gut 30% in Städten, so dass über 80% der Messstationen der WMO ungeeignet sind. Darüber hinaus decken diese über 80% nur ca. 3% der Landfläche der Erde ab. D.h. die Erdjahrestemperatur wird zu einem Großteil aus einer Fläche von 3% der Erde ermittelt. Absurder kann Wissenschaft nicht hintertrieben werden. Wie sagte noch der ganz Große der europäischen Geschichte "Ich traue nur der Statistik, die ich selbst gefälscht haben."

Ergebnisse

1) Der berechnete WI anhand der DWD-Deutschlanddaten zur DWD-Referenzstation HPB, den der DWD nicht wahrhaben will und daher in Abrede stellt, beträgt:

+1,2°C (vgl. Abb.3).

2) Der ermittelte WI aus den Temperaturaufzeichnungen der Freien Universität Berlin beträgt:

+1,2°C

3) Somit ist festzustellen, dass unser bereits in 2011 veröffentlichter WI für Deutschland korrekt ist und die vom DWD veröffentlichten Temperaturvergleichswerte um diesen Betrag nach unten zu korrigieren sind. Wir zeigen Ihnen zum Abschluss daher nochmals, die für Deutschland richtigen Vergleichstemperaturen, die so gar nichts gemein haben, mit den stereotyp vorgetragen Metaphern, wärmster…, wärmster,… etc.

Abb10. Die blaue Temperaturreihe zeigt die richtigen Vergleichstemperaturen für Deutschland. Gegenwärtig haben wir vergleichbare Temperaturen wie um 1890. Von einem anthropogenen Klimawandel oder gar einer sich anbahnenden Klimakatastrophe ist nichts zu erkennen!

Fazit

Wir fühlen Temperaturen nicht aus leeren Statistiken, sondern am täglichen Wettergeschehen. Ob es wärmer oder kälter wird, entscheiden unsere Empfindungen, nicht irgendwelche Statistiken, die am Ende eine Monats verkündet werden, die sich darüber hinaus noch auf einen Vergleichsbetrachtungszeitraum von 1961 – 1990 beziehen, in dem es, wie aus Abb.10, sowohl aus der DWD-Reihe, als auch der Unsrigen, WI-bereinigten, besonders kalt war. Werden aktuelle Temperaturen mit diesen kalten, unterdurchschnittlichen Temperaturen verglichen, müssen sie zwangsläufig hoch ausfallen. Auch hier wieder das Zitat von Herrn Churchill.

Um weiteren Schaden von der einstigen Wissenschaftsinstitution DWD abzuhalten, sollte die Führungsspitze des Deutschen Wetterdienstes endlich vor den Medien offenbaren, dass das Jahr 2000 in Deutschland das wärmste Jahr war und seitdem die Temperaturen sinken. In persönlichen Mails wird das nämlich schon längst zugegeben, nur vor der Presse und der Öffentlichkeit wird durch die DWD-Führungsspitze in Offenbach getrickst und das Märchen aufgrund der sich fortsetzenden CO2-Erwärmung verkündet.

Neuerdings schicken wir den Bundestagsabgeordneten unsere DWD Graphiken mit den seit 17 Jahren fallenden Trendlinien zu, was ein unglaubliches Staunen hervorruft. Die Nachfragen der MdBs beantwortet der DWD dann stets sinngemäß so, es sei richtig, dass die Temperaturen seit der Jahrtausendwende fallen, aber über die letzten 130 Jahre seien sie immer noch gestiegen. Unsere abermaligen Antworten, dass man diese Temperaturen nicht direkt vergleichen könne, sondern einen WI-faktor zur Betrachtungskorrektur brauche, beantwortet der DWD dann mit lapidaren Aussagen, dass es diesen WI auch schon früher gegeben habe und man brauche ihn deshalb nicht berücksichtigen oder dass die Korrekturen bereits eingerechnet seien. Die Abgeordneten, auch das Verkehrsministerium geben sich dann mit solchen Antworten -gläubig oder ungläubig- zufrieden. Immerhin erfahren die Abgeordneten dann zum ersten Male, dass die Temperaturen seit 17 Jahren fallen.

Es wird daher höchste Zeit, dass die DWD-Führung erkennt, dass sich die reale Welt nicht im Computer, in willkürlichen Klimamodellen, mit willkürlich gewählten Parametrierungen abspielt, sondern ihren eigenen Charakter hat. Diesen findet man nicht in beliebigen Algorithmen, sondern dort, wo die Väter der modernen Naturwissenschaften unterwegs waren. Ein Alexander von Humboldt hätte z.B. schwerlich seine Erkenntnisse aus theoretischen Gebilden gewonnen, die mit der Realität ungefähr so viel zu tun haben, wir Star Track mit der realen Welt. Aber offenbar verwechselt die DWD-Führung Fiktion und Wirklichkeit und kann nicht mehr erkennen, dass sie die Wirklichkeit längst verlassen hat und sich mit den Hobbits auf ihrer Reise durch die Mittelerde befinden.

Damit die DWD-Führung nicht noch weitere Kreise unseres Landes auf ihrer Reise durch Fantasia Land mitnimmt, besonders die deutsche Presse, der die Rolle der Nazgûl übertragen wurde, gibt es EIKE und seine vielen Unterstützer, die sich als Naturforscher unter den Klimaforschern verstehen.

Mit unserer Untersuchung konnten wir einmal mehr zeigen, wo und wie DWD, PIK, IPCC und deren Unterstützer unterwegs sind: Auf einer Reise, fernab der realen Welt, längst verirrt in den Nebelgebirgen der Mittelerde.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Stefan Kämpfe – Weimar




Die gefährliche Utopie der Klimakrieger

Die jahrzehntelange Propaganda selbsternannter Klimaschützer war überaus erfolgreich. Die Idee von der Notwendigkeit zur Dekarbonisierung ist bereits in einem nicht mehr steigerungsfähigen Ausmaß in der Politik verankert. Das Wort von der Erderwärmung als größte Herausforderung der Menschheitsgeschichte wird tagtäglich durch die Medien verbreitet. Umwelt- und sonstige Interessenverbänden, Kirchen, Gewerkschaften und ein großer Teil der Wirtschaft agieren in dieser Angelegenheit wie gleichgeschaltet. Selbst die Bevölkerung stimmt dem Raubzug namens Energiewende mehrheitlich zu. Ganz zu schweigen von vielen weiteren Geldverbrennungsaktionen (Elektromobilität) und einer Unmenge an Vorschriften und Gängelungen, die Freiheiten in vielerlei Hinsicht einschränken.

Stefan Rahmstorf und seine Mitkämpfer haben erreicht, was zu erreichen war. Skepsis ist an den Rand gedrängt und lebt nur noch in wenigen Online-Biotopen. Die Präsenz der Apokalypse in unser aller Phantasie kann nicht noch weiter gesteigert werden. Jedes neue Menetekel verpufft daher wirkungslos.

Die im einleitenden Zitat deutlich werdende Frustration beruht wohl eher auf dem Ausbleiben realer Effekte nach 30 Jahren Klimadebatte. Die Emissionen sinken nicht. Sie steigen auf breiter Front – im Jahr 15 der Energiewende auch wieder in Deutschland. Klimaschutz ist etabliert ohne zu funktionieren. Die Hindernisse sind nicht ein Mangel oder eine verfehlte Gestaltung politischen Handelns. Die Hürde liegt im Menschen selbst und in den Gegebenheiten, die er auf seinem Planeten vorfindet.

Die Bereitstellung von Energie in geeigneter Form ist die Grundlage unseres Wirtschaftens. Die Basis einer modernen, aufgeklärten und Prinzipien wie Freiheit und Gleichheit verpflichteten Zivilisation ist ein diskriminierungsfreier Zugang zu Energieträgern. Es sollte nicht vom individuellen Wohlstand abhängen, nicht vom Wohnort und nicht vom Zeitpunkt, ob man heizen oder kochen, etwas produzieren und seine Mobilitäts- oder Kommunikationsbedürfnisse stillen kann. Allein Kohlenwasserstoffe wie Kohle, Erdöl, Erdgas und Methanhydrat, bei deren Verbrennung prinzipbedingt Kohlendioxid entsteht, erfüllen diesen Anspruch. Nur sie können die erforderliche Vielfalt an Maschinen und Apparaten betreiben (insbesondere über den Umweg der vorgeschalteten Umwandlung chemischer Energie in Elektrizität), sind weit genug verbreitet, einfach genug transportabel und häufig genug vorhanden. An irgendeinem Punkt jeder Wertschöpfungskette wird daher immer auf sie zurückgegriffen. Aktuell etablierte Klimaschutzmaßnahmen bedeuten nur eine Verlagerung der Emissionen. Leichtbau mittels Kohlefaserverbundwerkstoffen beispielsweise verschiebt diese vom Betrieb eines Fahrzeuges hin zu dessen Herstellung. Maßnahmen, die der Effizienzsteigerung dienen, erzeugen in wettbewerblich orientierten Märkten automatisch Rebound-Effekte. Ein prägnantes Beispiel ist die zivile Verkehrsluftfahrt, in der Effizienzsteigerungen von 1-2% pro Jahr ein Wachstum der zurückgelegten Passagierkilometer (und damit der Emissionen) von 4-5% über sinkende Ticketpreise induzieren. Auch indirekte Rückkoppelungen sind hier zu nennen. Was man an Heizkosten spart, fließt eben in die nächste Urlaubsreise.

In gewissem Umfang substituierbar sind Kohlenwasserstoffe nur durch Energieträger wie Uran oder Thorium, die die Nutzung der Kernkräfte gestatten. Auch diese findet man überall auf der Welt in ausreichender Menge. Zur Verfügung steht eine erprobte Technologie allerdings nur für die stationäre Verwendung und für die Energieversorgung von Schiffen, die gegenwärtig in Deutschland nicht die erforderliche Akzeptanz besitzt.

Andere geeignete Energieträger hat unser Planet leider nicht zu bieten. Manche (etwa Ammoniak) kommen durchaus in der Natur vor, sind aber vergleichsweise selten. Natürliche Energieflüsse wie strömendes Wasser oder die Erdwärme anzuzapfen, ist nur in Regionen mit geeigneter Geographie möglich. Wind und Sonne liefern wetterabhängig unzuverlässig und ungeregelt. Man kann sie natürlich durch Energiespeicher puffern und insbesondere die Herstellung von Energieträgern wie Wasserstoff mit ihrer Hilfe gilt als Pfad zur „klimaneutralen“ Gesellschaft. Ein Irrweg.

“Energie” ist ein abstrakter physikalischer Begriff. Der Energiegehalt eines Systems steht für dessen Fähigkeit, Arbeit zu leisten. Da man Energie nicht aus dem Nichts gewinnen kann, ist dieses Potential dem System wiederum durch Arbeit zuzuführen. Auch Energiespeicher wie Pumpspeicher oder Batterien sind letztendlich Maschinen, die Arbeit leisten, um eine Energieform in eine andere zu überführen. Aus Windstrom Wasserstoff zu machen, ist nicht Energieproduktion, sondern Energieverbrauch. Bei Kohlenwasserstoffen hingegen hat die Natur den größten Teil der Arbeit bereits geleistet. Seit mindestens zwei Milliarden Jahren nutzen Algen in den Weltmeeren das Sonnenlicht, um Kohlenhydrate zu synthetisieren, aus denen durch weitere chemische und physikalische Prozesse Stoffe wie Erdöl und Erdgas hervorgegangen sind. Zwischen diese Quelle und den Nutzer einen aus Unmengen an Beton und Stahl bestehenden weiteren Umwandlungsschritt zu setzen, stellt eine Vernichtung von Werten dar, die einmal mehr Emissionen nur verlagert. Ganz wie beim Elektromobil, dessen Batterie mit Strom aus einem Gaskraftwerk geladen wird. Effizienter wäre, das Gas direkt im Motor zu verbrennen.

So also funktioniert Dekarbonisierung nicht. Es verbleibt die Biomasse als mögliche Basis für eine Transformation des Energiesystems. Aus Pflanzen hergestellte Gase und Treibstoffe, sowie Holz und Holzkohle könnten tatsächlich rein von ihrer chemischen Struktur her die Maschinen dieser Welt antreiben. Man darf sie nur nicht schneller verbrauchen, als die Pflanzen wieder nachwachsen. Denn das Problem der geringen Energieproduktivität pro genutzter Flächeneinheit ist bei Biomasse noch weit ausgeprägter als bei Wind- und Solarenergie. Selbst die Nutzung der gesamten landwirtschaftlichen Nutzfläche Deutschlands, also aller vorhandenen Felder und Weiden, zur ausschließlichen Produktion von flüssigen Biotreibstoffen und Biogasen könnte den hiesigen Energiebedarf nicht decken.

Wer trotzdem wissen will, wie eine auf diese Weise dekarbonisierte Gesellschaft aussehen könnte, mag 300 Jahre in die Vergangenheit schauen. In eine Zeit, als Eisenerz noch mit Holz- statt mit Kokskohle verhüttet wurde. Man sieht Staatswesen, in denen der Reichtum einiger weniger durch die Ausbeutung vieler ermöglicht wurde, in denen Armut für die Masse der Bevölkerung ein unüberwindbares Schicksal darstellte. Die Agrarwirtschaft war der dominierende Sektor, getragen von der manuellen Arbeitskraft von Menschen und Nutztieren. Die Sklaverei in allen ihren Facetten konnte erst überwunden werden, als eine neue, überall in ausreichenden Mengen verfügbare Energiequelle für den Betrieb von Maschinen aller Art in die Menschheitsgeschichte eintrat. Man kann mit Recht einwenden, auf dieses Niveau würde eine „moderne“ dekarbonisierte Zivilisation kaum mehr herabsinken. Denn immerhin stehen heute weit fortgeschrittenere technische Systeme zur Verfügung. Aber was die Utopie der Klimakrieger mit der vorindustriellen Zeit verbindet, ist der Mangel an Entwicklungsmöglichkeiten.

Die konsequente Transformation der Energiesysteme führt zwangsläufig zu Preissteigerungen bei gleichzeitig sinkender Versorgungssicherheit. Auch eine flexibel auf steigende Bedarfe reagierende Ausweitung des Angebotes an Strom und Treibstoffen wäre kaum mehr möglich. Als Folge ergeben sich erhebliche Auswirkungen auf die individuelle Lebensgestaltung wie auch auf die Produktion von Gütern aller Art. Im Gegensatz zur Propaganda der Nachhaltigkeitspropheten ist die moderne Welt nicht mit Konsum- oder Verhaltenszwängen verbunden. Es geht nicht darum, den ganzen Tag mit dem Auto zu fahren und dabei Burger verzehren zu müssen. Der Unterschied zu vergangenen Epochen besteht in der Möglichkeit, es zu können, wenn man denn möchte. Dekarbonisierung hingegen beinhaltet die Einschränkung von Freiheit durch den Verzicht auf Optionen. Wenn der WBGU in seinem jüngsten Gutachten ein global einheitliches Emissionsbudget von zwei Tonnen Kohlendioxid pro Erdenbürger mit dem Prinzip der “Gleichheit” umschreibt, ist dies eine Perversion der Aufklärung. Denn der durch diese etablierte Grundwert “Gleichheit” meint eben nicht gleiche Einschränkungen, sondern gleiche Chancen.

Der Wohlstand eines Landes, dessen energetische Basis im wesentlichen Biomasse bildet, ergänzt durch Wind- und Wasserkraft sowie die Photovoltaik, hängt primär von den vorgefundenen geographischen und klimatischen Bedingungen ab, insbesondere von der verfügbaren Fläche fruchtbaren Ackerlandes. Und wer seinen Wohlstand mehren und die Versorgung der Bevölkerung verbessern will, ist zu einer territorialen Erweiterung gezwungen.

“Dieses ewige Gerede über den Krieg ist Narrheit und macht die Völker wahnsinnig. Was ist denn die Frage? Nur, daß wir Korn und Holz brauchen. Des Getreides wegen brauche ich Raum im Osten, des Holzes wegen brauche ich eine Kolonie, nur eine.”

So sprach Adolf Hitler am 11. August des Jahres 1939 (Quelle: Joachim C. Fest, Hitler, Propyläen-Verlag). Und obwohl dieses Zitat verdeutlicht, wie sehr er in strategischen Konzepten der Vergangenheit verhaftet war, widersprochen hat ihm damals keiner. Natürlich war es 1939 und in den Jahren zuvor schon irrsinnig, die Gewinnung von “Lebensraum im Osten” zur Überlebensfrage zu erklären. Heute würde sich erst recht der Lächerlichkeit preisgeben, wer einen Angriffskrieg für Getreide und Holz führen wollte. Obwohl schon ein gewisses Frösteln hervorruft, wie die Energiewende einerseits Phantasien über Autarkie hervorruft und andererseits desertecschen Energie-Imperialismus salonfähig macht.

In einer auf Biomasse angewiesenen Welt wäre die Hegemonie des Landbesitzes gegenüber allen anderen Konzepten des Wirtschaftens wieder etabliert. Längst überwunden geglaubte Vorstellungen über die Notwendigkeit zur Erweiterung eines Staatsgebietes könnten auf dieser Basis wieder aufkommen. Die nebenstehende Grafik stammt aus dem WBGU-Konzept zur “Großen Transformation” (Abbildung 8.2). Sie verdeutlicht die mit der angestrebten “Nachhaltigkeitskultur” einhergehende Senkung der Energieflächenproduktivität auf mittelalterliches Niveau. Die Folgen kann man sich ausmalen, in einem noch dazu weit dichter besiedelten Land mit weit höheren individuellen Energieumsätzen.

Diese Utopie der Klimakrieger mag regional begrenzt sogar durchsetzbar sein, weltweit aber sicher nicht. Zu unterschiedlich erscheinen die Interessen von Entwicklungs-, Schwellen- und Industrieländern, ganz zu schweigen von den etwa fünfzig Staaten, die fossile Energieträger für den Export produzieren. Sollte aber die Rückkehr zu einem auf Biomasse basierendem Energiesystem tatsächlich überall durchgeführt werden, würde man dadurch reale Gefahren schaffen, die hypothetische Risiken eines Klimawandels weit übertreffen. Mögen Rahmstorf und seine Kollegen auch für den Moment die Meinung prägen können, den Bezug zum Machbaren haben sie längst verloren. Ein Gefühl für das Verantwortbare fehlte ihnen ohnehin schon immer. Am Ende ist die „Hyperenergiegesellschaft“ nicht nur die zwangsläufige Zukunft, sondern auch die attraktivere. Denn in ihr sind Gesellschaften robust gegenüber klimatischen Veränderungen. Ganz gleich, ob die vielen Warnungen alarmistischer Klimaforscher eintreffen oder nicht.

Übernommen von Science Sceptical hier




Regenmenge und Überschwemmungen: Beobachtungen zuverlässiger als Klimamodelle

Trotz gegenteiliger Behauptungen gab es keine signifikante Änderung im Trend der Regenmenge während der letzten Jahre, und zwar sowohl im globalen Maßstab als auch in UK. Es bleibt wegen der hohen natürlichen Variabilität der Verteilung von Regenfällen ungemein schwierig, gesicherte Behauptungen über jedwede Änderungen aufzustellen, die es gegeben hat, besonders in UK.

Die Regemenge ist ein besonders schwieriges Gebiet für Klimamodelle, die nur begrenzt die Fähigkeit haben zu rekonstruieren, was man in der realen Welt beobachtet. Da diese Klimamodelle die hauptsächliche Grundlage für Behauptungen sind, dass sich die vom Menschen verursachte globale Erwärmung nachteilig auf Extremwetter- und Überschwemmungs-Ereignisse auswirkt und dass Regenfälle in Zukunft immer schlimmer werden, sollten politische Entscheidungsträger diese Modellierungen mit größter Vorsicht betrachten.

Autor Andrew Montford sagte: „Wir werden fortwährend bombardiert mit Andeutungen, dass Stürme und Überschwemmungen von der Klimaänderung verursacht werden oder mit dieser im Zusammenhang stehen. In Wirklichkeit basieren diese Behauptungen auf Klimamodellen, die nachweislich unfähig sind, irgendetwas Zuverlässiges hinsichtlich der Regenmenge zu sagen. Die wissenschaftlichen Beweise zeigen, dass eine einfache Extrapolation von Mittelwerten der Regenmengen mit der Zeit bessere Vorhersagen ergeben als von Klimamodellen“.

Link: http://wattsupwiththat.com/2014/10/10/rainfall-floods-observations-more-reliable-than-climate-models/

Weil diese Studie auch für uns von grundlegender Bedeutung ist, folgt hier die vollständige Übersetzung:

Niederschlag, Sintfluten und Überschwemmungen – beobachtete Beweise und Computer-Modellierung

Andrew Montford

1. Einführung

Forderungen nach Reaktionen seitens der Politik auf die globale Erwärmung basieren oftmals teilweise auf Behauptungen, dass die Regenmenge zunehmen und der Regen stärker wird und dass daher Überschwemmungen ein immer größeres Problem werden. Schweren Ereignissen wie die Bocastle-Überschwemmung 2004, die Überschwemmungen in Kaschmir, der nasse Sommer 2007 und die winterlichen Überschwemmungen 2014 folgen immer Andeutungen, dass diese Ereignisse mit der Klimaänderung im Zusammenhang stehen, zusammen mit expliziten Behauptungen, dass in Zukunft immer mehr solcher Überschwemmungen zu erwarten sind.

Allerdings ist die Verbindung zwischen einer sich erwärmenden Welt und zunehmenden Überschwemmungen alles andere als geklärt, vor allem auf den Britischen Inseln. Obwohl also gesagt wird, dass Überschwemmungen in UK das Nummer-1-Risiko sind, ist keineswegs geklärt, ob Regenfälle oder Überschwemmungen tatsächlich öfter vorkommen als früher, zumindest in bedeutsamer Weise.

Die folgende Kurzstudie untersucht Änderungen starker Regenfälle und Überschwemmungen in UK und weltweit, ebenso die verwendeten Tools zur Abschätzung eines eventuellen Zusammenhangs mit der Klimaänderung und wie diese verwendet werden vorherzusagen, wie sich diese Faktoren in der Zukunft ändern.

2. Beobachtungen von Niederschlag und Überschwemmungen

Global

In seinem jüngsten Bericht zur globalen Erwärmung hat das IPCC keine markanten Behauptungen bzgl. Änderungen der Regenfälle aufgestellt. Im 5. Zustandsbericht heißt es, dass während der 2. Hälfte des 20. Jahrhunderts, als die CO2-Emissionen höchst signifikant waren, und auch während des gesamten 20. Jahrhunderts die Trends des Niederschlags alles andere als aufschlussreich waren, bis hin zu der Aussage, dass unklar ist, ob es überhaupt eine Zu- oder Abnahme gegeben hat.

Allerdings liegt die Ursache von Überschwemmungen nicht allein in ausgedehnten Perioden ergiebigen Regens, sondern auch in kurzfristigen, lokal begrenzten Wolkenbrüchen. Daher ist die Zunahme der Intensität des Niederschlags genauso wichtig wie Änderungen der Gesamtmenge. Hier sagt das IPCC etwas Bedenklicheres, wenn auch nur gering, nämlich dass wahrscheinlich mehr Gebiete auf dem Festland eine Zunahme intensiver Regenfälle verzeichnen werden als eine Abnahme.

Im 5. Zustandsbericht steht auch, dass es hinsichtlich der Trends von Häufigkeit und Größenordnung von Überschwemmungen weltweit nur geringe Sicherheit gibt.

UK

Der Analyse von UK zufolge sind die Probleme ähnlich. Falls überhaupt die Lage problematischer ist, dann wegen der geographischen Einbettung von UK am Rande des Kontinents Europa, wo entweder kontinentale oder maritime Klimate vorherrschend sein können, was zu sehr wechselhaftem Wetter führt.

Osborn und Maraun, zwei Forscher an der CRU der University of East Anglia kamen zu dem Ergebnis, dass die Regenmengen insgesamt in UK während der letzten Jahre höchstens marginal zugenommen haben mit zunehmender Variabilität von Jahr zu Jahr. Allerdings betonten sie auch, dass unklar sei, ob dies nicht ganz einfach die natürliche Variabilität spiegelt. Andere Studien zeigten einen Unterschied zwischen den Jahreszeiten. Jones et al. kamen zu dem Ergebnis, dass länger dauernde Regenereignisse von 1961 bis 2009 sowohl im Sommer als auch im Winter zugenommen, kurzzeitige Sommerereignisse aber abgenommen haben. Vielleicht muss hierzu erwähnt werden, dass die Autoren nicht versucht haben, diese Änderungen einem bestimmten Faktor zuzuordnen; sie benennen nur die Tatsache der Änderungen. Allerdings wird das Wetter in UK auch durch langzeitliche natürliche Zyklen wie die Atlantische Multidekadische Oszillation beeinflusst. Daher ist es plausibel, dass die Ergebnisse durch den Zeitpunkt des Beginns der Analyse beeinflusst werden können, waren doch die sechziger Jahre eine relativ trockene Periode. Eine nicht veröffentlichte Analyse längerfristiger Daten zeigt kaum einen Trend im Zeitraum seit 1930.

Trends hinsichtlich Überschwemmungen sind notorisch schwer zu bestimmen, sind es doch viele Faktoren, die zu Schäden beim Eigentum führen, vor allem der verstärkte Neubau in Überschwemmungsflächen.

3. Klimamodelle und Vorhersage

Die schlechte Qualität globaler Klimamodelle hinsichtlich Änderungen der Temperatur ist weithin bekannt. Allerdings ist die Simulation von Regenfällen ein noch größeres Problem für die Modellbauer. Niederschlag nimmt sehr viele verschiedene Formen an, z. B. Regen, Sprühregen, Schnee und Hagel ebenso wie exotischere Typen wie Nebelnässen und Reif. Das alles ist hoch variabel hinsichtlich Fläche, Intensität und Quantität. Während also mittels einer relativ einfachen Physik beschrieben werden kann, wie Wasser aus den tropischen Ozeanen in die Atmosphäre gelangt, hat sich die Computersimulation der Kondensation dieses Wasserdampfes zu Wolken und dann zu Niederschlägen irgendeiner Art als fast unmöglich erwiesen, wobei ein großer Teil der Physik zu kleinräumig ist, um angemessen modelliert werden zu können und Wissenschaftler auf mehr oder weniger willkürliche Approximationen zurückgreifen müssen. Was sich aber noch schlimmer auswirkt: kleine Änderungen der Anfangsbedingungen erzeugen erheblich unterschiedliche Ergebnisse, was den Gebrauch dieser Ergebnisse in der politischen Welt nur sehr begrenzt zulässt. Es gibt kaum Forschungen hinsichtlich von Regenfällen, die kürzer sind als ein Tag.

Die Klimamodellierer selbst räumen ein, dass die Qualität ihrer Modelle schlecht ist und sich über das vorige Jahrzehnt kaum verbessert hat. Im 5. Zustandsbericht sagt das IPCC:

…die Simulation großräumiger Verteilungen von Niederschlag hat sich in gewissem Maße seit dem 4. Zustandsbericht verbessert, obwohl die Modelle weiterhin hinsichtlich des Niederschlags schlechter liegen als hinsichtlich der Temperatur. Die Korrelation der räumlichen Verteilung von Niederschlag zwischen der modellierten und der beobachteten mittleren jährlichen Regenmenge hat sich verbessert … Im regionalen Maßstab wird Niederschlag ebenfalls schlechter simuliert, und die Abschätzung bleibt schwierig infolge Unsicherheiten bei der Beobachtung … Im Großen und Ganzen steht der vom CMIP5 modellierte Niederschlag in mäßiger Übereinstimmung mit Beobachtungen, aber es gibt systematische Fehler in den Tropen.

Dem IPCC wird immer wieder vorgeworfen, dass es die Fähigkeiten der Klimasimulation mittels Computer übertreibt. So muss man auch die Bezeichnung ,mäßig‘ für die Übereinstimmung zwischen Modellen und Beobachtungen sehen. Sie zeigt einfach, wie schlecht die globalen Klimamodelle sind, wenn es um den Niederschlag geht.

Dieser Eindruck wird bestätigt durch eine Studie des Hydrologen Demetris Koutsoyiannis und seiner Kollegen. Sie bewerteten eine Gruppe von Klimamodellen mittels eines Vergleiches von deren Ergebnissen mit Beobachtungen an einer Auswahl verschiedener Gebiete auf der Welt. Sie fanden heraus, dass die Klimasimulationen im jährlichen und klimarelevanten Zeitmaßstab noch weniger als nutzlos waren, zeigten sie doch schlimmere Ergebnisse als eine naive Vorhersage auf Grundlage der Projektion eines einfachen Mittelwertes für jenes Gebiet. Er schrieb in seiner Studie: „Künftige Klimaprojektionen an den untersuchten Stellen sind nicht glaubwürdig“. Als in einer Folgestudie die Analyse auf den Maßstab von Kontinenten ausgeweitet wurde, waren die Modelle immer noch schlechter.

Genauso beschrieb ein internationales Autorenteam unter Leitung von Graeme Stevens von der Colorado State University, was dieses Team als einen ,trostlosen Zustand der Simulation von Niederschlag in globalen Modellen‘ ansah. Andere Autoren haben ähnliche Bedenken hinsichtlich der GCMs geltend gemacht und vor allem auf die Unfähigkeit der Modelle hingewiesen, Extreme vorherzusagen.

4. Zuordnung von Niederschlag und Überschwemmungen

Global

Es ist notorisch schwierig, Änderungen der Regenmenge dem Klimawandel zuzuordnen. Wenn man das nämlich tut, verlässt man sich größtenteils auf Klimamodelle, die aber wie beschrieben keine brauchbaren Simulationen des Regens durchführen können. Empirische Beweise für signifikante Änderungen der Regenmenge sind sehr begrenzt. Eine Ausnahme ist die Studie von Karl und Trenberth, die ein kleines Netzwerk klimaüberwachender Stationen analysierten mit etwa gleichen Gesamtregenmengen. Sie beobachteten, dass Stationen in wärmeren Gebieten intensivere Regenfälle erlebten als jene in kälteren Gebieten. Ob uns dies wirklich etwas darüber sagt, was die vom Menschen verursachte globale Erwärmung auf diese Verteilung bewirkt, sei dahingestellt.

Ebenso gibt es praktisch keine Beweise für einen Zusammenhang zwischen Überschwemmungen und dem CO2-Niveau. Beispielsweise hat eine Studie zum Niveau der Überschwemmungen in den USA ergeben, dass es keinen Zusammenhang gibt. In einigen Fällen konnte sogar ein negativer Zusammenhang gezeigt werden.

Trotz dieses Fehlens irgendwelcher starken Beweisgrundlagen sagt das IPCC, dass es eine mittlere Sicherheit gibt, dass Änderungen extremer Regenfälle der vom Menschen verursachten globalen Erwärmung zugeordnet werden können. Eine solche Sicherheit scheint im Gegensatz zu stehen zu ihrer Beobachtung, dass die Modelle systematische Verzerrungen in den Tropen aufweisen, also der ultimativen Quelle des meisten Regens auf der Welt.

UK

Wie oben erwähnt ist das Klima in UK hoch variabel, was Zuordnungen irgendwelcher Änderungen hoch problematisch macht. In einer jüngeren Studie wurde gezeigt, dass die meisten Änderungen des Niederschlagshaushaltes in UK ohne Referenz zum Klimawandel erklärt werden können. Die Autoren schreiben: „viele der beobachteten Änderungen des jahreszeitlichen Niederschlags stehen höchstwahrscheinlich im Zusammenhang mit Änderungen der Nordatlantischen Oszillation“, mit anderen Worten also mit der natürlichen Variabilität.

Versuche wurden gemacht, bestimmte Wetterereignisse mit der globalen Erwärmung zu verbinden, vor allem jene, über die prominent in den Medien berichtet worden ist. Viele Autoren haben sich jedoch von derartigen spekulativen Bemühungen abgegrenzt. Beispielsweise haben die Winterstürme Anfang 2014 zu extensiven Überschwemmungen in den Somerset-Ebenen geführt, worüber ausgiebig berichtet worden war. Diese Ereignisse waren später Gegenstand eines offiziellen Berichtes, der gemeinsam veröffentlicht wurde vom Met.-Office und dem Centre for Ecology and Hydrology. Darin wurde eine umsichtige Bestandsaufnahme vorgenommen, und es hieß darin:

Bislang gibt es keine definitive Antwort auf die Frage zum möglichen Beitrag des Klimawandels zu den jüngsten Sturmereignissen, Regenmengen und der nachfolgenden Überschwemmung. Teilweise ist dies der hoch variablen Natur von Wetter und Klima in UK geschuldet.

Allerdings haben die Autoren die Möglichkeit einer Verbindung mit dem Klimawandel nicht ausgeschlossen:

Es gibt eine zunehmende Zahl von Beweisen, dass tägliche extreme Regenraten intensiver werden und dass diese Zunahme konsistent ist mit dem, was seitens fundamentaler Physik zu erwarten ist. Obwohl die formale Zuordnung immer noch eine Herausforderung ist, ist es möglich, einen Beitrag des Klimawandels zu einigen großen Flutereignissen zu identifizieren, wie eine kürzlich erschienene Studie von Peterson et al.(2013) zur Zuordnung von Extremen zeigt. Man muss betonen, dass es keinen Beweis gibt gegen die grundlegende Prämisse, dass es in einer wärmeren Welt zu intensiveren täglichen und stündlichen Starkregenereignissen kommt.

Tatsächlich beruht die Peterson-Studie über die Zuordnung extremer Wetterereignisse vollständig auf Klimamodellen. Falls diese Koutsoyiannis zufolge ,nicht glaubwürdig‘ für Projektionen in die Zukunft sind, ist es schwer zu glauben, dass man sie plausibel dazu verwenden kann, um Extremwetter in der beschriebenen Weise zuzuordnen. Es muss vielleicht auch betont werden, dass die Peterson-Studie nur einen einzigen Beitrag über UK enthält. Dieser betrifft den nassen Sommer 2012 und kam zu der Schlussfolgerung, dass ,irgendwelche anthropogenen Einflüsse … minimal waren‘.

Allerdings haben die Autoren des Met.-Office auch erwähnt, dass Änderungen der Regenmenge in UK ,konsistent mit‘ dem waren, was man aufgrund der vom Menschen verursachten globalen Erwärmung erwarten konnte. Dabei verwiesen sie auf eine Studie von Allan und Soden. Die Wörter ,konsistent mit‘ werden regelmäßig von denen verwendet, die einen Link zwischen globaler Erwärmung und Wetterereignissen herstellen wollen. Diese Wörter sollen ein wissenschaftliches Fundament vermitteln, bedeuten aber in Wirklichkeit überhaupt nichts: fast alle Wetterereignisse sind konsistent mit globaler Erwärmung, globaler Abkühlung oder sogar einem statischen Klima.

Schlimmer noch, wieder einmal steht die zugrunde liegende Wissenschaft wirklich auf tönernen Füßen. Allan und Soden, die zusammen mit anderen Autoren solche Behauptungen aufstellen, haben versucht, einen Link zu zeigen zwischen gestiegenen Temperaturen und Starkregen, indem sie die Parameter einer Klimasimulation entsprechend zurecht gebogen hatten. Eine Ähnlichkeit zwischen der Verteilung der Regenmengen zwischen einem von Treibhausgasen beeinflussten Klimamodell einerseits und den beobachteten tatsächlichen Starkregenereignissen andererseits sollen vermeintlich den Link zeigen. Natürlich repräsentiert eine Computersimulation keinen ,Beweis‘, schon gar nicht angesichts der beschriebenen Schwierigkeiten bei der Modellierung.

5. Vorhersagen von Niederschlag und Überschwemmungen

Die Schwierigkeiten bei der Erstellung realistischer Computersimulationen bzgl. Regen und der IPCC-Standpunkt, dass die Klimamodelle in ,moderater‘ Übereinstimmung mit der Realität stünden, wurden oben beschrieben. Überraschenderweise haben diese Schwierigkeiten jedoch kaum dazu beigetragen, das Vertrauen in ihre Niederschlagsvorhersagen zu schmälern. Die Hydrologen Demetris Koutsoyiannai und Andreas Langousis schreiben dazu:

Erstaunlicherweise gibt es kaum Zweifel an manchen Prophezeiungen der Klimamodellierer … über das Niederschlagsregime auf der Welt während der nächsten 100 Jahre oder mehr.

Global

Zum Thema Niederschlag hat das IPCC in seinem 5. Zustandsbericht einfach die Ergebnisse seines früheren SREX-Berichtes zu Extremwetter wiederholt. Darin wurde erklärt:

Während der nächsten paar Jahrzehnte ist es ,wahrscheinlich‘, dass es eine Zunahme von Starkregenereignissen in vielen Gebieten auf dem Festland geben wird.

Zum Ende des 21. Jahrhunderts ist es ,sehr wahrscheinlich‘, dass es eine Zunahme in den Tropen geben wird, ebenso wie in den mittleren Breiten.

Aber wieder muss man sich fragen, wie sie sich da so sicher sein können, wenn man gleichzeitig auf die systematischen Modellfehler in den Tropen hinweist.

Oft wird behauptet – wieder auf der Grundlage von Klimamodellen – dass regenreiche Gebiete noch mehr Regen abbekommen, während es in trockenen Gebieten noch trockener wird. Allerdings sind beobachtete Beweise zur Stützung dieser Behauptungen nicht zu finden. Zum Beispiel: eine Studie aus letzter Zeit, in der die beobachteten Beweise untersucht worden waren, kam zum genau gegenteiligen Ergebnis: in trockenen Regionen regnete es mehr und in nassen Regionen weniger. In einer anderen Studie wurde gezeigt, dass in vielen Landgebieten das Gegenteil des erwarteten Trends aufgetreten ist, während in anderen Landesgebieten dem Trend gefolgt worden ist.

UK

Vorhersagen für UK sind sogar noch schwieriger wegen des hoch variablen Wetters dort. Nichtsdestotrotz hat das Met.-Office seinen kommerziellen Kunden überzeugte Vorhersagen über die zukünftigen Regenmengen in UK zukommen lassen. Zum Beispiel wurde die Firma Ofwat darüber informiert, dass Winterregen häufiger werden, während Regen im Sommer immer seltener auftritt. Zum Thema Starkregen jedoch betonte der Bericht, dass man diese Vorhersagen mit Vorsicht betrachten sollte, weil verschiedene Modelle sehr unterschiedliche Ergebnisse zeigten.

Diesen Ratschlägen liegen die offiziellen Klimaprognosen von UK zugrunde, bezeichnet als UKCP09. Die offizielle Summary der Vorhersagen beginnt mit der Erklärung, dass es eine ,zunehmende Häufigkeit und Intensität von Extremwetter in UK‘ geben wird. Überraschenderweise jedoch finden sich im gesamten Rest des Berichtes keinerlei Details bzgl. solcher Änderungen.

Die Verwendung des UKCP09-Datensatzes ist unglücklich, da kürzlich ein signifikantes Scheitern in der Vorhersage enthüllt worden ist: Das zugrunde liegende Klimamodell ist nicht in der Lage, virtuelle Klimate zu erzeugen, die dem realen Klima in bestimmten Schlüsselfaktoren ähneln. Was noch mehr zählt ist, dass das Met.-Office diese Unfähigkeit bestätigt hat. Betrachtet man also die offiziellen UK-Vorhersagen zukünftiger Niederschläge, müssen wir nicht nur die Unfähigkeit typischer Klimamodelle in Betracht ziehen, Regenfälle zu simulieren, sondern wir haben auch ein Modell,von dem man sicher weiß, dass es ein grundlegendes Problem enthält. Es wäre daher eine Dummheit, wenn sich irgendjemand auf irgendwelche Vorhersagen von UKCP09 verlässt.

Nichtsdestotrotz ist UKCP09 die Informationsquelle öffentlicher Politik. Zum Beispiel stufte die Environment Agency die jährliche Wahrscheinlichkeit von Überschwemmungen deutlich höher ein aufgrund der Daten von UKCP09. Anderswo bereitet Network Rail [eine Eisenbahngesellschaft] Pläne zur Klimaanpassung vor für jede der Hauptstrecken. Der Gedanke, dass globale Klimamodelle maßgeblich in diesen Prozess einfließen, ist kaum zu ertragen.

Link PDF: http://www.thegwpf.org/content/uploads/2014/10/Precipitation-Deluge-Flood.pdf

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: In diesem Bericht gibt es zahlreiche Querverweise auf die genannten und weitere Quellen. Sie wurden hier der Einfachheit halber nicht mit übernommen. Wer den Inhalt dieses Berichtes anhand dieser Quellen verifizieren möchte, kann im Original nachschauen. Falls eine wichtige Quelle darunter ist, kann ich bei der Übersetzung helfen.

C. F.




Das offensichtliche Scheitern der Klimawissenschaft, das von den Mainstream-Medien ignoriert wird

Ich werde später etwas zu dieser Studie schreiben. In diesem Beitrag geht es aber um etwas anderes, nämlich:

Die Dürre in Kalifornien – wer ist verantwortlich für fehlende Vorbereitungen

Bei der Lektüre des exzellenten Beitrags von Anthony Watts über Swain et al. (2014) mit dem Titel „Behauptung: kalifornische Dürre hängt mit Klimawandel zusammen – nicht ein einziges Mal wurden ENSO oder El Nino erwähnt (hier)“ wurde wieder einmal eine Anzahl von Gedanken dazu wiederholt, die mir schon oft aufgestoßen sind, als sich die Dürre in den Westlichen Staaten im vorigen Jahr einstellte und sich in diesem Jahr intensivierte.

War Kalifornien auf eine Dürre vorbereitet?

Offensichtlich war Kalifornien auf eine derartig intensive Dürre nicht vorbereitet, und die Auswirkungen dieser fehlenden Vorbereitung auf die Bewohne Kaliforniens werden noch viel schlimmer werden, sollte sich die Dürre fortsetzen.

Warum war Kalifornien nicht auf eine kurzfristige (vieljährige) Dürre dieser Intensität vorbereitet?

Die realistische Schuldzuweisung sollte den Brennpunkt auf die Klimawissenschaft unter der Herrschaft des IPCC allgemein legen. Im Einführungsabsatz der Website über die Geschichte des IPCC wird festgestellt (Fettdruck von mir):

Die heutige Rolle des IPCC wird definiert in den Principles Governing IPCC Work: „…in umfassender Weise, objektiv, offen und transparent die wissenschaftlichen, technischen und sozioökonomischen Informationen einzuschätzen, die relevant sind für die wissenschaftliche Basis der Risiken einer VOM MENSCHEN VERURSACHTEN Klimaänderung, dessen potentielle Auswirkungen und Optionen für Anpassung und Abschwächung“.

Die Tatsache, dass das IPCC all seine Bemühungen darauf konzentrieren muss, „die wissenschaftliche Basis der Risiken einer vom Menschen verursachten Klimaänderung zu verstehen“, ist sehr wichtig. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob natürliche Faktoren nicht für den größten Teil der Erwärmung verantwortlich waren, die es auf der Erde im vorigen Jahrhundert gegeben hat. Jahrzehnte lang hat man beim IPCC Augenklappen getragen, die die Sichtweise auf alle anderen Dinge außer Kohlendioxid blockiert haben. Die Rolle des IPCC ist es immer gewesen, Berichte vorzubereiten, die die Reduktion von Treibhausgasen als Folge des Verbrennens fossiler Treibstoffe unterstützen sollen. Folgerichtig fließen auch sämtliche Forschungsgelder in diesen Bereich. Die Entscheidung, ausschließlich eine vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung und nicht eine wissenschaftliche. In dem Bemühen, ihre Agenden zu rechtfertigen, sind die Politiker auf der ganzen Welt auf den Klimawandel-Zug aufgesprungen und finanzierten modellbasierte Studien einer anthropogenen globalen Erwärmung … und verbrannten dabei jedes Jahr viele Milliarden Dollar.

Wegen dieser politischen Agenda können die jüngsten und größten Klimamodelle immer noch nicht die zugrunde liegenden Prozesse simulieren, also die natürlich regelmäßig wiederkehrenden, gekoppelten Ozean-Atmosphäre-Prozesse wie ENSO (El Niños und La Niñas), wie die Pazifische Dekadische Oszillation… Prozesse, die starken Einfluss auf Temperatur und Niederschlag in den US-Staaten der US-Westküste haben. Es gibt also keine Möglichkeit für die Klimamodelle, so wie sie sich heute darbieten, vorherzusagen, wie die Niederschlagsverteilung in Zukunft dort aussieht. Und dieses grundlegende Problem wird bestehen, bis die Finanzierung der Klimaforschung auf andere Wege gelenkt wird. Ja, Finanzierung. Die Forschung folgt dem Gelde.

Welchen Wert bieten Studien auf der Grundlage von Klimamodellen?

Überhaupt keinen.

Die Studie von Pierce et al. (2013) mit dem Titel [übersetzt] „Die Schlüsselrolle von Starkniederschlägen bei nicht mit den Klimamodellen übereinstimmenden Änderungen der jährlichen Regenmenge in Kalifornien“ (hier) bietet eine Übersicht, warum die Klimamodelle wertlos sind, wenn es um Vorhersagen wie der kalifornischen Dürre geht. Im Abstract schreiben Pierce et al. (Hervorhebung und Großschreibung von mir):

Von den hier untersuchten herabgestuften 25 Modellprojektionen stimmen 21 überein, dass die Häufigkeit von Niederschlag ABNEHMEN wird bis zu den sechziger Jahren dieses Jahrhunderts, was einen Rückgang von 6 bis 14 Tagen pro Jahr bedeutet. Dies reduziert die mittlere jährliche Regenmenge in Kalifornien um 5,7%. Teilweise im Widerspruch hierzu stimmen 16 der 25 Projektionen überein, dass die tägliche Niederschlagsintensität ZUNEHMEN wird, was auf ein Modellmittel der Zunahme um 5,3% hinausläuft. Zwischen diesen kontrastierenden Tendenzen zeigen 12 Projektionen trockener als normale Bedingungen und 13 nasser als normale Bedingungen, jeweils bis zu den sechziger Jahren dieses Jahrhunderts.

Fazit: Einige Klimamodelle sagen, dass die tägliche Niederschlagsintensität zunehmen wird, während andere sagen, dass diese abnehmen wird. Mit anderen Worten, die klimawissenschaftliche Gemeinschaft ist völlig ahnungslos hinsichtlich der zukünftigen Niederschlagsmenge an der US-Westküste.

Nun könnten Einige sagen, dass Klimatologen des Staates Kalifornien und aus anderen Westküstenstaaten von der Klimawissenschaft behindert worden seien. Es ist schwierig, staatlichen und lokalen Behörden Vorschläge für die langfristige Planung zu unterbreiten, wenn die klimawissenschaftliche Gemeinde ihnen nichts zur Verfügung stellt, mit dem man arbeiten kann.

Ist Kalifornien auf eine Dürre vorbereitet, die viele Jahrzehnte oder sogar Jahrhunderte andauern kann?

Im Beitrag von Anthony Watts war auch eine Graphik einer paläoklimatologischen Studie der Dürre an der Westküste (hier) enthalten, die zeigte, dass Dürren in der Vergangenheit hunderte von Jahren gedauert haben. Zur Originalgraphik und Diskussion darüber siehe Abbildung 10 von Cook et al. (2007) aus der Studie „Dürre in Nordamerika: Rekonstruktionen, Gründe und Konsequenzen“ (hier). (Hinweis: Es handelt sich nicht um den John Cook von SkepticalScience).

Nun hasse ich es, schlechte Nachrichten zu verbreiten. Aber wenn es in der Vergangenheit vorgekommen ist, kann es wieder vorkommen?

Warum plappern die Mainstream-Medien Presseerklärungen einfach nur nach?

Nachrichten über den Klimawandel wurden zu Echoräumen der Presseerklärungen, die von Kollegen, Universitäten und Forschungsagenturen der Regierung ausgestreut wurden. Individuelle Reporter könnten einen tiefer gehenden Bericht erstellen, indem sie die Wissenschaftsautoren nach ein paar zusätzlichen Worten der Weisheit fragen.

Aber warum stellen die Medien keine bohrenden Fragen wie:

• Warum hat man die Bewohner der Westküste nicht schon vor 10 oder 15 Jahren gewarnt, dass eine schwere Dürre nur eine Wetteranomalie entfernt auftreten wird?

• Warum gibt es nicht genügend Entsalzungs-Werke, um Regendefizite auszugleichen?

• Warum demonstrieren die Menschen an der Westküste für mehr Wind- und Solarparks, wenn sie etwas viel Dringenderes für ihr Leben brauchen, nämlich Wasser? Und warum finanziert die Regierung diese Parks?

Es scheint mir, dass wir sehr bald eine Umkehr von Steinbecks The Grapes of Wrath [etwa: Die Trauben der Wut] erleben, wobei eine große Anzahl von Bewohnern Kaliforniens zurück in die Staaten des Mittleren Westens emigriert, wo ebenfalls periodisch Dürren auftreten.

Eine armselige Planung einiger Weniger – basierend auf politisch motivierter, unseriöser Wissenschaft – kann zu Notlagen für Millionen führen.

Link: http://wattsupwiththat.com/2014/09/30/the-obvious-failures-of-climate-science-that-mainstream-media-ignores/

Übersetzt von Chris Frey EIKE

An sich schreibt Tisdale hier nichts Neues – aber ich denke, man kann es nicht oft genug betonen. Darum habe ich das hier übersetzt.

C. F.




Eine Re­vi­si­on der Ener­gie­wen­de ist drin­gend er­for­der­lich

Der Bun­des­rech­nungs­hof hat die Ener­gie-wen­de von Kanz­le­rin An­ge­la Mer­kel hef­tig kri­ti­siert. Er weist da­rauf hin, dass die Lasten für den Bun­des­haus­halt im zweistel­li­gen Mil­li­ar­den­be­reich lä­gen – feh­len­de Ex­pertise führt zu fal­schen Ein­schät­zun­gen.

EEG ab­schaf­fen!

Er­neut wird hier von kom­pe­ten­ter amt­li­cher Stel­le klar­ge­stellt, wel­che mas­si­ven Feh­ler die Bun­des­re­gie­rung ge­macht hat. Das liegt u.a. auch da­ran, dass die be­tei­lig­ten Mi­nis­te­ri­en un­ab­hän­gig von­ei­nan­der Gut­ach­ten in Auftrag ge­ge­ben ha­ben zur Eva­lu­ie­rung der Ener­gie­po­li­tik. Da­raus folgt, dass auch der Bun­des­re­gie­rung ein kom­plet­ter Über­blick über die ein­ge­lei­te­ten Maß­nah­men nicht vor­liegt. Die Bun­des­mi­nis­te­ri­en set­zen Maß­nah­men un­ko­or­di­niert, un­ein­heit­lich, teil­wei­se red­un­dant um. Der Bun­des­rechnungs­hof schlägt vor, das Er­neu­er­ba­re-Energien-Ge­setz (EEG) ab­zu­schaf­fen. Eben­falls rät die vom Bun­des­tag ein­ge­setz­te Ex­per­tenkom­mis­si­on, das EEG kom­plett zu strei­chen.

An­zei­gen­ak­ti­on

Ein be­son­ders ek­la­tan­tes Bei­spiel der (Des-) In­for­ma­ti­ons­po­li­tik zur Ener­gie­wen­de war die An­zei­gen­ak­ti­on, die das Bun­des­mi­niste­ri­um für Wirt­schaft und Ener­gie (BMWi) An­fang Au­gust in al­len gro­ßen Print­me­di­en ge­schal­tet hat­te (sie­he nebenstehendes Bild). Un­ter der Über­schrift „Wir ha­ben et­was an der Ener­gie­wen­de ge­stri­chen: Nach­tei­le“ wird sug­ge­riert, dass die Ener­gie­wen­de ein Umschal­ten auf eine schö­ne und heh­re Zu­kunft dar­stellt. Es wird be­haup­tet: Sie sei plan­bar, be­zahl­bar, ef­fi­zi­ent. Mit dem wört­li­chen Zi­tat „Wir ha­ben die Wei­chen da­für ge­stellt, die Ener­gie­wen­de in Zu­kunft plan­bar und be­zahl­bar zu ge­stal­ten. So set­zen wir den Aus­bau er­neu­er­ba­rer Ener­gi­en so­li­de und si­cher fort und brem­sen den Kos­ten­an­stieg“.

We­der plau­si­bel noch ef­fi­zi­ent

Die Wahr­heit je­doch ist, die Ener­gie­wen­de ist we­der plan­bar noch be­zahl­bar und schon gar nicht ef­fi­zi­ent. Es ist schon star­ker­To­bak, dass sich eine deut­sche Bun­des­re­gie­rung eine solch dreis­te An­zei­gen­ak­ti­on mit ei­ner so ek­la­tan­ten mehr­fa­chen Lüge leis­tet. Auf An­fra­ge war das BMWi nicht be­reit, eine elekt­ro­ni­sche Ver­si­on die­ser An­zei­gen­kampag­ne zur Ver­fü­gung zu stel­len mit dem Hin­weis, es han­de­le sich um eine An­zei­ge des Bun­des­mi­nis­te­ri­ums für Wirt­schaft und Ener­gie, die al­lein vom Mi­nis­te­ri­um ge­schal­tet und ver­brei­tet wer­den kann. Eine In­ter­ven­ti­on bei Bun­des­mi­nis­ter Gab­riel führ­te zur Frei­ga­be (sie­he Gra­fik, Anmerkung: Sie steht im Originalbeitrag, wir gaben das Foto vor den Ministerium verwendet).

Die Wor­te Gab­riels

Eine re­a­lis­ti­sche Be­ur­tei­lung des EEG kommt von Mi­nis­ter Gab­riel di­rekt. Er hat am 17.04.2014 in Kas­sel dras­tisch for­mu­liert:

“Die Wahr­heit ist, dass die Ener­gie­wen­de kurz vor dem Schei­tern steht.”

“Die Wahr­heit ist, dass wir auf al­len Fel­dern die Kom­ple­xi­tät der Ener­gie­wen­de un­ter­schätzt ha­ben.”

„Wir ha­ben eine Über­för­de­rung der Er­neu­er­ba­ren“

“Für die meis­ten an­de­ren Län­der in Eu­ro­pa sind wir so­wie­so Be­klopp­te.”

"23 Mrd € zah­len wir alle je­des Jahr für die Ent­wick­lung der Er­neu­er­ba­ren in Deutsch­land. Es gibt kein Land in Eu­ro­pa, das auf sei­ne Strom­kos­ten, die es hat, noch 23 Mrd. EUR zur För­de­rung der er­neu­er­ba­ren Ener­gi­en ein­setzt.“

Er hat of­fen­sicht­lich die Män­gel er­kannt, ist aber nicht fä­hig, die kri­ti­sier­ten Punk­te zu kor­ri­gie­ren. In­halt­lich ist die­se Ei­gen­kri­tik be­stä­tigt wor­den durch das Gut­ach­ten des Bun­des­rech­nungs­ho­fes, das der Re­gie­rung Mer­kel schlech­te No­ten für die Ener­gie­wen­de ge­ge­ben hat.

Fa­zit

Die Ener­gie­wen­de ist nun wirk­lich ge­schei­tert. Pho­to­volt­aik ist im son­nen­ar­men Deutsch­land nicht wirt­schaft­lich zu be­trei­ben. Offs­ho­re-Wind­ener­gie ist tech­nisch nicht aus­ge­reift, da­bei viel zu teu­er und kann das Prob­lem der Nicht­lie­fe­rung von Strom bei Wind­stil­le auch nicht lö­sen. Denn Spei­cher­ka­pa­zi­tät für Strom ist we­der heu­te noch in den nächs­ten Jahr­zehn­ten aus­rei­chend ver­füg­bar. Es gibt nicht mal An­sät­ze in der Grund­la­gen­for­schung, die eine Lö­sung die­ses Prob­lems ver­spre­chen. Und wäre Spei­cher­ka­pa­zi­tät ver­füg­bar, wür­de sie den oh­ne­hin teu­ren Strom noch­mals er­heb­lich ver­teu­ern. Der Lei­tungs­aus­bau zum Strom­trans­port von Nord nach Süd ist stark rücks­tän­dig. Alt­bun­des­kanz­ler Schrö­der hat im Feb­ru­ar die­ses Jah­res ge­sagt: „Die Ener­gie­wen­de ist bis 2022 nicht zu schaf­fen.“ Da­her soll­te sie bes­ser ge­stri­chen wer­den.

Übernommen aus der PDF-version von smart Investor




Warnung von EDF France: Deutschlands Energiesektor ist eine Katastrophe!

Deutschland als Ganzes war ein großes Land, das sich sehr gut behauptet hat, vor allem in der Automobilbranche, sagte Henri Proglio, Vorsitzender und leitender Direktor. „Aber hinsichtlich Energie befindet sich das Land in einer Katastrophe“, sagte er Reportern in London. „Die beiden großen Unternehmen E.ON und RWE stehen unter enormem Druck. Eines ist mehr oder weniger tot, das andere in einer sehr schwierigen Lage“.

RWE und E.ON waren für einen Kommentar im Moment nicht erreichbar.

Deutsche Energieunternehmen haben zu kämpfen mit abstürzenden Profiten, verschiebt doch das Land seine Energieversorgung weg von konventionellen Quellen hin zu erneuerbarer Energie. Diese Verschiebung, in Deutschland Energiewende genannt, wurde noch dringlicher, als Kanzlerin Angela Merkel den Ausstieg aus der Kernenergie nach dem Fukushima-Desaster beschleunigt hatte.

Der deutsche Ausstieg aus der Kernkraft war Konfliktstoff zwischen Deutschland und Frankreich, denn letzteres Land ist zum größten Teil seiner Energieversorgung von Kernkraftwerken abhängig und war via EDF die Speerspitze beim Bau neuer Kernkraftwerke anderswo in Europa einschließlich UK.

Frankreich ist von jenseits des Rheins wegen seiner schwachen Wirtschaft, der prekären öffentlichen Finanzlage und abnehmender Wettbewerbsfähigkeit angegriffen worden.

Mr.Proglio antwortete auf eine Frage über Frankreichs Industrie-Umfeld nach Kommentaren von Andy Street, Management-Direktor des Britischen Einzelhändlers John Lewis, der Frankreich beschrieben hat als „als Land am Ende“ und der gesagt hat, dass der Gare du Nord in Paris „das Schmutzzentrum von Europa“ sei.

Full story (paywalled)

Link: http://www.thegwpf.com/german-energy-sector-is-a-disaster-edf-warns/

Übersetzt von Chris Frey EIKE

Und wieder ein Blick von außen auf Deutschland…!




Stimmungsumschwung in Sachen Klimamodelle: Das Vertrauen der Fachwelt schwindet

Im August 2014 äußerte sich jetzt ein Leitautor des kürzlichen 5. IPCC-Klimazustandsberichts, Richard Betts, öffentlich in überraschender Weise. Betts leitet die Abteilung Klimafolgen des UK Met Office und auf seiner Webseite führt er als eine seiner Expertisen die Klimamodellierung an. In einem Kommentar auf Bishop Hill schrieb Betts:

Bish, wie immer bin ich etwas verwirrt, warum du glaubst, dass die GCMs so im Mittelpunkt der Klimapolitik stehen. Jeder* stimmt zu, dass der Treibhauseffekt real und das CO2 ein Treibhausgas ist. Jeder* stimmt zu, dass der CO2-Anstieg anthropogenen Ursprungs ist. Jeder** stimmt zu, dass wir die langfristige Reaktion des Klimas bei einem fortgesetzten CO2-Anstieg nicht hinreichend genau vorhersagen können. Sie kann groß sein, sie kann klein sein. Wir wissen es nicht. Das altgediente Energiebilanzmodell hat uns so weit gebracht. Wir können nicht sicher sein hinsichtlich großer Änderungen in der Zukunft, aber wir können sie auch nicht ausschließen.

In einer Fußnote erläutert Betts dann noch die beiden Sterne:

*OK, wohl nicht jeder, aber jeder, der darüber ausreichend nachgedacht hat.

**Mit Ausnahme einiger weniger, die glauben, dass Beobachtungen kleiner Antriebe über eine Dekade oder drei extrapoliert werden können, um die Reaktion auf einen langfristigen größeren Antrieb vertrauensvoll zu ermitteln.

Betts misst den Klimamodellen keine zentrale Rolle mehr in der Klimapolitik zu. Man weiß noch immer viel zu wenig, räumt er ein. Ganz offensichtlich bekommen jetzt sogar die IPCC-Autoren selber kalte Füße und können eine geringe Klimawirkung des CO2 nicht mehr ausschließen.

Einen Monat zuvor, im Juli 2014, hatte im Wall Street Journal der Computermodellierer Robert Caprara zugegeben, dass in den Modellen eine Vielzahl von frei wählbaren Parametern existiert, um ein gewünschtes Resultat zielgenau „hinzumodellieren“. Caprara schreibt [der gesamte Kommentar von ihm in deutscher Übersetzung steht hier]:

Mein erster Job war eine Beratertätigkeit bei der Environmental Protection Agency EPA. Ich wurde eingestellt, um ein Modell zu erstellen, das die Auswirkungen des Construction Grants-Programms der EPA abschätzen sollte, eine landesweite Bemühung in den siebziger und achtziger Jahren, Klärwerke aufzuwerten.

Als ich die Ergebnisse dem EPA-Funktionär vom Dienst präsentierte, sagte dieser, dass ich zurückgehen und gefälligst „meinen Bleistift spitzen“ sollte. Das habe ich getan. Ich habe Hypothesen begutachtet, Koeffizienten überarbeitet und Daten neu kalibriert. Aber nach einem erneuten Modelllauf nach diesen Änderungen hatte sich das Ergebnis nicht wesentlich geändert. Beim nächsten Treffen hieß mich dieser Funktionär die Zahlen noch einmal zu überarbeiten.

Nach drei weiteren Läufen platzte mir der Kragen: „Nach welcher Zahl suchen Sie eigentlich?“ Er zögerte nicht einen Moment: Er sagte mir, dass er Vorteile in Höhe von 2 Milliarden Dollar vorweisen müsse, damit das Programm verlängert wird. Also drehte ich schließlich an genug Knöpfen, um die von ihm gewünschte Antwort zu erzeugen, und alle waren glücklich.

In Richtung Klimadebatte empfiehlt Caprara, die Diskussion offen zu führen und die Argumente der anderen Seite anzuhören, anstatt die andere Seite mit Beschimpfungen abzuqualifizieren:

Hier also kommt mein Vorschlag: Jene, die überzeugt sind, dass die Menschen drastisch das Klima zum Schlechteren verändern, und jene, die das nicht sind, sollten ein dynamisches, robustes Hin und Her akzeptieren. Man lasse jede Seite ihren besten Fall machen und vertraue darauf, dass die Wahrheit auftauchen wird.

Jene, die wirklich glauben, dass die Menschen das Klima treiben, erwidern, dass die Wissenschaft ‚settled‘ ist und das jene, die dem nicht zustimmen, Leugner“ und „Flat-Earthers“ sind. Selbst der Präsident macht sich über diejenigen lustig, die dem nicht zustimmen. Aber ich habe das schon lange getan, und wenn ich eines gelernt habe, dann dies: wie schwer es ist, die Leute mit einem Computermodell zu überzeugen.

Bereits in einer Arbeit aus dem Oktober 2012 hatte eine Forschergruppe um Clara Deser in Nature Climate Change eingeräumt, dass die bislang unterschätzte starke natürliche Klimavariabilität von den Klimamodellen einfach noch zu schlecht abgebildet werden kann, so dass die Modelle die hohen Erwartungen der politischen Entscheider nicht erfüllen können. In der Kurzfassung der Studie heißt es:

Über die Rolle der natürlichen Variabilität im zukünftigen Klima Nordamerikas

Mit der Verbesserung der Klimamodelle wachsen auch die Erwartungen der Entscheidungsträger hinsichtlich akkurater Klimavorhersagen. Die natürliche Klimavariabilität jedoch setzt inhärent der Vorhersagbarkeit des Klimas Grenzen ebenso wie dem damit zusammenhängenden Ziel der Wegweisung in vielen Gebieten wie hier für Nordamerika dargestellt. Andere Stellen mit geringer natürlicher Variabilität zeigen eine besser vorhersagbare Zukunft, in der der anthropogene Antrieb besser identifiziert werden kann, selbst in kleinen Maßstäben. Wir fordern einen konzentrierteren Dialog zwischen Wissenschaftlern, Politikern und der Öffentlichkeit, um die Kommunikation zu verbessern und steigenden Erwartungen für genaue regionale Vorhersagen überall einen Riegel vorzuschieben.

Auch die bekannte Klimawissenschaftlerin Judith Curry hat wenig Vertrauen in die Klimamodelliererei. Im Oktober 2013 schrieb beklagte sich die Forscherin in ihrem Blog über die fehlende Wertschätzung klimahistorischer Untersuchungen zugunsten von Klimamodellen. Unsummen wären bislang in die Modelle investiert worden, ohne richtiges Ergebnis. Der vom IPCC fälschlicherweise behauptete Konsens hätte die Klimawissenschaften mindestens ein Jahrzehnt zurückgeworfen, sagt Curry:

Mein Punkt ist, dass ambitionierte junge Klimawissenschaftler unachtsam in die Richtung einer Analyse der Klimamodellsimulationen getrieben worden sind, und hier besonders Projektionen der Auswirkungen künftiger Klimaänderungen. Viel Geld fließt in dieses Gebiet zusätzlich zu einer hohen Wahrscheinlichkeit, in einem renommierten Journal veröffentlicht zu werden und mit garantierter Aufmerksamkeit seitens der Medien. Und die wahre Bedeutung dieser Forschung hinsichtlich unseres aktuellen Verständnisses der Natur ruht auf der Eignung und Zweckmäßigkeit dieser Klimamodelle. Und warum glauben die Wissenschaftler, dass Klimamodelle für diesen Zweck geeignet sind? Nun, weil das IPCC ihnen das so gesagt hat, und zwar mit sehr großer Sicherheit. Der fabrizierte Konsens des IPCC hat wohl unser wahres Verständnis des Klimasystems um mindestens eine Dekade zurückgeworfen, jedenfalls sehe ich das so. Die wirklich harte Arbeit der fundamentalen Klimadynamik sowie die Entwicklung und Verbesserung von Paläo-Proxys wird von den Klimawissenschaftlern vermieden, da sich dies viel weniger auszahlt (hinsichtlich Belohnungen und Förderung). Die Zeit und die Fördergelder, die hier durch den Gebrauch von Klimamodellen für Ziele verschwendet worden sind, für die sie gar nicht ausgelegt waren, könnte eventuell als kolossal eingestuft werden.

Eine genaue Kenntnis des Paläoklimas ist unverzichtbar und sollte absoluten Vorrang vor Freistil-Klimamodellierungen haben, denn die historischen Daten sind wichtige Kalibrierungs- und Überprüfungsdaten für Klimamodelle. Wenn die Formeln nicht stimmen, nützen auch die größten Supercomputer nichts.

Auch der US-amerikanische Atmosphärenphysiker Richard Lindzen vom Massachusetts Institute of Technology (MIT) hat kein Vertrauen in die Klimamodelle, wie er auf einer Veranstaltung der Sandia National Labs, einer Forschungs- und Entwicklungseinrichtung des US-Energieministeriums, erklärte.

Der ehemaligen deutschen Forschungsministerin Annette Schavan ist es dagegen ziemlich egal, ob die Klimamodelle Recht haben. Sie sieht die Klimakatastrophe als unverhandelbar an und fordert umgehendes Handeln. Kann man mit einer solch unwissenschaftlichen und eher ideologisch geprägten Grundhaltung überhaupt Forschungsministerin sein? Mangelndes Fingerspitzengefühl im Zusammenhang mit dem Verdacht auf Plagiarismus im Rahmen ihrer Doktorarbeit führte dann schließlich auch zur Entfernung von Schavan aus dem Amt. Nun ist sie Botschafterin beim Heiligen Stuhl in Rom, wo sie mit ihrer klimareligiösen Einstellung vermutlich letztendlich auch besser aufgehoben ist.

Ähnlich fragwürdig ist auch ein Ansatz einer US-amerikanisch-französischen Gruppe. Sie behaupteten 2012, ihr Modell hätte angeblich das Klima auf dem Mars korrekt vorhergesagt, und daraus würde folgen, dass das Modell auch für die Erde gültig sein müsse. Eine kuriose Geschichte.

Der Weltklimarat sollte sich endlich alternativen Modellen öffnen. In unserem Buch „Die kalte Sonne“ stellten wir einen semiquantitativen Ansatz vor, in dem Sonnenaktivitätsschwankungen und Ozeanzyklen eine wichtige Rolle spielen. Die schlechte Trefferquote der IPCC-Prognosen spricht eindeutig für einen Wechsel. Es muss eine ernsthafte Überprüfung der Ideen der IPCC-Kritiker geben. Hierzu gehören auch Modelle von Nicola Scafetta und Frank Lemke, die den realen Temperaturverlauf besser abzubilden scheinen als die IPCC-Vorhersagen. Bei den Ozeanzyklen ist man bereits eingeknickt und hat mittlerweile damit begonnen, diese in Modelle mit einzubauen, da die Verlässlichkeit der Klimaprognosen damit nachweislich dramatisch angestiegen ist. Einen entsprechenden Ansatz verfolgten zum Beispiel DelSole et al. 2013 in einer Arbeit in den Geophysical Research Letters.

Dieser Artikel war erstmals auf der „Kalten Sonne“ erschienen. Die englischen Passagen dort wurden hier übersetzt von Chris Frey EIKE

Link: http://www.kaltesonne.de/?p=21053