1

Exklusiv-Interview: Fred Singer über die Mythen politisch korrekter Wissenschaft

Dr. Singer ist Autor, Ko-Autor oder Herausgeber von mehr als einem Dutzend Büchern und Monographien und hat hunderte Vorlesungen und Seminare zum Thema  globale Erwärmung  abgehalten, einschließlich in den Wissenschafts-Fakultäten an der Stanford University, der University of California-Berkeley und vielen anderen. Er ist gewähltes Mitglied der American Association for the Advancement of Science (AAAS), der American Geophysical Union, der American Physical Society und des American Institute for Aeronautics and Astronautics.

Bild rechts: Dr. S. Fred Singer

Daily Bell: Schön, Sie zu treffen! Bitte sagen Sie uns etwas über Ihren Hintergrund. Wo sind Sie aufgewachsen und zur Schule gegangen?

Fred Singer: Ich bin in Wien aufgewachsen, habe die Schule im Alter von 13 Jahren verlassen und eine Lehre bei einem Hersteller optischer Geräte begonnen. Ich habe Wien 1939 verlassen und die Grenze zu Holland überquert, und zwar genau an dem Tag, an dem Hitler in die Tschechoslowakei einmarschiert ist, am 15. März 1939. Ich ging weiter nach England und habe als Teenage-Optiker in Northumberland gearbeitet. 1940 bin ich zu meinen Eltern nach Ohio gezogen, kurz nachdem der London Blitz angefangen hat und nach der Evakuierung der britischen Truppen aus Dünkirchen.

Daily Bell: Sie haben im Jahre 1948 einen Ph. D. der Princeton University in Physik verliehen bekommen. Warum haben Sie sich für Physik interessiert? Welche Art Physik?

Fred Singer: Im Jahr 1941 wurde ich an der Ohio State University eingeschrieben und studierte Elektro-Ingenieurswissenschaft; das ging im Jahr 1943 zu Ende, wonach ich als graduierter Student der Physik an der Princeton University zugelassen worden bin. Dort habe ich den theoretischen Hintergrund für die Ingenieurwissenschaft erlernt. Mein Ph. D. kam nach meiner Militärzeit bei der US Navy während des 2. Weltkriegs und befasste sich mit kosmischen Strahlen, in erster Linie mit Hochenergie-Physik.

Daily Bell: Sie haben die Verbindung zwischen UVB und Melanomen sowie zwischen FCKWs und dem stratosphärischen Ozonverlust in Frage gestellt. Können Sie uns das bitte erklären?

Fred Singer: Die Beziehung zwischen UVB und Melanomen ist problematisch. Es ist möglich, dass die solare UVA-Strahlung der Hauptgrund ist; UVA wird von Ozon nicht absorbiert. Allerdings kann es viele verschiedene Gründe für Melanome geben, eine ernste Form des Hautkrebses. Ich habe die Verbindung zwischen FCKWs und dem stratosphärischen Ozon-Rückgang nie in Frage gestellt; was mich bewegt hat, war einzig die Frage, ob genug FCKWs in die Stratosphäre gelangen, um das Ozon abzubauen.

Daily Bell: Sie sind sehr dafür bekannt, die Gesundheitsrisiken von Passivrauchen zu leugnen. Ist Passivrauchen tödlich? Verursacht es Krebs? Was verursacht Krebs?

Fred Singer: Ich leugne definitiv nicht die Gesundheitsrisiken von Passivrauchen, aber es ist nicht so tödlich wie Rauchen selbst. Ich wäre nicht überrascht, wenn Passivrauchen zu Lungenkrebs und anderen Krankheiten führen würde. Allerdings basiert die Analyse der EPA auf unsauberer Wissenschaft und stimmt nicht mit der Epidemiologie überein. Krebs wird von allen möglichen Gründen verursacht; rauchen ist definitiv einer der Hauptgründe.

Daily Bell: Erklären Sie ihren Standpunkt zur globalen Erwärmung und zur Klimaänderung. Worin besteht der Unterschied und warum?

Fred Singer: Klimaänderungen schließt sowohl globale Erwärmung als auch globale Abkühlung ein, ebenso wie regionale Änderungen. Es ist unbekannt, bis zu welchem Ausmaß menschliche Aktivitäten für Klimaänderung oder globale Erwärmung verantwortlich sind.

Daily Bell: Bitte geben Sie eine Zusammenfassung von einigen Ihrer Bücher. Worum zum Beispiel geht es in Global Effects of Environmental Pollution?

Fred Singer: Mein erstes, sich mit dem Thema Klimaänderung befassendes Buch wurde unter diesem Titel 1970 veröffentlicht. Viele Jahre später ist es aktualisiert worden und hat den Titel The Changing Global Environment erhalten; es wird gegenwärtig digitalisiert und vom Springer Verlag neu gedruckt. In meinem Buch The Ocean in Human Affairs geht es um die Wissenschaft, die Geschichte und andere Aspekte der Ozeane einschließlich seines Einflusses auf die menschliche Forschung. Global Climate Change präsentiert beide Seiten der Debatte um die globale Erwärmung. Mein Buch Greenhouse Debate Continued behandelt hauptsächlich die Schwächen im IPCC-Bericht des Jahres 1990. Mein Buch Hot Science, Cold Science (1997) sowie dessen zweite Ausgabe 1999 beschreibt die Beweise gegen einen wahrnehmbaren menschlichen Einfluss auf das globale Klima. Climate Change Reconsidered, bei dem ich Ko-Autor war, sammelte begutachtete Studien und andere Beweise gegen irgendeinen merklichen menschlichen Einfluss auf das Klima. Es kann daher als Antwort auf die IPCC-Behauptungen bzgl. AGW angesehen werden.

Daily Bell: Danke! Was haben Sie getan während Ihrer Zeit beim Militär, und für was haben Sie in der Regierung gearbeitet?

Fred Singer: Mit 18 Jahren habe ich bei der Navy angefangen mit der Hoffnung, Radaroffizier zu werden; allerdings hat sich die Navy dann entschlossen, mich als Minensucher einzusetzen. Nach dem Ende der Feindseligkeiten habe ich bei dem Mathematiker John von Neumann gearbeitet und einen frühen elektronischen Computer entworfen.

Ich hatte viele Posten bei der Regierung inne: Zuerst im Office of Naval Research als wissenschaftlicher Verbindungsoffizier in Europa, dann im Department of Commerce als erster Direktor des Wettersatelliten-Service, dann im Department of Interior als Assistenz-Sekretär für Wasserqualität und Forschung, dann als Assistenzberater der EPA und schließlich als leitender Wissenschaftler im Department of Transportation.

Daily Bell: Sie waren eine führende Figur in der frühen Weltraumforschung und haben das Satellite Service Center des National Weather Bureau gegründet. Wie ist es dazu gekommen?

Fred Singer: Die Forschung ging allmählich weiter als meine Forschung in größeren Höhen mittels Raketen (1946 bis 1950). Ich habe die Satelliten ins Spiel gebracht und war dann in der Lage, sie als Direktor des Wetter-Satelliten-Programms in Dienst zu stellen. Als Ergebnis meiner Erfahrung mit Satelliten, deren Design und Instrumentierung sowie mit der Physik der Atmosphäre wurde mir angetragen, den Wettersatellitenservice des National Weather Bureau zu gründen, was ich in den Jahren von 1962 bis 1964 getan habe. Von dort ging ich an die University of Miami, um eine neue Schule zu bauen: Sie schloss Ozeanographie und Klimawissenschaft ein – und befasste sich mit den Geowissenschaften allgemein.

Daily Bell: Wie sind Sie zu einem solchen Skeptiker der globalen Erwärmung geworden? Ihre Kritiker sagen, dass Sie mit denen von Ihnen vertretenen Positionen verantwortungslos handeln. Tun Sie das?

Fred Singer: Mein Skeptizismus hinsichtlich der globalen Erwärmung basiert ausschließlich auf den beobachteten Beweisen – die keine messbare Erwärmung zeigen, während die Konzentrationen von Treibhausgasen erheblich zugenommen haben. Ich denke, dass wissenschaftliche Kritik das Verantwortlichste aller Dinge ist – sowohl vom Standpunkt der Wissenschaft aus als auch vom Standpunkt nationaler Politik.

Daily Bell: Im Jahr 2006 hat die Canadian Broadcasting Company CBC Sie als einen Angehörigen der Minderheit von Wissenschaftlern bezeichnet, denen man nachsagte, sich vom Konsens zur Klimaänderung zu distanzieren. War das ein unfairer Vorwurf?

Fred Singer: Die CBC hat vergessen zu erwähnen, dass Tausende Wissenschaftler die gleiche Position vertreten wie ich und ich daher nicht einer „Minderheit“ von Wissenschaftlern angehöre, zumindest keiner kleinen Miderheit.

Daily Bell: Sie sagen, dass es keine Beweise dafür gibt, dass man die globale Erwärmung den vom Menschen in die Atmosphäre gebrachten Kohlendioxid-Konzentrationen zuordnen kann und dass die Menschen von steigenden Temperaturen profitieren würden. Warum glauben Sie, dass diese Haltung verantwortungsvoll ist?

Fred Singer: Soweit wir sagen können, hat die zunehmende CO2-Konzentration nicht zu einer korrespondierenden Erwärmung geführt. Zum Beispiel gab es im 21. Jahrhundert keine globale Erwärmung – trotz der erheblichen Zunahme von Treibhausgasen.

Daily Bell: Sie sind ein Gegner des Kyoto-Protokolls und haben von den Klimamodellen, mit denen die Wissenschaftler zukünftige Trends projizieren, gesagt, dass „die Modelle sehr hübsch, aber nicht die Wirklichkeit sind, und sie sind keine Beweise“. Wie ist es möglich, dass so viele Wissenschaftler falsch liegen, während Sie recht haben?

Fred Singer: Ich bin einer von Vielen, die gegen das Kyoto-Protokoll sind, sowohl aus wissenschaftlichen als auch aus wirtschaftlichen Gründen. Es ist im Grunde ein politisches Dokument, das viel mehr auf Klimamodellen basiert als auf beobachteten Beweisen.

Daily Bell: Man hat Ihnen vorgeworfen, die „Klimaleugnung” und „Müllwissenschaft“ zu vertreten und dafür viel Geld von unternehmerischen Interessengruppen erhalten zu haben. Ist das fair?

Fred Singer: Ich wurde niemals von irgendeinem Unternehmen unterstützt und habe daher meine Arbeiten zur Klimawissenschaft ohne solche Unterstützung durchgeführt.

Daily Bell: Das National Center for Public Policy Research listet Sie als jemanden, den Journalisten hinsichtlich der Politik zur Klimaänderung interviewen können. Warum nennen sie Ihren Namen?

Fred Singer: Es gibt viele Organisationen, die mich als Quelle profunder Wissenschaft hinsichtlich des Themas globale Erwärmung listen.

Daily Bell: In jüngster Zeit scheinen Sie Ihre Ansichten geändert zu haben. Sie haben diejenigen, die behauptet haben, dass (a) der Treibhauseffekt den Zweiten Hauptsatz der Thermodynamik verletze und (b) dass der steigende Kohlendioxidgehalt der Luft keine Erwärmung nach sich zieht, scharf kritisiert. Bitte erklären Sie das!

Fred Singer: Ich bin gegen diejenigen, die die Angstmache vor der globalen Erwärmung aufgrund von etwas kritisieren, das ich falsche Physik nenne. CO2 ist sicher ein Treibhausgas und sollte die atmosphärischen Temperaturen etwas zunehmen lassen, aber nur so wenig, dass wir es nicht messen können. Die CO2-Konzenbtration in der Atmosphäre ist ausreichend, um das Klima zu beeinflussen, aber die Atmosphäre hat sich in eine andere Richtung bewegt.

Daily Bell: … dass natürliche Variationen den menschlichen Beitrag marginalisieren. Kommentar?

Fred Singer: In geologischen Zeiträumen hat es sehr viele Fluktuationen gegeben – viel größere als durch jedweden menschlichen Einfluss. Während der letzten 100 Jahre war die Quelle allerdings zumeist anthropogen.

Daily Bell: Man sagt, dass Sie mit vielen AGW-Leugnern die Geduld verloren haben. Stimmt das? Warum?

Fred Singer: Ich halte nichts von Personen, die aufgrund falscher Wissenschaft gegen das IPCC sind.

Daily Bell: Als Präsident des Science and Environmental Policy Project (SEPP, einer in Fairfax, Virginia, ansässigen Denkfabrik) haben Sie im Jahre 1965 eine Publicity-Kampagne über „die fünf Top-Umweltmythen von 1995“ gestartet, eine Liste, die auch die Schlussfolgerung der EPA enthielt, dass Passivrauchen bei den Menschen Krebs erregt. Was hat Sie zu der Schlussfolgerung kommen lassen, dass die Gefahren des Passivrauchens ein Mythos sind?

Fred Singer: Passivrauchen kann sehr gut krebserregend sein; allerdings steckt die von der EPA durchgeführte statistische Analyse voller Fehler.

Daily Bell: Sie haben auch Radon als Fake-Wissenschaft kritisiert. Können Sie das erklären?

Fred Singer: Es ist die übereinstimmende Meinung von Experten, dass Radon in geringer Konzentration nicht krebserregend wirkt.

Daily Bell: Sie glauben nicht, dass ein Loch in der Ozonschicht eine Gefahr darstellt. Warum nicht?

Fred Singer: Bei dem so genannten Loch in der Ozonschicht handelt es sich um eine temporäre Ausdünnung im Oktober in der Antarktis; ich glaube nicht, dass das gefährlich ist.

Daily Bell: Sie haben kürzlich gefolgert, dass das unkontrollierte Wachstum der das Klima beeinflussenden Verschmutzung „eindeutig eine gute Nachricht“ ist. Warum? Weil „steigende CO2-Konzentrationen das Pflanzenwachstum fördern und Pflanzen widerstandsfähiger gegen Dürren und Krankheiten macht“. Stehen Sie zu dieser Schlussfolgerung?

Fred Singer: Landwirtschafts-Experten stimmen weitgehend überein, dass ein höheres CO2-Niveau das Pflanzenwachstum fördert und die Pflanzen widerstandsfähiger macht.

Daily Bell: Warum gibt es so viele falsche Mythen, die über die Wissenschaft zirkulieren? Welche Agenda haben diejenigen, die weiterhin behaupten, dass sich die Erde bis hin zu katastrophalen Werten erwärmt?

Fred Singer: Es sind viele falsche Mythen über die Wissenschaft im Umlauf – normalerweise basierend auf unzureichender Erfahrung. Ich war einer derjenigen, der als Mitglied einer Nichtraucher-Organisation gegen das Rauchen vorgegangen ist. Zigaretten rauchen ist definitiv ungesund. Es gibt jene, die vor katastrophalen Ereignissen bzgl. der künftigen Erwärmung warnen; ihr Ziel scheint es zu sein, die Bevölkerung zu ängstigen. Ich habe den Verdacht, dass viele dieser Leute von monetären Überlegungen getrieben werden.

Daily Bell: Versinken Inseln?

Fred Singer: Soweit ich weiß, versinken die Inseln nicht.

Daily Bell: Warum haben Sie diesen Kampf gekämpft? Sie wurden mit Dreck beworfen, verhöhnt und sogar verleumdet. War es das wert? Werden die Kräfte der Klimaänderung den Sieg davon tragen?

Fred Singer: Ich denke, dass der Kampf für gute Wissenschaft immer wert ist, selbst wenn man mit Dreck beworfen und verleumdet wird. Ich glaube, dass die Angst vor der globalen Erwärmung in einem Jahrzehnt oder so vorbei ist.

Daily Bell: Werden wir weiterhin Kohlenstoff im Boden vergraben? Sollte man dieses Geld nicht anderswo für bessere Zwecke ausgeben?

Fred Singer: Die Idee, Kohlenstoff in der Erde zu vergraben, ist eine sehr schlechte Idee, und ich hoffe, dass wir solche Projekte niemals durchführen. Es gibt viel bessere Möglichkeiten, das Geld auszugeben; die Welt steckt voller Gelegenheiten, die Unterstützung brauchen.

Daily Bell: Kämpfen Sie einen guten Kampf?

Fred Singer: Ich glaube, dass wir einen guten Kampf gewinnen.

Daily Bell: Nach der Art Idiotie, die Sie bekämpft haben, glauben Sie, dass die Menschheit untergehen wird?

Fred Singer: Ich glaube nicht, dass die Menschheit untergehen wird, selbst wenn das schon oft vorhergesagt worden ist.

Daily Bell: Herzlichen Dank!

Bemerkungen von Daily Bell hierzu

Fred Singer ist einer der Menschen, die sich gegen Machteliten wie die globale Erwärmung gewandt haben, weil sie einen Angriff auf seinen gesunden Menschenverstand und seinen wissenschaftlichen Hintergrund darstellen. Er hat nichts dadurch verdient, aber er fand es offenbar schwierig, zu schweigen.

Es gibt viele Menschen in der ganzen Welt, die die Machtansprüche der Eliten bekämpfen, aber oftmals hören wir nichts von ihnen. Hauptsächlich deswegen, weil die Geschichten  dieser Leute oftmals kein Echo bei den Mainstream-Medien finden. Die Mainstream-Medien konzentrieren sich vorhersehbarerweise auf die Geschichten, die die Mächtigen berichtet haben WOLLEN.

Nachrichten sind normalerweise von der Art „Mann beißt Hund“ – aber nicht in der jetzigen Zeit. Heutzutage wird erwartungsgemäß mehr über Waffengewalt, soziale Zusammenbrüche, politische Superstars und ähnliches Volk berichtet. Die Trennlinie zwischen Nachrichten und Nicht-Nachrichten ist, ob sie eine globale Führung fördern oder nicht.

Ja, was auch immer die Autoritäten unterstützt und den freien Markt verunglimpft, wird oft als berichtenswert angesehen. Personen, die die geistlose wohltätige Heuchelei der UN unterstützen, werden gefeiert. Personen, die profitable Geschäftsbereiche schaffen, die für die Gesellschaft hilfreich sind, arbeiten im Verborgenen und können verschiedener Arten von Ausbeutung angeklagt werden.

Wir sind glücklich, Ihnen Interviews mit Menschen wie Fred Singer präsentieren können. Vielleicht haben Sie nie von ihm gehört – aber er ist einer der guten Leute, wenn es darum geht, gegen die verschiedenen Idiotien unserer Tage vorzugehen. Wir brauchen mehr Fred Singers, nicht weniger. Hoffentlich sorgt das Internet-Zeitalter dafür, dass ihre Zahl immer weiter wächst.

Bemerkung des Herausgebers: The Daily Bell wird von einer gemmeinnützigen Stiftung betrieben, The Foundation for the Advancement of Free-Market Thinking (FAFMT). Interviews wie das Heutige sind ohne Ihre finanzielle Unterstützung nicht möglich. Bitte überlegen Sie sich eine Spende. Hier steht mehr über FAFMT.

Link: http://www.thedailybell.com/28619/Anthony-Wile-Fred-Singer-on-the-Myths-of-Politically-Correct-Science

Übersetzt von Chris Frey EIKE




Video-Vorträge (II) 5. IKEK München

Auch auf den Energiemärkten werden fast täglich neue riesige Funde, ob konventioneller oder unkonventioneller Art, gemacht und führen zu erheblichen Preissenkungen, vor allem in Gasbereich. Da bleibt für das deutsche Riesenexperiment „Zeitalter der „Erneuerbaren“ weder Platz noch Notwendigkeit. Die deutsche Politik und Wirtschaft täten gut daran, diese Fakten umgehend zur Kenntnis zu nehmen und ihr Handeln danach auszurichten.

Die Vorträge wurden simultan in beide Konferenzsprachen Deutsch <-> Englisch übersetzt. Aus Copyrightgründen werden Vorträge hier nur in der Originalsprache gezeigt.

Klimawandel und die Bedrohung durch „neue Krankheiten“

Prof. Dr. Paul Reiter; Unité “Insectes et Maladies Infectieuses” Institut Pasteur, Paris

Die Entwicklung des arktischen Eises

Dr. Fred Goldberg; Swedish Polar Institute

NASA-GISS Temperaturdaten wurden geändert – warum?

Prof. Dr. Friedrich-Karl Ewert Fachbeirat, Europäisches Institut für Klima und Energie (EIKE)

Warum fast nichts von dem, was Sie über das IPCC wissen, wahr ist

Donna Laframboise

Blog nofrakkingconsensus.com, Autor des Buchs „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“

Politik, Medien und die Rolle der Wissenschaft

Dr. James M. Taylor

Senior fellow, The Heartland Institute, Chicago, USA


Wird fortgesetzt!




Das EEG ist ideologisch und teuer – Interview mit Michael Limburg

Update 20.2.13 FAZ vom 20.2.13: Energiewende könnte bis 1 Billion Euro kosten

Umweltminister Altmaier gibt erstmals zu, dass die Energiewende 1 Billion € kosten könnte. Dass das noch lange nicht das Ende der Fahnenstange ist, werden wir jedoch noch leidvoll erleben.

Das Interview führte Daniel Fallenstein von der Internetzeitschrift Freie Welt

Freie Welt: Das EEG gerät immer stärker in die öffentliche Kritik. Inzwischen beginnen sogar Regierungsmitglieder, sich von dem Gesetz zu distanzieren. Was regt die Menschen so auf?

Michael Limburg:

Es ist offensichtlich die neue reale Erfahrung, dass die fälschlich „erneuerbar“ genannten alternativen Energieträger – anders als von allen Politikern, voran den Grünen- versprochen, nicht nur nicht zum Nulltarif zu haben sind, sondern richtig schwer ins knappe Geld gehen. Und zwar bei allen Stromverbrauchern. Besonders spüren ist das natürlich die Haushalte mit geringem Einkommen. Bis dahin konnten die Politiker diese drastische und sich verstärkt auswirkende Strompreiserhöhung entweder klein reden, oder den „gierigen“ Versorgern in die Schuhe schieben, denn die geschickte Konstruktion des EEG verlangt ja von denen, dass sie erst die volle Menge des alternativen Stroms, völlig unabhängig davon, ob er gebraucht wird oder nicht, ob er verkäuflich ist oder nicht, zu stark überhöhten Preisen von den Erzeugern die NIE´s (Neue Instabile Energien) abkaufen müssen. Die dafür gezahlten Gelder dürfen dann nach Abzug des evtl. mickrigen Erlöses an der Strombörse, beim Verkauf dieser NIE auf die Verbraucher umgelegt werden. Für den Unbedarften erscheint das dann erst mal als gierige Willkür der Versorger bzw. Netzbetreiber. Das ist auch beabsichtigt.

In Wirklichkeit hat der Staat dieses teure Verwirrspiel angezettelt und lässt die Verbraucher zahlen. Bis zum Ende des vergangenen Jahres waren das bereits 98 Mrd €. Das ist 10 x die Summe, die der Verkehrsminister dieses Jahr für Investitionen und Reparatur für unsere Verkehrswege ausgeben darf.

Freie Welt: Welche Kritik üben Sie an Photovoltaik und Windkraft im speziellen?

Michael Limburg:

Von allen alternativen Energien sind diese beiden Herstellungsmethoden die teuersten und volatilsten und damit Unbrauchbarsten. Zudem ist die Einspeisevergütung bei der PV astronomisch hoch, und dass bei einer Sonneneinstrahlung hier bei uns, die der von Alaska gleicht. Deswegen laufen diese PV Anlagen im Mittel des Jahres auch nur mit 8 % ihrer Nennleistung, speisen deswegen nur 3 % der Strombedarfes ein, kassieren aber absolut rd. die Hälfte aller Gelder.

Wind ist zwar von der Qualität und Volatilität des Stroms auch ein unbrauchbares Produkt, aber von seiner Verfügbarkeit etwas besser und die Subvention dafür – obwohl immer noch zigmal höher als konventionell erzeugter Strom- liegt mit 9 bzw. 15 ct/kWh deutlich niedriger. Aber allen – bis auf die Wasserkraft- also incl. des sog. Biostroms, ist gemeinsam, dass sie riesige Flächen benötigen, die der Landwirtschaft oder dem Naturschutz entzogen werden müssen. Dieser riesige Flächenverbrauch ist bedingt durch die naturgesetzlich vorgegebene extrem geringe Energiedichte, deshalb braucht man riesige Flächen um diese Energie einzusammeln und zu verdichten. Konventionelle Energien sind auch darin unendlich überlegen.

So benötigt man, um ein konventionelles Kraftwerk mit 1400 MW Leistung auch nur rechnerisch durch Windkraft zu ersetzen, ca. 3000 WKA´s der 2,3 MW Klasse an Land. Aneinander gereiht würden die von Berlin bis fast nach Madrid reichen. Auf See – wie das Beispiel von Baltic 1 zeigt- bekommt man zwar doppelt soviel Strom wie auf Land, hat aber sehr viel höhere Investitionskosten und sehr viel größeren Verschleiß.

Man bräuchte dann „nur“ 1400 Windmühlen der Baltic 1 Klasse, die würden knapp 500 km2 bedecken – das ist die halbe Fläche von Hamburg- und ca. 13 Mrd. € kosten. In beiden Fällen käme aber noch einmal ein unbedingt notwendiges konventionelles Pufferkraftwerk mit 1400 MW Nennleistung hinzu, das würde noch mal rd. 2,6 Mrd € kosten. Zusammen -abgeleitet aus den Daten von Baltic1 – also 15,6 Mrd € für Strom, den ein konventionelles Kohlekraftwerk für nur 2,6 Mrd € liefern würde. Von der Netzanbindung noch nicht geredet.

Das ist ein 6 x höherer Preis für ein und dasselbe Produkt, nur von wesentlich schlechterer Qualität: Kein Mensch, der bei Verstand ist, würde das jemals kaufen. Nur unser Staat zwingt uns dazu.

Genau so schlimm ist die damit einher gehende Zerstörung der – wie viele meinen- weltbesten Elektro- Infrastruktur unseres Landes, durch die unplanbare aber massive Einspeisung dieses Zufallsstromes in unsere Netze. Die werden dadurch außer Takt gebracht, damit letztendlich zerstört und die konventionellen Kraftwerke wg. des erforderlichen ständigen Ausregelns auf Verschließ gefahren.

Freie Welt:Welche Rolle spielen die fossilen Brennstoffe für die Energieversorgung in Deutschland? 

Michael Limburg:

Nach dem unsinnigen Atomausstieg ist deren Bedeutung drastisch gestiegen. Wg. der Schiefergasrevolution wird Kohle sogar am Weltmarkt deutlich billiger. Zudem hat Deutschland selbst riesige Braunkohlevorkommen, deren Verstromung daher zunimmt. So sind derzeit wg. der oben geschilderten Vorrangeinspeisung, nur noch die Braunkohlewerke rentabel zu betreiben. Wir können sehr froh sein, dass wir diesen Schatz in großer Menge haben.

Freie Welt Wo liegen die Gefahren in der derzeitigen Lage des Stromnetzes und der Stromerzeugung?

Michael Limburg:

Die Gefahr ist nicht nur, dass wir aus rein ideologischen Gründen eine extrem teure (s.o.) aber zusätzliche Strom-Infrastruktur aufbauen, die den Strom so verteuert, das sehr viele Haushalte ihn nicht mehr bezahlen können, und sich Energiearmut ausbreitet. Aber viel schlimmer ist, dass auch die Werte erzeugende Industrie, angefangen bei der energieintensiven Grundstoff-Industrie (Saurier Industrien, die zum Aussterben verurteilt sind, wie Ex-Umweltminister diesen Vorgang kommentierte) das Land mitsamt ihren Arbeitsplätzen verlässt, dicht gefolgt von den Industrien, die entlang der Wertschöpfungskette auf die Zulieferung der Grundstoff-Industrie angewiesen ist. Deren Arbeitsplätze, die hoch wertschöpfend sind, gehen damit auf Nimmerwiedersehen verloren. Damit wird das Land und damit wir alle, wirtschaftlich ruiniert.

Freie WeltWas müsste sich ändern? 

Michael Limburg:

Das EEG müsste komplett und sofort abgeschafft werden, die bereits zugesagten, zukünftigen Einspeisevergütungen ersatzlos gestrichen. Anzufangen ist mit der Streichung der Vorrangeinspeisung. Gefolgt von der gesetzlichen Verpflichtung der Erneuerbaren Besitzer, dann Strom zu liefern, wenn er gebraucht würde. Nur dann gibt es ein Vergütung. Das würde sie zwingen, auf eigene Rechnung Strom-Speicher zu installieren und diese Kosten nicht der Allgemeinheit aufzubürden. Das Problem dabei ist, dass es solche Stromspeicher nicht gibt und auch nicht geben wird, von Kleinstlösungen mal abgesehen.

Ohne diese Maßnahmen summiert sich die Einspeisevergütung auf gewaltige Summen, die zudem exponentiell jedes Jahr ansteigt. (Details dazu hier, http://www.eike-klima-energie.eu/energie-anzeige/wind-und-sonne-schicken-keine-rechnung-was-uns-kostenlose-energie-wirklich-kostet/). Im Jahre 2015 belaufen sich die dann bereits gezahlten und noch gesetzlich festgeschriebenen Summe schon auf 570 Mrd €. Und das alles für ein völlig unbrauchbares und damit wertloses Produkt. Eben Zufallsstrom.

Da das bei der derzeitigen Parteien- und Zustimmungslage leider unrealistisch ist, anbei eine moderater Vorschlag („Energiewende light“), der aber auch wohl erst nach Erreichen des Unbezahlbaren Chancen auf Umsetzung hat.




Weltenretter Schellnhuber wieder im Einsatz! Auftritt vor dem UN Sicherheitsrat

So meldete der Informationsdienst Wissenschaft soeben. (Mit Dank an Spürnase Dr. Kohler). Da wird die Idee der „großen Transformation“ bestimmt auf fruchtbaren Boden fallen. Von etwas kleinerem Kaliber ist die Veröffentlichungen eines Comic-Bandes, es kann aber nicht ausgeschlossen werden, dass dieses wegweisende Werk, den Wunsch nach Aufklärung der Mitglieder des Sicherheitsrates durch John  Schellnhuber maßgeblich beflügelt hat.

Der Blog „Die kalte Sonne“ kommentiert dieses Jahrhundertereignis so:

Hajo Schellnhuber jetzt als Comic-Figur

Das Potsdam-Institut für Klimafolgenforschung (PIK) fällt regelmäßig durch Pressemitteilungen und Thesen auf, deren Inhalt bei näherer Überprüfung äußerst fragwürdig erscheinen. Wir haben in der Vergangenheit mehrfach über die entsprechenden Vorfälle berichtet:

Kipp-Element auf wackeliger fachlicher Grundlage: Grönlands Eismassen lassen sich vom Potsdam-Institut keine Angst einjagen
–Pünktlich zum UN-Klimafest in Doha: Neuer Alarm aus Potsdam
–Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage
–Golfstrom bleibt laut neuen Messdaten stabil: Stefan Rahmstorfs Modell beginnt zu wackeln

Es ist schon unheimlich, wie solche Dinge in Serie passieren können. Die meisten Mitarbeiter des Instituts sind doch studierte Leute, denen man eigentlich einen gesunden Menschenverstand zutrauen würde. Der Direktor des Instituts ist seit 22 Jahren am Ruder und heisst Hans-Joachim Schellnhuber. “In Würdigung seiner hervorragenden wissenschaftlichen Verdienste auf dem Gebiet der Klimafolgenforschung und Politikberatung” verlieh die Technische Universität Berlin Mitte 2012 Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber die Ehrendoktorwürde.

Einige Monate zuvor hatte Schellnhuber im Interview mit t-online gesagt, der Klimawandel wäre “so etwas wie ein Meteoriteneinschlag in Zeitlupe, in Superzeitlupe sogar. Er vollzieht sich über viele Jahrzehnte.“ Im Mai 2012 erklärte Schellnhuber dann, er würde es bedauern, dass es keine Weltregierung gibt, denn nur eine solche Zentralgewalt könnte das Klimaproblem in den Griff bekommen. In einem lesenswerten Artikel “Schellnhuber und die Weltherrschaft” beleuchtete Peter Heller kurz darauf das bedenkliche Denkmuster des Potsdamer Professors.

Auch im Ausland werden Schellnhubers Aktionen besorgt verfolgt. So schrieb Donna Laframboise kurz vor Weihnachten 2012 in einem kürzlichen Portrait über Schellnhuber: “He is a full-blown activist”! Allerdings scheint der Klimaforscher auch ab und zu eine klimaalarmistische Pause einzulegen. Laut einem Bericht im Focus soll Schellnhuber auf einem Seminar von Landwirtschaftsexperten zugegeben haben, dass die steigende CO2-Konzentration der Atmosphäre und die Erwärmung wohl zu höheren landwirtschaftlichen Erträgen führen könnte.

In Kürze wird der umtriebige Schellnhuber zu allem Überfluss auch als Comic-Figur in einem (nicht-lustigen) Taschenbuch tätig werden, für das das Bundesministerium für Bildung und Forschung vorab schon kräftig die Werbetrommel rührt. Das ist schon ganz schön ungerecht, denn für unser Buch Die kalte Sonne hat sich das BMBF überhaupt nicht eingesetzt. Über das Schellnhuber-Comic schrieb das BMBF Mitte Dezember auf seiner Webseite hingegen:

Im Kampf gegen den Klimawandel gehen das Bundesministerium für Bildung und Forschung und der Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) ungewöhnliche Wege. Neun Wissenschaftler erklären im Comic “Die große Transformation: Umwelt – So kriegen wir die Kurve”, wie wir die Herausforderungen noch meistern können. Sie zeigen als Comic-Helden in aufwändig gestalteten “Graphic Interviews”, was getan werden muss, um nachhaltiges Wirtschaften weltweit Realität werden zu lassen. Hier ein kleiner Ausschnitt mit Professor Dr. Hans Joachim Schellnhuber, Klimaforscher und Vorsitzender des Wissenschaftlichen Beirates Globale Umweltveränderungen (WBGU). Das Buch ist ein Projekt des Wissenschaftsjahres 2012 Zukunftsprojekt: ERDE und erscheint Ende Februar 2013 im Verlagshaus Jacoby & Stuart

Im Comic sagt Schellnhuber:

Gerade der Klimawandel hat einen sehr langen “Bremsweg” und muss deswegen rasch begrenzt werden.

Wenn man das Wort “Klimawandel” jetzt noch gegen “Klimaalarmismus” austauscht, dann hat Schellnhuber vollkommen recht !

Da geben sich der stellvertretende Direktor des PIK Friedrich-Wilhelm Gerstengarbe und sein Co-Herausgeber Harald Welzer (Herausgeber), sowie das Forum für Verantwortung (Herausgeber) viel seriöser. Haben sie es doch für notwendig gehalten auch ein neues Buch unter dem aufregenden Titel: 

Zwei Grad mehr in Deutschland: Wie der Klimawandel unseren Alltag verändern wird

zu verfassen. Hier z.B. bei Amazon

in der Buchbeschreibung liest man:

Was bewirkt der Klimawandel in Deutschland? – Das Szenario 2040

Klimaforschung, Klimapolitik und Klimaprotest drehen sich um das Erreichen des „2-Grad-Ziels“: das Abbremsen der Erderwärmung bei zwei Grad Celsius über der vorindustriellen Durchschnittstemperatur. Aber zwei Grad global sehen lokal sehr unterschiedlich aus: das können vor Ort vier Grad oder auch nur ein Grad mehr sein, genauso wie die Folgen in einer Region Wasserknappheit und in einer anderen extreme Hochwasser sein können. Friedrich-Wilhelm Gerstengarbe vom Potsdam-Institut für Klimafolgenforschung und der Soziologe Harald Welzer bieten ein realistisches Bild der Auswirkungen des Klimawandels in deutschen Städten und Landschaften im Jahr 2040.

Anders als das Energiekonzept der Bundesregierung, das planwirtschaftlich bis zum Jahre 2050 reicht, begnügt sich die Autoren damit, nur ein Scenario bis zum Jahre 2040 vorzustellen.

Für EIKE Leser ist es gut zu wissen, dass die Temperaturen sowohl in Deutschland als auch in der Welt gar nicht daran denken nach oben zu gehen. Nur ein Schönheitsfehler (!) mehr nicht, zumindest nach Meinung der Herausgeber. Irgendwann wird es wieder losgehen. Und dann kann man sagen:

We told you so!

Postnormale Wissenschaft, so nennt sich dieses Vorgehen.

Schon die obige Einleitung zeigt wissenschaftliche Tiefe, erläutern uns doch die Herausgeber darin, wie sehr ein Durchschnittswert von seinen Varianzen abweichen kann. Gut zu wissen.

Und noch besser ist, dass der bekannte Soziologe Harald Welzer seine blühende Phantasie bemüht, um uns streng wissenschaftlich natürlich, wissen zu lassen, wie schlimm alles werden wird, wenn wir nicht heute schon umkehren, und die große Transformation jauchzend begrüßen. Dazu gehört schon eine tüchtige Portion Sachkenntnis, die Harald Welzer wie folgt erworben hat:

Seit 2012 Professor für Transformationsdesign an der Universität Flensburg und Direktor der Stiftung Futur Zwei in Berlin. Seit 2008 Leiter der Projekte „Katastrophenerinnerung“ und „Shifting Baselines“ im Bereich KlimaKultur am KWI

Sachkundige Bewertungen dieses Werkes können hier abgegeben werden.

Michael Limburg EIKE

unter Verwendung von Texten von Die kalte Sonne und div. anderen.




Erst zum Gipfel, dann wieder talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen – Teil 1

….Im Ruhrgebiet bremsten hingegen stagnierende Bevölkerungszahlen und Deindustrialisierung den dortigen Temperaturanstieg etwas. Aus Stationsvergleichen des DWD- Netzes konnte ein zusätzlicher, großstadtbedingter WI- Effekt von 0,4 bis 0,8 K ermittelt werden. Trotz meist sinkender Einwohnerzahlen und eher mäßiger Wirtschaftsentwicklung bescherte eine überdurchschnittliche Bautätigkeit (Verkehrsinfrastruktur, großflächige Handelseinrichtungen, touristische Erschließung) auch Ostdeutschland wesentliche, WI- bedingte Erwärmungseffekte. In weiteren Folgen dieser Untersuchungsreihe wird sich aber zeigen, dass es noch mehr wesentliche Erwärmungsursachen gab und diese sich teilweise bedingt haben.

Einführung

Im Rahmen einer Untersuchung aus dem Jahr 2012 hatten wir anhand der Station Erfurt- Bindersleben gezeigt, dass die in den vergangenen 3 Jahrzehnten beobachtete Erwärmung mehrere Ursachen hatte, von denen die Zunahme der Sonnenscheindauer/Sonnenaktivität sowie durch geänderte Flächennutzung und zunehmende Bebauung bedingte Effekte (im Folgenden der Einfachheit halber WI- Effekt genannt, WI = Wärmeinsel) den größten Erwärmungsbeitrag, ausschließlich auf Erfurt bezogen, leisteten. Doch auch Schwankungen der Zirkulationsverhältnisse (Großwetterlagen, NAO), die ihrerseits in solaren Ereignissen ihren Ursprung haben, verursachten einen gewissen „Erwärmungseffekt“. Die Erwärmung verlief nicht gleichmäßig. Einem besonders raschen Temperaturanstieg um 1988/1990 folgte noch eine leichte Erwärmung bis etwa 2000, danach stagnierten die Temperaturen auf hohem Niveau, beziehungsweise sanken sogar wieder leicht. Im Folgenden soll die Ursachenforschung unter Einbeziehung weiterer Stationen, Daten zur Sonnenscheindauer, den Großwetterlagen, der Sonnenaktivität und weiterer Faktoren vertieft werden.

Teil 1- Der Temperaturverlauf seit 1980 in Deutschland und der WI- Effekt als eine wichtige Ursache

Abb. 1: Die Grafik verwendet die Original- Daten des Deutschen Wetterdienstes. Diese sind noch nicht WI- bereinigt. Im Betrachtungszeitraum beträgt der WI der deutschen Stationen etwa 0,5 GradC. Trotzdem würde auch nach einer WI- Bereinigung der DWD-Daten noch ein leichtes Wärmeplus über die letzten 33 Jahre bleiben; doch seit den mittleren 2000er Jahren geht’s wieder bergab. Anmerkung: Die „Deutschland- Temperatur“ ist eine Rechengröße (arithmetisches Mittel der einzelnen Stationen). Bei solchen Mittelwertbildungen wird stets ausgeblendet, dass jeder Ort sein eigenes Klima hat. Daher sollten derartige Betrachtungen stets im Zusammenhang mit einzelnen Stationsdaten erfolgen, um regionale Unterschiede zu erkennen.

Für den Zeitraum seit 1980 sind noch am ehesten Daten verfügbar, und er ist den meisten Lesern sicher am besten im Gedächtnis geblieben. Die Datenbeschaffung für diese und alle folgenden Auswertungen war nicht ganz einfach, und die Qualität der Daten dürfte aufgrund der sehr verschiedenen Quellen (DWD, Wikipedia, PIK Potsdam, Berliner Wetterkarte, Wettermagazin, Wetteronline, Wetterkontor, Meteorologischer Dienst der DDR, Stadtentwässerung und Umweltanalytik Nürnberg) sowie dem Wechsel der Messinstrumente und der Erfassungszeiten keinesfalls immer gleichwertig sein. Trotzdem liefert die Auswertung erstaunliche Ergebnisse.

Die Temperaturentwicklung verschiedener Stationen im Vergleich- große Unterschiede!

Die folgende Abbildung zeigt die Entwicklung der Jahresmitteltemperaturen an 6 gut über das Bundesgebiet verteilten Stationen:

Abb. 2: Düsseldorf (Rot), Offenbach (Gelb), Helgoland (Blauviolett), Nürnberg (Grün), Potsdam (Dunkelrosa) und Erfurt (Hellblau) im Vergleich.

Anmerkung: Der „Lineare“ Trend täuscht einen mehr oder weniger starken Temperaturanstieg über den ganzen Zeitraum vor, der aber nach dem Jahr 2000 in Stagnation bis leichten Rückgang übergegangen ist.

Bevor wir dies veranschaulichen, wollen wir das recht unterschiedliche Verhalten diskutieren. Offenbach „überholt“ Düsseldorf, während Nürnberg zurückbleibt, sogar hinter Potsdam zurückfällt, und sich die Anstiege von Helgoland, Potsdam, Erfurt und Brocken (aus gestalterischen Gründen hier nicht abgebildet, da wesentlich kälter als die gezeigten 6 Stationen und schwer in derselben Abbildung darstellbar) ähneln. Da uns der enorme Temperaturanstieg in Offenbach (gut 0,6 K/Jahrzehnt, etwa doppelt soviel wie in Nürnberg und Düsseldorf, fast doppelt soviel wie im Deutschlandmittel!) erklärungsbedürftig erschien, haben wir zur Verifizierung die nicht weit entfernte Station Frankfurt/Main (Flughafen) zusätzlich ausgewertet. Es zeigte sich, dass deren Temperaturverlauf den in Offenbach bestätigt; der Anstieg war in Frankfurt mit 0,66K/Jahrzehnt sogar noch geringfügig größer. Spätestens an dieser Stelle kommen Verfechter einer vorrangig durch CO2 verursachten Erwärmung in erste Erklärungsnöte, denn es ist auszuschließen, dass sich der CO2-Backgroundlevel, der sich in den CO2-Messdaten widerspiegelt, über einen Betrachtungszeitraum von 32 Jahren regional in Deutschland sehr unterschiedlich erhöht hat. Und hätte ein übergeordneter, Erwärmungsantrieb, beispielsweise durch CO2, die Dominanz, so hätten sich nach dem Strahlungsgesetz von PLANCK die kältesten Stationen Brocken, Erfurt, Nürnberg und Potsdam deutlich schneller erwärmen müssen, als das von Natur aus ohnehin schon warme Offenbach. Wesentlich plausibler ist hingegen eine andere Annahme, die vor allem die stärkere Erwärmung von Offenbach (Rhein- Main- Gebiet) gegenüber Düsseldorf (Ruhrgebiet) erklärt- der WI- Effekt. Wie schon in zahlreichen früheren Beiträgen erläutert (MALBERG 2009, LEISTENSCHNEIDER, KOWATSCH, KÄMPFE 2010 bis 2012), bewirken zunehmende Bebauung, Besiedlung, geänderte Landnutzung und zahlreiche künstliche Wärmequellen wie Verkehr, Industrie oder Heizungen, eine Erwärmung, die in Gebieten mit stark zunehmender Bebauung und hoher Bevölkerungsdichte besonders markant ausfällt. Somit ist es sehr wahrscheinlich, dass WI- Effekte in der Rhein- Main- Region besonders stark temperaturwirksam wurden. Diese Tatsache erklärt den stärkeren Temperaturanstieg von Offenbach gegenüber Düsseldorf auch deshalb, weil die Bevölkerungsentwicklung ein wichtiger Indikator für den WI- Effekt ist (steigende Einwohnerzahlen wirken erwärmend).

Abb. 3: Entwicklung der Einwohnerzahlen (Quelle: Wikipedia) in Offenbach (Gelb), Nürnberg (Grün) und Düsseldorf (Rot). Weil der WI- Effekt nicht nur unmittelbar am Standort selbst wirkt, sondern auch von benachbarten Regionen „eingetragen“ wird, sind hier wichtige, in der Nähe gelegene Städte (dünne, gelbe Linie Frankfurt/Main, 2 dünne, rote Linien Essen und Dortmund), mit dargestellt. Während die Bevölkerungszahl im Rhein- Main- Gebiet kontinuierlich stieg, besonders auch im letzten Jahrzehnt, sank sie in Düsseldorf bis 2000 deutlich, danach stieg sie wieder geringfügig, während sie aber in den Ruhrgebietsstädten Dortmund und Essen weiter fiel. In Nürnberg schwankte sie bis 2000 um die 490.000 und stieg dann im letzten Jahrzehnt deutlich.

Anmerkung: In den ostdeutschen Großstädten sind die Einwohnerzahlen zwar teilweise gestiegen, so auch in Erfurt. Allerdings verdeckten hier großflächige Eingemeindungen (Gebietsreform in Thüringen 1993/94) teils erhebliche Bevölkerungsrückgänge, so dass die für die Quantifizierung des WI- Effekts viel besser geeigneten Einwohnerzahlen pro km² reell dort wohl meist gesunken sind. Leider sind zeitliche längerfristige Entwicklungen von Einwohnerzahlen/km² kaum verfügbar, und frühere Gebietsreformen und Eingemeindungen verfälschen leider fast überall die Zahlen.

Offenbach und das Rhein- Main- Gebiet gehören aber zu den wenigen Regionen mit reell steigenden Einwohnerzahlen in Deutschland; die Einwohnerzahlen sind dort beispielsweise seit 2000 jährlich um etwa 1% gestiegen (zahlreiche Quellen, zum Beispiel M. BÖSS, 2009). Von den 3 Städten mit einigermaßen verlässlicher Datenlage zur Bevölkerungsentwicklung weist Offenbach daher auch folgerichtig die größte Bevölkerungszunahme auf:

Abb. 4: Während die Einwohnerzahl in Düsseldorf im Vergleich zu 1980 nur geringfügig zunahm, liegt Nürnberg im Mittelfeld, während Offenbach mit reichlich 10% einen regelrechten Boom erlebte.

Dabei ist zu beachten, dass die WI- bedingte Erwärmung nicht immer linear der Bevölkerungszunahme folgen muss; der Zusammenhang kann auch den Ertragsgesetzen ähneln. Der bekannte Klimawissenschaftler, Dr. Spencer hat dies in seiner Arbeit The Global Average Urban Heat Island Effect in 2000 Estimated from Station Temperatures and Population Density Data“ nachweisen können, aus dem die folgende Abbildung stammt.

Abb. 5: In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Dr. Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen. Bei Änderungen von geringen Bevölkerungsdichten ist dieser proportional am stärksten, d.h. hier tritt die größte Erwärmung auf.

Das heißt, in unbesiedelten oder sehr dünn besiedelten Regionen bewirken beispielsweise 1000 Einwohner Zuzug  eine viel größere Erwärmung als in klimatisch ähnlichen, gleich großen, aber bereits dicht besiedelten Regionen (Sättigungsgesetz). Für europäische und nordamerikanische Städte hat OKE (1973) Formeln aufgestellt, welche die maximale, momentane Erwärmung (T) einer Stadt im Vergleich zu ihrem ländlichen Umland in Bezug zur städtischen Einwohnerzahl (P) setzen. Allerdings erlauben derartige Formeln bestenfalls sehr grobe Abschätzungen. Nordamerikanische Großstädte erwärmen sich in der Regel um einige Grad mehr als vergleichbare in Europa und damit auch in Deutschland.

Europa: ΔTu – r(max) = 2.01 log10(P) – 4.06

Nordamerika: ΔTu – r(max) = 2.96 log10(P) – 6.41.  Die folgende Abbildung veranschaulicht nochmals diesen Zusammenhang:

Abb. 6: Degressiver Zusammenhang zwischen steigender Einwohnerzahl und Oberflächentemperatur (obere, durchgezogene Linie)

Im Gegensatz zum boomenden Offenbach und zum gesamten Rhein- Main- Gebiet stagnieren die Einwohnerzahlen des Ruhrgebiets seit Jahrzehnten oder sind gar leicht rückläufig:

Abb.7: Bevölkerungsentwicklung im Ruhrgebiet
Quelle: Grafik Sven Sendfeld/ Daten KVR 2002

Es muss aber betont werden, dass Bevölkerungsänderungen nur einen Teil des WI- Effekts verursachen. Um den Einfluss der Bevölkerungszahlen und Besiedlungsdichte auf die Temperaturen in Deutschland einmal grob abzuschätzen, haben wir einen Vergleich durchgeführt. Dabei wurden 5 Stationen, die dörflich sind oder in der Nähe von nur mittelgroßen Städten von etwa 40.000 bis 80.000 Einwohnern und Einwohnerdichten von deutlich unter 1000EW/Km² liegen, mit 5 anderen Stationen in nahezu identischer Höhenlage und geografischer Breite verglichen, die aber in deutlich weniger als 10Km Entfernung zum Rand von dicht besiedelten Großstädten (>1000EW/Km²) liegen. Zwei dieser 5 großstädtisch beeinflussten Stationen, nämlich das mit Abstand wärmste Leverkusen und das gleich dahinter folgende Duisburg- Friemarsheim, liegen sogar mitten in Großstädten. Alle 10 Einzelstationen gehören dem Binnenland- Klima im nordwestdeutschen Tiefland an; jede der beiden Gruppen weist durchschnittliche Höhenlagen von knapp 50 Metern auf. Verfügbar waren die Jahresmitteltemperaturen der Jahre 1999 bis 2004 (Quelle: DWD, Witterungsreport). Es wurden die arithmetischen Temperaturmittelwerte der beiden Fünfergruppen gebildet; ihr Jahresgang ist in der Abbildung 8 dargestellt:

Abb. 8: Gang der Mittelwerte aus den 5 Großstadt- beeinflussten Stationen (Orange) Leverkusen (44m), Duisburg- Friemarsheim (31m), Tönisvorst bei Krefeld (39m), Düsseldorf (Flughafen, 37m) und Köln- Bonn (Flughafen, 92m) mit denen der 5 mittelstädtischen bis ländlichen, dünner besiedelten Nachbar- Stationen (Blaugrün) Kleve (46m), Bocholt (21m), Lingen (Ems, 24m), Lippstadt- Bökenförde (92m) und Heinsberg- Schleiden nördlich von Aachen (57m). Alle Stationen liegen im Binnenland, sind im Mittel also etwa gleich hoch gelegen (>20 und <95m) und weisen fast die gleiche geografische Breite auf.

Nun könnte eingewendet werden, es handele sich dabei um eine nordrheinische Besonderheit. Aber in dem rückständigen, von Agrarwirtschaft, sinkender Einwohnerzahl und weitgehend fehlender Großindustrie geprägten Kleinstaat Thüringen, wo es auch viel weniger Großstädte, darunter keine mit auch nur annähernd 500000 Einwohnern, gibt, von denen Erfurt- Bindersleben und Gera- Leumnitz außerdem wegen ihrer relativ großen Höhenlage >300 m schwer vergleichbar sind, zeigt sich für die gut 100000 Einwohner zählende Stadt Jena ein ähnliches Bild (Quelle: DWD, Witterungsreport):

 

Abb . 9: Vergleich der Jahresmitteltemperaturen der inmitten der Großstadt gelegenen Station Jena- Sternwarte (Saale)155m (Orangerote, dicke Linie) mit kleinstädtisch- ländlichen Nachbar- Stationen ähnlicher Höhenlage (Hellbau Bad Kösen/Saale 136m in Sachsen- Anhalt, nahe Thüringer Landesgrenze, Braun Artern/Unstrut 164m, Blaugrün Tegkwitz 193m (Altenburger Land). Anmerkung: Die Großstadt Jena ist mit 923 EW/km² deutlich weniger dicht besiedelt als die Ruhrgebietsstädte, was die etwas geringeren Temperaturdifferenzen zum Umland erklärt.

Der städtische Wärmeinsel- Effekt zeigt sich auch am gehäuften Auftreten Wärme liebender (thermophiler) Pflanzenarten in den Städten (KÄMPFE 1998).

Unter vergleichbaren Bedingungen sind also Stationen in der Nähe von oder gar in dicht besiedelten Regionen um 0,4 bis 0,8 K wärmer als ländlich- kleinstädtische Regionen- und dabei handelt es sich nur um zusätzliche, „großstadtbedingte“ Erwärmungseffekte! „Denkt“ man sich den baulichen und siedlungsbedingten WI- Effekt, der auch in ländlichen Räumen und kleineren Städten auftritt, noch weg, so wird klar, dass im Zuge der seit Jahrhunderten fortschreitenden Bebauung und Besiedlung in Deutschland, flächenhafte Erwärmungseffekte von deutlich über 1K aufgetreten sind, die übrigens auch den aktuellen, vor gut 10 Jahren begonnenen Temperaturrückgang erheblich abbremsen. 

In Gebieten ohne Bevölkerungszunahme bewirken also geänderte Landnutzung (Melioration) und zunehmende Bodenversiegelungen ebenfalls Erwärmungseffekte. Diese können im Einzelfall sogar sinkende Einwohnerzahlen überkompensieren, so in Ostdeutschland. Denn vor allem in Ostdeutschland nahm die Bautätigkeit seit 1990 stark zu, woraus sich die Temperaturanstiege der untersuchten ostdeutschen Stationen Erfurt und Potsdam teilweise erklären lassen, während die wachsende touristische Erschließung die Erwärmung der Stationen Brocken und Helgoland beschleunigte.

Insgesamt bleibt festzuhalten, dass Offenbach überdurchschnittlich vom WI- Effekt profitierte, zumal es im Rhein- Main- Gebiet außer steigenden Einwohnerzahlen ebenfalls eine rege Großbautätigkeit seit 1980 gab, man denke nur an den mehrfachen Ausbau des nahen Frankfurter Flughafens.

Zum Abschluss dieses ersten Themenschwerpunktes soll anhand der Stationen Brocken und Offenbach sowie des Deutschland- Mittels (Datenquelle: Wikipedia) gezeigt werden, dass der neuzeitliche Temperaturanstieg beendet ist:

Abb. 10: Erst Anstieg, dann Stagnation oder geringer Rückgang am Beispiel von Offenbach (Gelb, oben), Deutschlandmittel (Olivgrün, Mitte) und Brocken (Blau, unten).

Noch deutlicher zeigt sich der wieder beginnende Abwärtstrend anhand der Wintertemperaturen:

Abb. 11: Schlechte Zeiten- Gute Zeiten- Schlechte Zeiten: Wintertemperaturen von Helgoland (oben), Erfurt (Mitte) und Brocken (unten). Nach relativ vielen Kältewintern bis 1987 und den guten Zeiten der späten 1980er und 1990er Jahre mit häufiger milden Wintern, nur unterbrochen durch die Eiswinter 1995/96 und 96/97, verschlechterte sich das Klima etwa seit der Jahrtausendwende wieder- der letzte, noch durchgängig milde Winter war 2007/08; danach blieb kein Winter mehr ohne wenigstens eine strenge Kältewelle; auch der aktuelle, unerwartet kalte, schneereiche Januar 2013 (hier noch nicht erfasst) passt in diesen Trend.

Alle übrigen hier untersuchten Stationen zeigen ein ähnliches Trendverhalten, und auch der Lineartrend des Deutschland- Mittels zeigt eine fallende Tendenz:

Abb. 12: Das „Klimaoptimum“ wurde bezüglich der Wintertemperaturen schon 1988 bis 1990 erreicht; seitdem werden die Winter in Deutschland tendenziell wieder kälter. Einzelne, extrem milde Winter kann es auch in Abkühlungsphasen geben (2006/07 und 2007/08). 

Die Aussage, dass wir uns bereits in einer Abkühlungsphase befinden, bekräftigt die folgende Abbildung:

Abb. 13: Während zur Zeit des Klimaoptimums der späten 1980er bis frühen 2000er Jahre in Berlin- Dahlem nur selten extrem niedrige absolute Jahresminima beobachtet wurden, traten sie in den letzten Jahren gehäuft auf; aber die Jahresmaxima sind hingegen kaum gestiegen. Die Differenz zwischen Maxima und Minima, aber auch die Schwankungsbreite zwischen den einzelnen Jahren, hat sich deutlich erhöht- typisch für den Beginn einer Abkühlungsperiode. Bemerkenswert ist vor allem, dass weder der WI- Effekt noch der angebliche „Treibhauseffekt“ durch CO2 den Rückgang der Minima an dieser Großstadt- Station verhindern konnten.

Über die möglichen Ursachen hierfür werden wir im dritten Themenschwerpunkt ausführlich berichten. Auch für die vergleichsweise geringere Temperaturzunahme in Nürnberg gibt es eine plausible Erklärung, die im zweiten Themenschwerpunkt gegeben wird.

Verfasst und zusammengestellt (2013) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

Literatur- und Informationsquellen für Teil 1

Böss, M.: Bevölkerungsentwicklung in der Region

Frankfurt/Rhein-Main – Aspekte der

räumlichen Planung unter besonderer

Berücksichtigung der Stadt Bad Homburg

Abteilung Analysen und Konzepte

Planungsverband Ballungsraum Frankfurt/Rhein-Main, Vortrag, Bad Homburg, 3. Februar 2009

Berliner Wetterkarte und Berliner Wetterkarte e.V (1990 bis 2011): Beiträge zur Berliner Wetterkarte. Klimatologische Übersicht Europa, Monatsausgaben Januar 2000 bis Dezember 2011 sowie Monats- und Jahresbeilagen der Werte von Berlin- Dahlem 1990 bis 2012

Deutscher Wetterdienst (1991 bis 1999): Beilagen zur Wetterkarte des Deutschen Wetterdienstes. Klimatologische Werte für die Jahre und Monate 1991 bis 1999

Deutscher Wetterdienst (2000 bis 2005): WITTERUNGSREPORT und WITTERUNGSREPORT express. Monatshefte Januar 1999 bis Dezember 2005 und Jahresausgaben 1999 bis 2004

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979

Heise, J., Myrcik, G.: Die Monate Januar bis Dezember in der 100- Jährigen Beobachtungsreihe von Berlin- Dahlem 1908 bis 2007. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilagen 34, 41, 48, 55, 63, 69, 74 und 84/07 (April bis November) sowie 05, 17, 22 und 29/08 (Dezember, Januar bis März)

Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu

Kämpfe, S. (1998): Pflanzen als Klimazeiger- ein Beitrag zur Vegetationsgeografie in Thüringen-. Beilage Nr. 196/1998 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012

Linhard, D. (2010): Untersuchungen zur Flora und zum Mikroklima von Krems an der Donau. Diplomarbeit an der Universität Wien

Malberg, H. (2009): Über das Stadtklima und den Klimawandel in Deutschland seit 1780. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 36/09 (Sonderbeilage 18/9) vom 26.05.2009

Meteorologischer Dienst der DDR, Hauptamt für Klimatologie in Potsdam (1979 bis 1990): Monatlicher Witterungsbericht für das Gebiet der Deutschen Demokratischen Republik. Beilage zum Täglichen Wetterbericht. Sonderhefte (Jahresberichte 1979 bis 1990)

Oke, T.R. (1973): City size and the urban heat island. Atmospheric Environment 7: 769-779.

www.pik-potsdam.de/services/climate-weather-potsdam Monats- und Jahreswerte der Säkularstation Potsdam

www.wetteronline.de Klimarechner, Werte der Lufttemperatur und der Sonnenscheindauer einiger deutscher Stationen ab 1980

www.wetterkontor.de Werte der Lufttemperatur und der Sonnenscheindauer einiger deutscher Stationen ab 1990

http://.wikipedia.org/ Zeitreihe der Lufttemperatur in Deutschland und Angaben zu den Einwohnerzahlen und Einwohnerdichten der untersuchten Ortschaften




Mafia auf Umweltisch: NABU steigt in die Schutzgeldbranche ein

Wie Du mir so ich Dir! könnte man denken, wenn man so liest, wie der Naturschutzbund Deutschland „NABU“ ungeniert in die Kasse der Windkraftbeutemacher greift.

Die Berliner Zeitung schreibt dazu:

In der Windkraftbranche schrillen die Alarmglocken – sogar außerhalb Hessens. „Das ist der Einstieg des Nabu in die Schutzgeldbranche“, sagt Johannes Lackmann. Der ehemalige Chef des Bundesverbands Erneuerbare Energie und Geschäftsführer von WestfalenWind, erwägt derzeit sogar eine Strafanzeige wegen der aus seiner Sicht stattfindenden „Erpressung“ durch den Nabu. „Das darf als Geschäftsmodell für Umweltverbände auf gar keinen Fall Schule machen“, sagt er. „Das Verhalten des Nabu ist ein krasses Beispiel dafür, dass der Machtanspruch des Verbandes völlig aus dem Ruder läuft“, empört sich Lackmann.

Der Nabu, der ohnehin zu den am besten finanzierten Umweltverbänden gehöre, verschaffe sich jetzt indirekt eine zusätzliche Einnahmequelle. „Setzt sich dieses Modell durch, dann ist das wie eine Sonderabgabe auf die Energiewende und wird den Ausbau der Windkraft stark behindern.“ Der Nabu nutze seine Sonderrechte „schamlos“ aus……

Gefunden auf ACHGUT, mit Dank an Spürnase Benny Peiser




Begutachtete Umfrage: Mehrheit der Wissenschaftler skeptisch bzgl. der Krise der globalen Erwärmung

Bild rechts: Wikipedia

Es sieht so aus, als existiere schließlich doch noch allmählich ein wissenschaftlicher Konsens bzgl. der globalen Erwärmung. Nur 36 Prozent der Geowissenschaftler und Ingenieure glauben, dass die Menschen eine globale Erwärmungs-Krise erzeugen, jedenfalls einer neuen Umfrage zufolge, die in den wissenschaftlich begutachteten Organization Studies veröffentlicht worden ist. Im Gegenteil, eine starke Mehrheit der 1077 Befragten glaubt, dass die Natur der hauptsächliche Grund der jüngsten globalen Erwärmung ist und/oder dass die globale Erwärmung in der Zukunft kein ernstes Problem werden wird.

Die Umfrageergebnisse zeigen, dass die Geowissenschaftler (auch als Erdwissenschaftler bekannt) und Ingenieure ähnliche Ansichten pflegen wie Meteorologen. Zwei Umfragen unter Meteorologen enthüllten vor Kurzem einen ähnliche Skeptizismus hinsichtlich der alarmistischen Behauptungen zur globalen Erwärmung (zusammengefasst hier und hier).

Der neuen veröffentlichten Umfrage unter Geowissenschaftlern und Ingenieuren zufolge glauben gerade mal 36 Prozent der Antwortenden an das „Kyoto-Modell“. Die Wissenschaftler in dieser Gruppe „geben ihrem starken Glauben Ausdruck, dass die Klimaänderung im Gange ist, dass es sich dabei nicht um einen normalen natürlichen Zyklus handelt, und dass die Menschen der Haupt- oder zentrale Grund sind“.

Die Autoren des Umfrageberichtes weisen jedoch darauf hin, dass die überwältigende Mehrheit der Wissenschaftler in vier andere Modelle fällt, von denen jedes skeptisch hinsichtlich der alarmistischen Behauptungen zur globalen Erwärmung ist.

Die Umfrage zeigt, dass 24 Prozent der antwortenden Wissenschaftler an das Modell von der „überwältigenden Natur“ glauben. „In diagnostischer Hinsicht glauben sie, dass Änderungen des Klimas natürlich und normale Zyklen der Erde sind“. Außerdem „stimmen sie überhaupt nicht zu, dass die Klimaänderung irgendein signifikantes Risiko darstellt, und sie sehen keinen Einfluss auf ihr persönliches Leben“.

Eine andere Gruppe Wissenschaftler glaubt an das „Fatalisten“-Modell. Diese Wissenschaftler, die 17 Prozent der Antwortenden umfassen, „diagnostizieren die Klimaänderung sowohl als vom Menschen als auch von der Natur verursacht. ‚Fatalisten‘ betrachten die Klimaänderung als kleineres öffentliches Risiko, das wenig Auswirkung auf ihr persönliches Leben hat. Sie sind skeptisch, dass die wissenschaftliche Debatte hinsichtlich der IPCC-Modelle wirklich ‚settled‘ ist“. Diese Wissenschaftler werden wahrscheinlich fragen „Wie kann irgendjemand Maßnahmen ergreifen, wenn die Forschung verzerrt ist?“

Sehen Sie hier den Vortrag von James Taylor The Heartland Institute anlässlich der 5. IKEK München.

Die nächstgrößere, 10 Prozent umfassende Gruppe Wissenschaftler glaubt an das Modell der „ökonomischen Verantwortung“. Diese Wissenschaftler „diagnostizieren die Klimaänderung als natürlich oder vom Menschen verursacht. Mehr als jede andere Gruppe unterstreichen sie, dass der ‚wirkliche‘ Grund für die Klimaänderung unbekannt ist, da die Natur sich immer verändert und unkontrollierbar verhält. Ähnlich den Anhängern des Modells von der ‚überwältigenden Natur‘ lehnen sie die Ansicht ab, dass die Klimaänderung irgendein signifikantes öffentliches Risiko darstellt und sehen auch keine Auswirkung dadurch auf ihr persönliches Leben. Sie halten die wissenschaftliche Debatte ebenfalls mit großer Wahrscheinlichkeit nicht für ‚settled‘ und glauben nicht, dass die IPCC-Modellierungen akkurat sind. Prognostisch verweisen sie auf die Schäden, die das Kyoto-Protokoll und alle Regulationen der Wirtschaft zufügen“.

Die letzte, 5 Prozent umfassende Gruppe Wissenschaftler glaubt an das Modell der „Regulations-Aktivisten“. Diese Wissenschaftler „diagnostizieren die Klimaänderung sowohl als vom Menschen als auch von der Natur verursacht; dass sie ein moderates öffentliches Risiko darstellt mit nur geringen Auswirkungen auf ihr persönliches Leben“. Außerdem „sind sie ebenfalls skeptisch, dass die wissenschaftliche Debatte ‚settled‘ ist, und sie sind höchst unschlüssig, ob die IPCC-Modellierungen akkurat sind“.

Insgesamt marginalisieren diese vier skeptischen Gruppen die 36 Prozent der Wissenschaftler, die glauben, dass die globale Erwärmung vom Menschen verursacht und ein ernstes Problem ist.

Ein interessanter Aspekt dieser neuen Umfrage ist die unmissverständliche alarmistische Neigung der Umfrage-Autoren. Sie benutzen häufig den Ausdruck „Leugner“, um Wissenschaftler zu beschreiben, die hinsichtlich einer vermeintlichen globalen Erwärmungs-Krise skeptisch sind, und sie sagen, dass skeptische Wissenschaftler „gegen die Klimawissenschaft sprechen“, anstatt zu sagen, dass sie „gegen die behaupteten Klimaprojektionen“ sprechen. Demzufolge wird es für die Alarmisten schwierig sein zu argumentieren, dass die Umfrage verzerrt oder irgendwie mit der ‚großen rechtsgerichteten Klimaleugnungs-Maschine‘ verbunden ist.

Ein anderer interessanter Aspekt dieser neuen Umfrage ist, dass sie von dem Glauben der Wissenschaftler selbst berichtet und nicht von dem der Bürokraten, die oftmals alarmistische Statements veröffentlichen, ohne ihre mitarbeitenden Wissenschaftler zu befragen. Wir haben jetzt Meteorologen, Geowissenschaftler und Ingenieure, die allesamt bekunden, dass sie hinsichtlich einer globalen Erwärmungs-Krise skeptisch sind; und doch gehen die Bürokraten dieser Organisationen rasch an die Medien und an die Geldgeber der Regierung, indem sie versuchen, uns das Gegenteil von dem zu sagen, was ihre mitarbeitenden Wissenschaftler wirklich glauben.

Personen, die hinter die eigennützigen Statements der globalen Erwärmungs-Alarmisten hinsichtlich eines vermeintlichen „Konsens‘“ schauen, haben immer gewusst, dass kein solcher alarmistischer Konsens unter den Wissenschaftlern existiert. Wenn wir jetzt Zugang zu den Ansichten der Wissenschaftler selbst haben, wird klar, dass viele Wissenschaftler die vermutete globale Erwärmungs-Krise nicht nur in Frage stellen, sondern dass diese skeptischen Wissenschaftler tatsächlich zu einem Konsens kommen können.

James Taylor Contributor

Link: http://www.forbes.com/sites/jamestaylor/2013/02/13/peer-reviewed-survey-finds-majority-of-scientists-skeptical-of-global-warming-crisis/

Übersetzt von Chris Frey EIKE




Über diese Verbindungen zur Tabakindustrie…

In der Klima-Blogosphäre gibt es Gerede über eine neue Studie, in der behauptet wird, dass die fiskalisch konservative Bewegung in den USA, bekannt unter dem Namen Tea Party, Verbindungen zu Big Tabak unterhält. Zum Beispiel twittert der Klimatologe Michael Mann darüber:

Die fragliche Studie wurde in einem Journal veröffentlicht mit dem Titel Tobacco Control. Man kann sich einen Tag den Zugang hier erkaufen, wenn man 30 US-Dollar zahlen möchte (in Kanada beträgt der Preis 20 Britische Pfund).

Autor der Studie ist ein Professor an der University of California in San Francisco namens Stanton Glantz. Da es sich hier um eine Diskussion darüber handelt, wer mit wem hinter den Kulissen verbunden ist, muss man sehen, dass Glantz zufällig im Editorial Advisory Board genau dieses Journals sitzt.

In jedem Falle gibt es seitens der Klimaaktivisten eine lange Historie, den Klimaskeptizismus mit der Behauptung zu verunglimpfen, dass sich die Skeptiker wie Big Tobacco verhalten, in dem sie die Dringlichkeit der Klimakrise in Frage stellen; dass sie sich einer „tobacco strategy” bedienen, um ihren Standpunkt zu verbreiten, und so weiter. In der Welt der Comics, die von solchen Leuten bewohnt wird, sind Klimaskeptizismus und die Tea Party praktisch ununterscheidbar, daher das Interesse an dieser Studie.

Die University of California hat eine Presseerklärung verbreitet mit der Schlagzeile: „Study: Tea Party Organizations Have Ties To Tobacco Industry Dating Back To 1980s” [etwa: „Studie: Tea Party-Organisationen haben Verbindungen zur Tabakindustrie bis zurück in die achtziger Jahre”]. In der Presseerklärung wird Glantz zitiert:

Nichtkommerzielle Organisationen, die mit der Tea Party-Bewegung assoziiert sind, haben seit Langem Verbindungen zu Tabakunternehmen und fahren unverändert fort, im Namen der Tabakindustrie die Agenda der Anti-Steuern und Anti-Regulationen voranzutreiben.

Wir wollen uns zuerst mit der letzten Hälfte dieses Satzes befassen. Die Behauptung lautet, dass die Tea Party die industrielle Agenda der Tabakindustrie vorantreibt. Außer dass die Feindschaft gegenüber exzessiver Steuern und Arbeitsplätze vernichtender Regulationen tatsächlich ihrer eigenen Agenda entspricht. Diese Gedanken stehen im Mittelpunkt einer fiskalisch konservativen ökonomischen Analyse.

Selbst falls Tabak nie existiert hätte, wäre die Tea Party immer noch gegen Bürokratie. Sie würde immer noch sagen, dass normale Leute zu viele Steuern zahlen. Jeder Professor, der glaubt, die Opposition der Tea Party gegen Steuern wäre von der Tabakindustrie orchestriert, sollte aus einem Elfenbeinturm heraus treten und etwas frische Luft atmen.

Was uns zum ersten Teil des Satzes bringt. Uns wurde gesagt, dass Tea Party-Organisationen „seit Langem Verbindungen zur Tabakindustrie“ haben. Nun, wenn das ausreichend sein sollte, die Tea Party zu diskreditieren, sollte es auch ausreichen, weite Bereiche des Umweltaktivismus’ ebenfalls zu diskreditieren.

Bereits im Jahr 1996 berichtete die New York Times, dass sechs Jahre, nachdem Al Gores Schwester an Lungenkrebs gestorben war, dass er selbst „immer noch Beiträge für seine Kampagnen von Tabak-Interessen angenommen hat“. Im Jahre 1999 hat die Zeitung enthüllt, dass Gores oberster Medienberater Carter Eskew…

…mitgeholfen hat, einen Werbespot im Wert von 40 Millionen Dollar für die großen Tabakunternehmen zu entwerfen, und zwar während des Kampfes des Kongresses gegen amtliche Anti-Tabak-Gesetze… (Eskew) ist nicht das einzige Mitglied im Gore-Team mit Verbindungen zur Tabakindustrie. Tina Flournoy, Finanzdirektorin von Gore, saß einstmals im Direktorium von Philipp Morris, und Jonathan Tisch, einer seiner obersten Spendeneintreiber in New York, ist Spitzenmanager bei der Loews Corporation, der Muttergesellschaft von Lorillard Tobacco.

Am Beginn der Kampagne im Jahre 1988 konnte Gore gar nicht laut genug schreien über die zentrale Rolle, die Tabak in seinem Leben gespielt hat:

Während fast meines ganzen Lebens habe ich Tabak angebaut… Ich möchte, dass Sie wissen, dass ich mit meinen eigenen Händen, mein ganzes Leben lang die Pflänzchen in die Erde gebracht und pikiert habe. Ich habe die Erde gehackt. Ich habe den Tabak geerntet. Ich habe ihn geschreddert, ihn veredelt, ihn gelagert und dann verkauft. (Hervorhebung hinzugefügt).

Und wir wollen nicht die Verbindungen des World Wildlife Fund zur Tabakindustrie vergessen. Das im Jahr 2011 erschienene Buch Saving the World’s Wildlife: WWF – the first 50 years wurde mit der Kooperation von WWF-Funktionären geschrieben. Darin heißt es, dass diese Organisation während der Apartheit in Südafrika dortigen Unternehmen ein warmes Willkommen bereitet hätte. Auf Seite 120 liest man:

WWF Südafrika war in vielfacher Hinsicht ein spezieller Zweig des (WWF). Anstatt in der allgemeinen Bevölkerung Anklang zu finden, stammt dessen Einkommen von Mitgliedern der Unternehmen. 72 Unternehmen traten innerhalb eines Jahres bei, und zwar dank der unermüdlichen Werbung von Anton Rupert bei Unternehmen in Südafrika.

Rupert war einer der Gründer des WWF und einer der reichsten Männer der Welt. Woher stammt sein Reichtum? Vom Tabak. In einem Nachruf wird das erklärt:

Unter der Prämisse, dass es immer eine große Nachfrage nach Tabak geben würde, egal was in der Welt passieren würde, entwickelte er ein Unternehmen zur Zigarettenherstellung namens Voorbrand, was aber bald in Rembrandt Ltd umbenannt worden ist. Deren Interessen in Übersee wurden letztendlich von Rothmans wahrgenommen.

Der WWF ist die größte und wohlhabendste grüne Lobbygruppe des Planeten. Einer seiner Gründer war ein Tabakbaron.

Al Gore hat für seinen Aktivismus hinsichtlich der Klimaänderung den Friedensnobelpreis gewonnen. Er war inniglich mit der Tabakindustrie verbunden, und zwar fast sein ganzes Leben lang.

Wird Professor Glantz eine Studie über diese Tatsachen schreiben? Wird er in einer Presseerklärung bekannt geben, dass sowohl Al Gore als auch der WWF „seit Langem Verbindungen zu Tabakunternehmen haben“?

Wird seine Universität eine Presseerklärung verbreiten, die bereits in der Überschrift verkündet, dass die Verbindungen des WWF zur Tabakindustrie bis in die sechziger Jahre zurück reichen?

Und schließlich, werden die gekauften PR-Profis, die als Aktivisten im DeSmogBlog posieren, sich darüber auslassen, wie der WWF „von der Tabakindustrie und Milliardären gegründet worden war“?

Link: http://nofrakkingconsensus.com/2013/02/11/about-those-tobacco-connections/

Übersetzt von Chris Frey EIKE




Erst Kohle, jetzt Kernkraft: Die Schiefer-Revolution krempelt die Energieindustrie um

Block 3 des von Duke betriebenen Crystal River-Kernkraftwerkes  (Bild rechts) trifft das gleiche Schicksal wie der von Dominion Resources Inc. betriebene Kewaunee-Reaktor in Wisconsin, der als erstes wegen der steigenden Versorgung mit Schiefergas herunter gefahren wird. Das steht als Signal für Betriebe von Japan bis nach Belgien, wo man sich ebenfalls überlegt, Reaktoren außer Betrieb zu nehmen. Mindestens vier weitere US-Reaktoren stehen ebenfalls auf der Kippe, vorzeitig geschlossen zu werden wegen der neuen Bedingungen auf dem Energiemarkt, sagte Julien Dumoulin-Smith, ein in New York ansässiger Analyst bei UBS Securities LLC in einem Telefoninterview.

„Der Treibstoff des Tages ist Erdgas”, sagte der Funktionär der Regierung von Florida J. R. Kelly in einem Telefoninterview. „Ich persönlich glaube an die Diversität von Treibstoffen. Ich habe nur Bedenken, dass die Kosten neuer Kernkraftwerke unerschwinglich sein werden“.

Die Frage für Duke, dem Marktwert nach größten Unternehmen in den USA, lautet, ob es die Regulatoren in Florida erlauben, den Verbrauchern des [US-Bundes]Staates 1,65 Milliarden Dollar wegen der unnützen Investitionen in den Reaktor in Rechnung zu stellen, während es gleichzeitig die schon jetzt starke Abhängigkeit des Staates von Gas weiter erhöht, um Treibstoff für die Stromerzeuger zu liefern.

Vorteile für den Verbraucher

„Die Public Service Commission von Florida erwartet Anhörungen, um zu entscheiden, ob sich die Entscheidung von Duke, das Kraftwerk zu schließen, für die Verbraucher auszahlt.“ Das sagte die Sprecherin der Kommission Cynthia Muir in einem Telefoninterview.

Kelly sagte, dass er „einen sehr genauen Blick” auf die Anfrage von Duke nach Förderung werfen werde. „Wir werden unsere Zahler nicht im Regen stehen lassen“.

Jim Rogers, der Generaldirektor von Duke, ist einer der Manager, die gewarnt haben, dass eine zu starke Abhängigkeit von Erdgas für die Verbraucher das Risiko von Preissprüngen enthält, wenn die Treibstoffkosten steigen, wie es oft der Fall war in den Jahren, bevor die Erzeuger gelernt haben, es aus dem umgebenden Gestein in den USA und Kanada zu extrahieren.

„Wir betrachten Gas als die brauchbarste kurzfristige Option”, sagte der Duke-Sprecher Mike Hughes in einem Interview. „Die Kosten sind niedrig und wir gehen davon aus, dass das in absehbarer Zukunft auch so bleibt. Langfristig glauben wir, dass man nicht alle unsere Brötchen in den Gas-Korb werfen sollten“.

Gas-Verzerrung [Distortion]

Ein von Schiefergas getriebener Abfall der Gaspreise macht die Energieindustrie diesem Treibstoff zugeneigt, sorgt er doch für fallende Strompreise und Druck auf die Profite von Kohle und Kernkraft. Gleichzeitig machen es steigende Treibstoffpreise und eskalierende Sicherheitsreparaturen an älteren Einheitsreaktoren [single-unit reactors] wie Crystal River immer schwieriger, diese rentabel zu betreiben.

„Erdgas verzerrt wirklich die Märkte”, sagte Margaret Harding, eine Referentin der Kernkraftindustrie in einem Telefoninterview. „Wenn diese kleinen, alten Kraftwerke mit einer Menge Kapital aufgepäppelt werden, wird das schwierig zu rechtfertigen sein“.

Gas wurde in den meisten Regionen der USA zur billigsten Energiequelle, sind doch die Preise um 75% unter den Spitzenpreis von 13,695 Dollar pro Million britischer Thermaleinheiten (Btus) am 2. Juli 2008 gefallen.

Daten zufolge, die von Bloomberg New Energy Finance zusammengestellt worden waren, beliefen sich die Gesamtkosten der Stromerzeugung im vierten Quartal einschließlich Ausgaben für Betrieb und Kapital auf 90,42 Dollar pro Megawattstunde in einem kombinierten Kreislauf-Gaskraftwerk, 140,13 Dollar in einem Kohlekraftwerk und 143,29 Dollar in einem Kernkraftwerk. Dem Energy Department in Washington zufolge kann eine Megawattstunde etwa 800 normale US-Wohnungen für eine Stunde mit Strom versorgen.

Kein Wettbewerb

Der Trend hat Unternehmen veranlasst, eher Gaskraftwerke als eine Serie von neuen Kernkraft-Giganten zu bauen, wie es einst vorhergesagt worden war nach dem 14 Milliarden Dollar teuren Neubau von Reaktoren in Georgia.

„Der Markt sagt uns, dass derzeit nichts wirklich mit Erdgas wettbewerbsmäßig mithalten kann, außer seinen Erneuerbaren, die vollgestopft sind mit Subventionen“, sagte Samuel Brothwell, ein leitender Analyst bei Bloomberg Industries, in einem Telefoninterview. „Die Herausforderung hier besteht darin, dass Erdgas ein großartiger Treibstoff für Kraftwerke sein kann, aber es darf nicht der einzige Treibstoff für Kraftwerke sein“.

Brothwell zufolge nutzt Florida Gas bereits zu etwa zwei Drittel seiner Stromerzeugung und riskiert, zu stark abhängig von einem Treibstoff zu werden, dessen Preis von 2 Dollar auf 15 Dollar pro Million Btus gesprungen und dann wieder auf 2 Dollar seit Anfang dieses Jahrhunderts gefallen ist. Die Abhängigkeit Floridas würde später in diesem Jahrzehnt auf über 70% steigen, falls Duke neue Gaskraftwerke baut, um den havarierten Crystal River-Reaktor zu ersetzen.

‚Humpty Dumpty’

Floridas Regulatoren könnten immer noch bevorzugen, sich auf historisch volatiles Gas zu verlassen, als Milliarden Dollar für die Reparatur eines Reaktors auszugeben, der den Spitznamen „Humpty Dumpty“ wegen der Risse in der Reaktorhülle erhalten hat, ohne Garantie, dass dieser Reaktor je wieder in Betrieb genommen wird. Die staatliche Lizenz für Crystal River läuft im Jahre 2016 aus, und eine Verlängerung um 20 Jahre von der US Nuclear Regulatory Commission zu bekommen ist selbst nach Reparaturen nicht sicher.

„Ich verstehe ihre Entscheidung”, sagte Kelly, der Vertreter der Verbraucher von Duke in Florida. „Wenn sie sich entschlossen hätten, ihn zu reparieren und dann keine Lizenz bekommen hätten, könnten die Ratenzahler noch viel mehr Geld verlieren“.

Duke hat den 36 Jahre alten Reaktor erstanden, als es das Unternehmen Progress Energy Inc. im vorigen Jahr gekauft hat. Das Management von Duke hat dann den damaligen leitenden Direktor Bill Johnson nur Stunden nach der Übernahme seines früheren Unternehmens gefeuert, weil er dazu bestimmt war, Crystal River zu reparieren.

Durchdrehen [Cracking up]

Der bunkerartige Betonbau mit dem 860-Megawatt-Reaktor darin bekam  2009 Risse, als man Dampfgeneratoren austauschen wollte, gewaltige Rohre, die Wärme vom Kernreaktor zu Energie erzeugenden Turbinen leiten. Als das beschädigte Paneel ausgetauscht war, bekamen zwei andere Sektionen Risse, nachdem Ingenieure Stahlseile eingezogen hatten, um das Bauwerk zu verstärken.

Ein Bericht des Unternehmens kam zu der Schlussfolgerung, dass sich die Reparaturkosten des Reaktors auf 1,49 Milliarden Dollar belaufen könnten und damit der größte Versicherungsfall jemals für einen US-Reaktor wäre, und bis zu 3,43 Milliarden Dollar in einem Worst-Case-Szenario, bei dem sich die Risse bis zur Dachwölbung ausdehnen könnten. Bei Duke überlegt man, ein neues, mit Gas betriebenes Kraftwerk zu bauen, um den Ausfall des Reaktors zu ersetzen.

„Gas ist jetzt der Treibstoff und die Technologie unserer Wahl“, sagte Hughes, der Sprecher von Duke. „Es war einer der sehr wichtigen Faktoren bei der endgültigen Entscheidung hinsichtlich der finanziellen Implikationen einer Reparatur oder einer Außerbetriebnahme“.  

Die meisten Investoren hatten erwartet, dass Duke Crystal River schließt. Daher hat die alle Ungewissheiten ausräumende Erklärung „als positiv für das Unternehmen und die Aktien gelesen werden“, schrieb Daniel Ford, ein in New York ansässiger Analyst bei Barclays Capital Inc. in einem Forschungsbericht. Duke fiel um 0,4% auf 68,64 Dollar an der Börse in New York.

Wirtschaftliche Überlegungen

Wie das Kenauwee-Kraftwerk von Dominion haben die Generatoren in finanziell höchst angespannter Lage einen einzigen Reaktor und verkaufen Strom an deregulierte Märkte, in denen die Nachfrage unverändert ist, billigere Energiequellen reichlich vorhanden und Zahlungen von den Endverbrauchern zu niedrig sind, um die steigenden Treibstoff- und Wartungskosten aufzufangen, sagte Dumoulin-Smith von UBS.

Während der havarierte Reaktor von Duke einer regulierten Einrichtung gehört, was es ermöglicht, die Reparaturkosten durch staatlich genehmigte Steigerungen der Raten aufzubringen, werden die anderen Kraftwerke in Wettbewerbs-Märkten betrieben von Exelon Corp. und Entergy Corp., wo das Kapital aus Verkäufen stammt. Dumoulin-Smith sagt, dass die Exelon-Kraftwerke Clinton in Illinois und Ginna im Staat New York sowie die Entergy-Kraftwerke Fitzpatrick und Vermont Yankee das größte Risiko aufweisen, geschlossen und fast mit Sicherheit durch Gaskraftwerke ersetzt zu werden.

 „Wir tun alles, was wir können, um Clinton weiter zu betreiben, und wir haben noch keine Entscheidung gefällt, das Werk zu schließen”, sagte Joe Dominguez, Vizepräsident bei dem in Chicago ansässigen Unternehmen Exelon, in einem Telefoninterview. „Indem ich dies sage, analysieren wir jedes unserer Kraftwerke auf jährlicher Basis, um ihre weitere ökonomische Brauchbarkeit zu eruieren“.

Reaktoren in Kalifornien

Edison International, dem Kaliforniens zweitgrößter regulierter Versorgungsbetrieb gehört, arbeitet mit den Regulatoren zusammen um zu bestimmen, ob zwei Reaktoren in San Onofre nahe Los Angeles sicher und kosteneffektiv wieder in Betrieb genommen werden können, oder ob sie wegen ungewöhnlicher Abnutzung seiner Dampfgeneratoren für ein Jahr geschlossen werden müssen.

Entergy, ansässig in New Orleans, glaubt, dass sich mit der Zeit die Energiemärkte ausreichend erholen, um Kernkraftwerke außerhalb regulierter Richtlinien zu stützen. „Wir glauben, dass Kernkraftwerke ein wichtiger Bestandteil im Portfolio der Energieerzeugung in den USA bleiben wird“, sagte Mike Burns, ein Sprecher bei Entergy.

„Das Schließen weiterer Reaktoren würde Generatoren und Verbraucher sogar noch abhängiger machen von Schieferbohrungen und dem Gas, das sie fördern“, sagte David Herr, Direktor an der Investmentbank Duff & Phelps.

„Das Risiko, wenn wir all unsere Brötchen in diesen einen Korb werfen, ist Folgendes: Das Schiefer-Phänomen und unsere Fähigkeit, eine riesige Menge billigeren Treibstoffes herzustellen“, sagte Herr, der der Abteilung Energie und Bergbau bei der Bank vorsteht, in einem Interview.

Julie Johnsson & Jim Polson, Bloomberg

To contact the reporters on this story: Julie Johnsson in Chicago at jjohnsson@bloomberg.net; Jim Polson in New York at jpolson@bloomberg.net

To contact the editor responsible for this story: Susan Warren at susanwarren@bloomberg.net

Link: http://www.thegwpf.org/coal-nuclear-shale-revolution-remaking-power-industry/

Übersetzt von Chris Frey EIKE




Energiewende Light! Eine Anleitung zum vernünftigem Handeln!

Alle Parteien sind sich einig. Die DDR läßt grüßen.

Die Verbindung von großspurigen Phantasiezielen und völliger Unfähigkeit  der Ministerialbürokratie zur Ablieferung seriöser Arbeit; die zahllosen  Fehlentscheidungen und hilflosen Reparaturmaßnahmen, die immer weiter getriebene Planwirtschaft – und alles kritiklos von einem Parlament und einem Bundesrat abgesegnet, dessen Mitglieder nur an Stücken vom Subventionskuchen interessiert sind –  führen unweigerlich in eine Wirtschaftskatastrophe, die mit einem Exodus der Industrie und der  Verarmung der Bevölkerung einher geht (1). Weil es dagegen – abgesehen von der sächsischen FDP, die hier die Rolle des gallischen Dorfes einnimmt – keine politische Opposition gibt, wird der Karren ungebremst an die Wand gefahren.  Die Lage wird sich noch durch den Verlust der schwarz-gelben Mehrheit im Bundesrat weiter verschlimmern, weil  nun die rot-grüne Mehrheit alle Versuche der Regierung, irgend etwas Substantielles am EEG abzuändern, abschmettern wird.

Das Fatale an dieser Situation ist die große Einmütigkeit aller politischen Parteien in ihren Bekenntnissen zur Merkelschen Energiewende, die einerseits sehr an das Märchen von des Kaisers neuen Kleidern erinnert, andererseits aber auch an die pflichtgemäßen Kampf- und Siegesparolen und Gelöbnisse in der DDR. Diese Haltung wird von den Medien überwacht, die Abweichler und Gegner der Energiewende an den Pranger stellen. Die regierungsfrommen Bekenntnisse insbesondere aus den Verbänden erreichten einen Tiefpunkt mit der wiederholten Behauptung, die Energiewende sei „unumkehrbar“.  Anscheinend haben sich diese Leute von der Demokratie verabschiedet, in der nun einmal  alles, was einmal eine Mehrheit beschloß, auch wieder geändert oder auch abgeschafft werden kann.  Sie sind zu gehorsamen Befehlsempfängern geworden.

Es gibt keine politische Kraft in Deutschland, die die Kritik an der gegenwärtigen Energiewendepolitik zu ihrem Programm gemacht hat. Oder kennt jemand eine Partei, die  z.B. diejenigen Bürger vertritt, die die Nutzung der Kernkraft befürworten ? Ihre Zahl ist beachtlich, wie es eine Befragung der BILD-Zeitungs-Leser am 16.10.2012 zeigte: Auf die Frage „Ökostrom wird immer teurer. Wollen Sie die Atomkraft zurück ?“ antworteten 118.827 Leser mit „Ja“ – das waren 65%  der Antworten (2). Verglichen mit der bei allen  Meinungsumfragen typischen Zahl der Befragten von ein- bis zweitausend   haben wir hier die ein Votum, das mehr als hundertfach so stark ist.  Diese Bürger haben aber keine politische Vertretung, denn es gibt  keine Partei, die sie wählen könnten.

Weil alle Parteien einstimmig das Loblied der Energiewende singen, ist es auch gleichgültig, welche Regierung in welcher Konstellation ab Herbst 2013 an die Macht kommen wird: Sie würde die jetzige Politik weiter führen; allenfalls noch verschärft, wenn die Grünen wieder das Umweltministerium erhalten sollten, das schon jetzt weitgehend von ihren  Vertrauten beherrscht wird.

Deshalb ist es auch  aussichtslos, jetzt oder auch später auf Gesetzesänderungen zu hoffen, mit denen die schlimmsten Fehler der bisherigen Energiepolitik revidiert werden könnten. Niemand wird dazu eine Initiative ergreifen. Alle werden sich mit Warten und Gesundbeten begnügen. Wenn erst die Medien von ihrer  bisherigen Energiewende-Propaganda auf Kritik umschalten, wird es längst zu spät sein.

Das ist der Grund für das sehr wahrscheinliche Eintreten der  Wirtschaftskatastrophe  als Endpunkt der Energiewende.  Erst nach dem endgültigen, nicht mehr zu leugnenden Bankrott werden die Politiker umschalten: Sie werden sich dann etwa ein Jahr lang mit gegenseitigen Vorwürfen und Schuldzuweisungen beschäftigen.  SPD, Linke und Grüne werden dann wie üblich die Multis der Sabotage an der schönen Energiewende beschuldigen..

Ein Sandkastenspiel

Man könnte nun sagen, daß die Deutschen es nicht besser verdient haben. Wenn sie so dumm sind, sich eine solche Politik, die sie arm macht, widerstandslos gefallen zu lassen, dann geschieht es ihnen recht.

Das Ärgerliche daran ist, daß die meisten Leute, die schon heute, aber erst recht in naher Zukunft unter den fatalen Folgen der angstbegründeten, ideologischen Politik leiden müssen, nur die  Opfer einer riesigen Manipulation und Falschinformation sind  – und daß Armut und Elend  eine ungerechtfertigte Strafe für sie sind.

Wie könnte ein Gegenmodell einer fiktiven Opposition zur jetzigen  Energiewendepolitik  aussehen ?

Ein Sandkastenspiel: Man stelle sich vor, daß es eine Partei gibt, die tatsächlich an die Marktwirtschaft glaubt. Es ist ja nur eine Fiktion.  Sie hat auch einmal an die Freiheit des Bürgers geglaubt und lehnte deshalb früher viele staatlichen Zwänge ab, die sich die Bürokraten immer wieder ausdachten. Sie ist klein, schlecht geführt und orientierungslos. Merkwürdigerweise ist sie – zumindest bis gegen Herbst dieses Jahres – sogar als fünftes Rad am Wagen in der Regierung, weiß aber nicht mehr, weshalb. Sie hat brav alles unterschrieben, was ihr die Regierungschefin vorlegte und gehört deshalb auch zu den Energiewende-Unterstützern,  ist dabei aber nicht überzeugend, weil eigentlich keiner so recht daran glaubt, es aber auch nicht besser weiß.

Weil sie auf diese Weise der großen Mehrzahl der Bürger ihre Überflüssigkeit vorgeführt hat, wird sie sehr wahrscheinlich nach der großen Wahl als außerparlamentarische Kleinpartei ihr  Dasein fristen.

Geben wir ihr die Arbeitsbezeichnung „Liberale Partei“; kurz LP.

Das Sandkastenspiel geht nun von folgenden höchst unwahrscheinlichen Voraussetzungen aus:

1.     Der sächsischen LP gelingt es, in der Grundsatzdebatte nach der verlorenen Bundestagswahl 2013, ihre Vorstellungen zur Energiepolitik durchzusetzen.

2.     Die Partei hat  die Situation analysiert und akzeptiert, daß es keinen Weg geben kann, der die deutsche Energiepolitik in den Zustand von 1990 zurückversetzen würde. Man stellt fest, daß man die „erneuerbaren“ Stromerzeugungsanlagen, die bereits existieren, nicht per Verschrottungsgesetz beseitigen kann, obwohl das für einen erheblichen Teil derselben das Richtige wäre. Man anerkennt ferner, daß man den Irrglauben an die Richtigkeit des weiteren Ausbaus der „Erneuerbaren“ wegen der jahrelangen Manipulation der Bevölkerung nicht mehr heilen kann.  Möglich wäre aber ein sehr behutsamer Ausbau der Erneuerbaren unter neuen Bedingungen: Mit Schwerpunkt auf der Wärmeerzeugung und mit einer Stabilisierung der fluktuierenden Wind- und Solarstromeinspeisungen aller Anlagen durch zusätzliche technische Maßnahmen. Ferner die Zurücknahme aller marktfeindlichen und planwirtschaftlichen Instrumente, die der Staat mittlerweile geschaffen hat. Weiterhin die Zurücknahme des Kernenergie-Ausstiegs, womit man ein wunderschönes Gegenprogramm zu allen anderen Parteien hätte.

Wichtige Ziele dieses Programms wären: Wiederherstellung einer zuverlässigen Stromversorgung, drastische Senkung des Strompreises, Beendigung aller teuren  Privilegien für Energietechniken, faire Zusammenarbeit mit den Nachbarländern in der Energiepolitik.

Das Programm sollte einen eingängigen Namen erhalten: Vielleicht „Energiewende Light“. Das Protestgeschrei der grünen Medienredaktionen wäre eine willkommene Werbung für die Partei.

Das Programm „Energiewende Light“

Teil 1:  Änderungen der bisherigen Energiepolitik

Anm.: Maßnahmen sind in Fettdruck hervorgehoben.

Strompreise

Trotz der berechtigten Kritik an der rasch steigenden EEG-Umlage im Strompreis ist die Hauptsünde der Energiepolitik älteren Datums: Seit Jahren  belastet der Staat die Energie in einem immer weiter steigenden Umfang. Über die Folgen hat sich bisher keine der dafür     verantwortlichen Regierungen Gedanken gemacht. Die in die Kritik geratene, schnell ansteigende EEG-Umlage ist jedoch nur ein Teil dieser Abschöpfung von Bürger-Kaufkraft und Unternehmensgewinnen.

Nach Schätzung des Bundesverbandes der Energie- und Wasserwirtschaft BDEW  entfällt ab 2013 allein 51 % des Strompreises auf Steuern, Abgaben und staatlich verordnete Umlagen (z.B. EEG-Umlage). Dies kostet die Verbraucher über 30 Milliarden jährlich – 7 Mrd. Euro mehr als im Vorjahr. Deshalb ist die dringendste Maßnahme die kräftige Senkung dieser Belastungen: Sie sind  um 40% zu reduzieren.

Klimawandel

Die Begründung eines angeblich vom Menschen durch seine CO2-Emissionen verursachten  Klimawandels und damit der  angeblichen Notwendigkeit drastischer CO2-Einsparungen wird angesichts des seit 1998 festgestellten Ausbleibens eines globalen Temperaturanstiegs als widerlegte Theorie fallen gelassen. Damit entfällt das bisherige, wesentliche Argument für die Bevorzugung der sog. Erneuerbaren Energien. Alle direkt dazu dienenden Maßnahmen werden beendet – z.B. der Emissionshandel und technische Maßnahmen wie die Abtrennung und Einlagerung von CO2.

Die weitere Verringerung des Verbrauchs an fossilen Brennstoffen bleibt eine permanente Aufgabe – aber nicht zur Rettung der Welt vor einer nicht drohenden  Katastrophe.

Kernkraftwerke

Der rein parteitaktisch betriebene Ausstieg aus der Kernkraft wird rückgängig gemacht. Es wird daher keine weitere vorzeitige Abschaltung von Kernkraftwerken geben. Von den 8 stillgelegten Kernkraftwerken werden 4 sofort wieder in Betrieb genommen;  die übrigen nach eventuell noch zweckmäßigen Modernisierungsmaßnahmen ihrer Sicherheitseinrichtungen.

Damit wird die Zerstörung einer bedeutenden, sicheren und kostengünstigen Grundlasterzeugungs-Kapazität unterbunden.

Die  Anfang 2011 beschlossenen Laufzeitverlängerungen werden wieder in Kraft gesetzt.

Damit entfällt jede Notwendigkeit, Kraftwerksbetreiber zum Weiterbetrieb unrentabler Kohle- und Gaskraftwerke zu zwingen, wie es die Regierung plant.

Die Bundesregierung beginnt, die Entwicklung fortschrittlicher Reaktortechnologien der 4. Generation zu fördern und tritt der Internationalen Arbeitsgemeinschaft aller anderen Industrieländer, die dieses Ziel verfolgt, bei.

Das Stromnetz

Die Sicherheit und Stabilität der Stromversorgung muß durch erweiterte Eingriffsmöglichkeiten der Netzbetreiber gegen destabilisierende und gefährliche Stromeinspeisungen wieder sichergestellt werden. 

Zunächst wird das Kernstück des EEG, die vorrangige Einspeisung  der dort genannten sog. Erneuerbaren Stromerzeuger, abgeschafft.  Auch die im EEG enthaltene Regelung, daß bei einer Ablehnung der Stromeinspeisung  eine Entschädigung gezahlt werden muß, wird gestrichen.

Die Netzbetreiber erhalten das Recht, bei einem die Netzstabilität beeinträchtigenden Überangebot an Strom die Einspeisung von Wind- und Solarstrom abzulehnen. Sie können das ebenfalls tun, wenn durch ein Überangebot an Strom ein Absinken des Börsenpreises unter die Rentabilitätsschwelle von Kohle- oder Gaskraftwerken sowie Pumpspeicherkraftwerken  eintritt. Damit wird vermieden, daß durch die ungebremste, chaotisch fluktuierende Stromeinspeisung der „Erneuerbaren“ das Kerngerüst einer stabilen Stromversorgung beschädigt wird. 

Eine zweite Voraussetzung ist die Stabilisierung und Vergleichmäßigung der Windstromeinspeisungen durch Stromspeicher (s.u.).  Entsprechendes gilt für Photovoltaikanlagen.  Damit wird dafür gesorgt, daß der EEG-Strom dann lieferbar ist , wenn der Strom auch gebraucht wird – und nur dann werden die EEG-Vergütungen bezahlt.

Über einen eventuell noch nötigen Netzausbau kann erst entschieden werden, wenn die oben beschriebenen erweiterten Eingriffsmaßnahmen der Netzbetreiber ihre Wirkung erreicht haben, sich die abgeschalteten Grundlastkraftwerke sowie ausreichende Speicher für die schwankenden Einspeisungen im Netz befinden und  das Stromversorgungssystem damit sicher und stabil geworden ist.

Dieser dann tatsächlich noch nötige Netzausbau und dessen Verwirklichung ist wiederum eine Voraussetzung für einen weiteren Zubau von Windkraftanlagen mit Speichern.

Ein derartiger, behutsamer Netzausbau würde weder die Bürger auf die Barrikaden treiben, noch hohe Kosten verursachen.

Stromspeicher

Die Regierung hat  bei ihrer massiven Förderung der Tageslicht- und Wetterabhängigen und daher für die Stromversorgung prinzipiell ungeeigneten Stromerzeugungstechniken Windkraft und Photovoltaik jahrelang ignoriert, daß von Anfang an – das heißt bereits seit Einführung des EEG – riesige Stromspeicher zum Ausgleich der systembedingten starken Schwankungen des eingespeisten Wind- und Solarstroms erforderlich gewesen wären, die es aber weder damals gab noch heute gibt. Die existierenden Pumpspeicherkraftwerke   reichen bei weitem nicht aus.  Damit war ein Ausgleich dieser Schwankungen von vornherein ausgeschlossen. Eine Möglichkeit für den Aufbau von Speichern, die endlich das System stabilisieren könnten, gibt es erst seit Kurzem (s.u. Lit.(3)). Eine Verschärfung dieses Problems: Kernkraftwerke, die eine hohe Regelungsfähigkeit ihrer Leistung bieten und zur Netzstabilisierung bestens geeignet sind, wurden und werden seit 2011 abgeschaltet. Gas- und Kohlekraftwerke mußten für den Ausgleich der Schwankungen einspringen, was inzwischen  ihre Wirtschaftlichkeit ruiniert. Außerdem steigen mit dieser ständig stark variierenden Betriebsweise Verschleiß und Reparaturanfälligkeit.  Die Stabilität des Netzes nimmt weiter ab, aber dennoch wird der auf Kosten der Verbraucher erfolgende Ausbau der unberechenbaren Wind- und Solarstromanlagen – nach wie vor ohne Absicherung durch Speicher – unvermindert fortgesetzt. Damit ist der Weg in die doppelte Katastrophe – die Versorgungssicherheits-Katastrophe und die Stromkostenkatastrophe – vorgezeichnet, wenn nicht sehr bald ein radikaler Kurswechsel erfolgt..

Aus diesem Grunde ist bei der Behandlung der „volatilen“, d.h. unzuverlässigen Wind- und Solarstromerzeuger eine  Änderung der Politik erforderlich.

Die Entwicklung verbesserter Stromspeicher wird gefördert. Es werden jedoch keine Stromspeichertechniken mehr in ihrer Entwicklung gefördert, die einen Energieverlust des Gesamtsystems von mehr als 55% aufweisen. Die Wasserstofferzeugung mit Windstrom erfüllt diese Anforderung gerade noch;  die Wiederverstromung dieses Gases bedeutet eine Energievernichtung von 70 – 90% und ist damit  förderungsunwürdig.

Zur Entwicklung großer Wärmespeicher s.u.

A.) Speicher für  Windkraftanlagen

Generell gilt: Netzausbau vor Ausbau der Windkraft. Erst wenn das Stromnetz, an das  neue Windkraftanlagen angeschlossen werden sollen, ausreichend dimensioniert ist, wird ein weiterer Zubau gestattet.

Der Zubau von Windkraftanlagen wird zusätzlich von einem gleichzeitigen Zubau   ausreichender Stromspeicher abhängig gemacht.  Alternativ kann diese Verpflichtung auch  durch die Auslands-Akquisition von Stromspeicher-Kapazitäten erfüllt werden. Als ausreichend wird ein Stromspeicher akzeptiert, wenn er die Maximalleistung einer Windkraftanlage 3 Stunden lang speichern kann.

Weil die große Zahl bereits existierender Windkraftanlagen eine permanente Gefährdung der Netzstabilität darstellt, müssen auch diese nachträglich mit ausreichenden Stromspeichern ausgerüstet werden. Dafür wird eine Übergangszeit eingeräumt, innerhalb derer die Netzbetreiber durch Abschaltungsmaßnahmen die Gefährdung der Netzstabilität durch Windkraftanlagen ohne Stromspeicher unterbinden müssen.

Die Betreiber von Windkraftanlagen haben somit die Wahl, entweder ihre Anlagen mit  Stromspeichern aufzurüsten, oder  beträchtliche Stillstandzeiten hinzunehmen.

Die Stromspeicher wären privat zu finanzieren, allerdings könnten das die Betreiber aus den in diesen Fällen nicht gekürzten Einspeisevergütungen bezahlen.

Seit es konkrete Vorschläge für geeignete Stromspeicher gibt, die ohne größere technisch-wirtschaftliche Risiken in großer Anzahl gebaut werden könnten, ist der beschriebene Weg frei geworden.

(Anm.: Es handelt sich um oberirdische Druckluftspeicher nach den Vorschlägen von U. Dämgen, Fa. Boge Kompressoren, Bielefeld (3) )

B.) Speicher für Solarstromanlagen

Die oben beschriebene Verpflichtung, Windkraftanlagen mit Stromspeichern nachzurüsten, wird auch für existierende große Photovoltaik-Freilandanlagen eingeführt.

Falls Einzelanlagen weiterhin zur Einspeisung des Stroms in das Netz verwendet werden, werden auch hierfür Stromspeicher vorgeschrieben. Für Einzelanlagen werden bereits Batteriespeicher angeboten, die vor allem den Zweck haben, den erzeugten Solarstrom selbst zu nutzen (4). Dies stellt für die Betreiber die Möglichkeit entweder zu einer langsameren, kontrollierten Stromabgabe an das Netz oder den Selbstverbrauch ohne Netzstörung dar.

Mit diesen Nachrüstungen von Stromspeichern für Wind- und Solarstromanlagen muß ein großes Versäumnis der Politik nachgeholt werden, um in der Stromversorgung wieder normale Verhältnisse herzustellen.

Diese unverzichtbare Nachrüstung befördert die Stromerzeugungstechniken Windkraft und Photovoltaik auf ein Kostenniveau, das ihnen zukommt; das sie also tatsächlich von Anbeginn an aufwiesen.

Auf der Positivseite dieser Nachrüstung ist zu vermerken:

–       Die Risiken für eine sichere Stromversorgung werden minimiert.

–       Die gigantischen Planungen für einen Ausbau des Übertragungsnetzes und auch der Verteilnetze können ad acta gelegt werden – mit allen Vorteilen für die ansonsten betroffenen Bürger.

–       Die Stromspeicher wären privat zu finanzieren, allerdings könnten das die Betreiber aus den in diesen Fällen nicht gekürzten Einspeisevergütungen bezahlen.

–       Weiterhin würde es nicht mehr nötig sein, zahlreiche neue Gaskraftwerke sowie schneller regelbare Kohlekraftwerke für den Ausgleich der Windstrom- und Solarstrom-Schwankungen zu bauen – die bereits heute wegen ihrer Unwirtschaftlichkeit nur durch neue Subventionen überhaupt realisierbar wären.

–       Mit diesen Maßnahmen würde auch von unseren Nachbarländern, die sich bereits gegen den Missbrauch ihrer Stromnetze durch deutschen Überschuß-Ökostrom zur Wehr setzen, ein Alptraum genommen.

Auf der Negativseite für die Betreiber dieser Stromerzeuger steht die Wahl zwischen der Errichtung der erforderlichen Stromspeicher auf eigene Kosten – bei allerdings dann nicht gekürzten Einspeisevergütungen – und einer zunehmend häufigen Abtrennung ihrer speicherlosen Anlagen vom Netz durch die Netzbetreiber bei gleichzeitig gekürzten Einspeisevergütungen.

Spitzenlastkraftwerke

Die Rentabilität von Spitzenlast-Kraftwerken (Gasturbinen, GuD-Kraftwerke) und Pumpspeicherkraftwerken wird  durch ihre vorrangige Nutzung  sichergestellt – und nicht durch neue Subventionen für die passive „Bereitstellung von Stromerzeugungskapazität“. Siehe dazu die obigen Ausführungen zum Thema „Netzstabilität“.

Das EEG

Das wichtigste für das aufziehende wirtschaftliche Desaster verantwortliche  Gesetzesinstrument ist das Erneuerbare Energien Gesetz (EEG). Mit ihm werden spezielle Stromerzeugungstechniken massiv gefördert, von denen die drei  wichtigsten – Photovoltaik (PV), Windkraft und Biomassenutzung – entweder völlig unbrauchbar und sogar die Netzstabilität gefährdend (PV und Windkraft) oder durch riesigen Flächenverbrauch umweltschädlich sind (Biomassenutzung zur Stromerzeugung). Mit dem EEG wird einerseits die Stromversorgung destabilisiert und andererseits werden die Bürger und die Wirtschaft durch Zwangsabgaben („Umlagen“) ausgeplündert. Mehrere Teile dieses Gesetzes haben den Zweck, Abwehrmaßnahmen zu unterbinden: So die Anschluß- und Abnahmepflicht für den erzeugten Strom,  die Erschwerung von Abschaltungen bei Netzproblemen, die Entschädigungspflicht für die Nichtabnahme von überflüssigem EEG-Strom (Irrsinn in Gesetzesform) und die Abgabe überflüssigen EEG-Stroms zu „negativen Preisen“ – also nicht nur das Verschenken dieses Stroms, sondern die Zuzahlung, damit sich ein Abnehmer findet.

Die aktuellen Vorschläge zur Einführung eines Quotenmodells, nach dem die Netzbetreiber selbst die EEG-Stromeinspeiser mit den gerade niedrigsten Preisen im Rahmen einer vorgegebenen Ökostrom-Gesamtquote auswählen dürfen, sind zwar ein kleiner  Schritt zurück in Richtung Marktwirtschaft, aber dennoch unbrauchbar. Denn die  Wahl zwischen Solarstrom, Windstrom oder Strom aus Biomasse-gefeuerten Anlagen in Verbindung mit einer Abnahmepflicht einer nach Regierungsplänen viel zu großen  Gesamtmenge wäre wegen der untragbaren Probleme, die diese Techniken mit sich bringen, gleichbedeutend mit der  Wahl zwischen Pest, Cholera und Typhus.

Nach Novellierung des EEG wäre ein Quotenmodell brauchbar (s.u.).

Das EEG ist zu novellieren

Das Erneuerbare Energien-Gesetz könnte zwar vollkommen abgeschafft werden, aber es wäre politisch klüger, es beizubehalten – allerdings nach dem Ziehen seiner Giftzähne.

Gestrichen wird:

–       Die Einspeisungspflicht der Netzbetreiber für angebotenen EEG-Strom

–       Die Entschädigung für EEG-Stromanbieter bei Ablehnung der Einspeisung

–       Die Zahlung der vollen Einspeisevergütung bei niedrigen Börsenpreisen

Alle bisher festgelegten quantitativen und terminlichen Ausbauziele für die „Erneuerbaren“ sind hinfällig.

Erneuerbare Energietechniken sollen einen behutsam wachsenden Anteil an der Energieversorgung erhalten. Dies betrifft aber nicht alle bisher geförderten Techniken:

Der mit Einspeisevergütungen belohnte Zubau der Photovoltaik-Anlagen wird – mit Ausnahme von Anlagen mit eigenen Stromspeichern  – beendet.  Alle durch den PV-Bestand in den Verteilungsnetzen  ausgelösten Probleme und die Kosten für deren Behebung werden auf die PV-Betreiber umgelegt.

Ein behutsamer Ausbau der Windkraft wird zugelassen.  Dazu  wurden die Voraussetzungen bereits erläutert (Ausbau nur mit Stromspeichern;  Ausbau nur bei Nachweis ausreichender Netzkapazitäten).

Biomassenutzung:  Siehe unten.

Auch nach der Novellierung des EEG ist darauf zu achten, daß in keinem neuen Energiegesetz marktfeindliche und planwirtschaftliche Elemente mehr vorkommen dürfen.

In Anbetracht der drohenden Verschandelung der Landschaft durch aufgegebene Windkraftanlagen (wie in den USA) müßte eine Vorsorgefinanzierung für ihren späteren Rückbau aus den Einspeisevergütungen erfolgen.

Vorrang für die Wärme-Bereitstellung mit Solarenergie und Erdwärme

Anstelle des bisherigen Vorrangs der Stromerzeugung durch Windkraft, Photovoltaik und Biogasverstromung wird der Wärmebereitstellung mittels Sonnenenergie und Erdwärme (mittels Wärmepumpen) sowie mittels der von anderen Erzeugern gelieferten Fernwärme durch ein  Förderungsprogramm der Vorrang  gegeben. Einen Schwerpunkt darin sollten große kommunale Solarwärmekollektoren und -speicher und ihr Anschluß an Nahwärmenetze bilden. Der Schwerpunkt der staatlichen Maßnahmen in diesem Bereich sollte sich auf die Technologieentwicklung, die Kostenverringerung  durch automatisierte Großserienfertigung und auf darauf aufbauende große kommunale Pilotprojekte  konzentrieren.

Die bereits in Deutschland existierenden Pilotprojekte großer kommunaler Solarwärmeanlagen, die auf frühere Förderprogramme zurück gehen, bewiesen bereits den großen Nutzen dieser Technik, bei der noch beträchtliche Verbesserungspotenziale erschlossen werden könnten.  Diesen Projekten ist aber nichts gefolgt, um dieser als rentabel und machbar erkannten Technik zu einem Durchbruch zu verhelfen. Dies sollte nun durch ihre technische Optimierung angegangen werden.

Es ist zu erwarten, daß durch das Erreichen von wesentlich günstigeren Kosten dieser Technik eine dynamische Aufwärtsentwicklung  der Solarwärmenutzung einsetzt und daß damit diejenige der sog. Erneuerbaren Energietechniken, die endlich einen beträchtlichen Nutzen für die Verbraucher verspricht, den ihr gebührenden Platz erhält, der ihr bisher durch die exzessive Förderung der Photovoltaik versperrt worden ist.

Bei einem Erfolg wären die positiven wirtschaftlichen Auswirkungen beträchtlich: Mineralöl- und Erdgasimporte könnten deutlich verringert werden.

Auf alle staatlichen Maßnahmen der Ausübung von Zwang oder finanziellen Anreizen gegenüber Hauseigentümern, bestimmte Techniken für die Heizung einzuführen, wird verzichtet.

Biomasse-Nutzung

Die Nutzung von weiteren landwirtschaftlich geeigneten Flächen für Energiepflanzen wird gestoppt. Eine Rückumwandlung von Anbauflächen für Energiepflanzen in landwirtschaftliche Nutzflächen wird begonnen. Absoluten Vorrang für die Biogaserzeugung erhält die Nutzung von Abfällen und Reststoffen wie Restholz, Müll, Gülle etc. ; nur derartige neue Anlagen werden noch zugelassen.

Weitere Förderung von regenerativen Energiequellen

Für den durch ein Quotenmodell gesteuerten weiteren behutsamen Zubau „erneuerbarer“ Energieerzeuger könnten Investitionszuschüsse aus staatlichen Mitteln bereit gestellt werden. Diese Zuschüsse dürfen nicht zur Erzielung von  Renditen führen. Einspeisevergütungen entfielen in diesen Fällen.

Für den Fall,  daß man Einspeisevergütungen als Förderungsinstrument wählt, werden diese   nur noch für maximal 6 Jahre garantiert.  Wie oben erläutert,  gibt es in diesen Fällen auch keine Bevorzugung bei der Stromeinspeisung und auch keine Entschädigungszahlungen bei Ablehnung der Stromeinspeisung durch die Netzbetreiber. Auch diese Vergütungen sollten nur eine anteilige finanzielle Unterstützung gewährleisten. Auch diese würden so festgelegt, daß durch die Förderung keine Renditen erwirtschaftet werden können.

Den Investoren verbleibt somit ein finanzielles Risiko. Damit würde dem spekulativen Zubau von an sich nicht rentablen Energietechniken ein Riegel vorgeschoben. Führt die weitere technische Entwicklung zu fallenden Investitionskosten und damit zu sinkenden Stromgestehungskosten, würde der Markt die Verbreitung dieser verbesserten Anlagen veranlassen.

Beispiele für künftige Einspeisevergütungen: Neue Windkraft Onshore: 3,5 Cent/kWh.  Neue Windkraft Offshore:  5 Cent/kWh.  Neue Biomasseanlagen (nur Reststoffe): 4 Cent/kWh.

Neue Photovoltaikanlagen erhalten keine Vergütungen zur Netzeinspeisung mehr; auch keine Investitionszuschüsse.  Zur Selbstversorgung der Erzeuger wird eine Vergütung von 3 Cent/kWh festgelegt, was den Gestehungskosten von Kohle- und Kernkraftstrom entspricht.

Für große kommunale Solarwärmeanlagen (Kollektorfelder und Erdspeicher) kämen Investitionszuschüsse in Frage.

Unkonventionelle Erdgasvorkommen

Die Gewinnung von Erdgas aus tiefgelegenen Schichten („Shale Gas“) mit Hilfe des  sog. Fracking-Verfahrens in Deutschland muß unter Beachtung umweltschonender Praktiken verstärkt  vorangetrieben werden, weil damit eine große nationale Energieträger-Quelle erschlossen werden kann. Der Einsatz dieser neuen heimischen Energiequelle würde vor allem im Wärmesektor (dort auch mit Gasmotor-betriebenen Wärmepumpen sowie Gas-Absorptions-Wärmepumpen) und im Verkehrssektor eine sinnvolle Anwendung  finden.

Die Rückkehr zur Marktwirtschaft

Alle Maßnahmen zur Zurückdrängung des freien Marktes, d.h. planwirtschaftliche Maßnahmen werden zurückgenommen. So wird die Überwälzung der Haftungskosten für die Folgen unterbliebener oder verzögerter Netzanbindung von Offshore-Windkraftanlagen beendet. Es gibt keine Verpflichtung zum Weiterbetrieb unrentabler fossiler Kraftwerke.  Es gibt keinen Zwang zur Vorhaltung von ansonsten ungenutzten Kraftwerkskapazitäten. Es gibt keine Förderung von Kraftwerksneubauten – diese erfolgen ohne Förderung, wenn die Marktwirtschaft wieder in Kraft gesetzt wird.. Die Wiederinbetriebnahme der abgeschalteten Kernkraftwerke erschließt ohne neue Kosten ein mächtigen Potenzial an kostengünstiger Grundlastversorgung und macht  planwirtschaftliche Fehlentwicklungen überflüssig. Es gibt keine Förderung für die Vorhaltung von Speicherkapazitäten, jedoch die Förderung ihrer Technologieentwicklung. Es gibt keine Markteinführungs-Finanzierungen für energietechnische Geräte und Anlagen und ebenso wenig  Verschrottungsprämien für diese.

Alle Versuche, den Energieverbrauch durch staatliche Zwangsmaßnahmen zu verringern, unterbleiben, da dies – wie schon immer – weitaus besser vom Markt geregelt wird.  Weil die Energiekosten seit  jeher einen starken Antrieb für eine rationelle Energieanwendung darstellen,  sind alle staatlichen Zwangsmaßnahmen zur Steigerung der Energieeffizienz unnötig.

Durch die Rückkehr zur Marktwirtschaft wird der frühere Zustand der Energiewirtschaft wieder hergestellt, in dem ausschließlich rationale und auf Effizienz abzielende Entscheidungen aller Marktteilnehmer teure Fehlentwicklungen verhindern, wie sie in der jetzigen Situation einer ideologisch begründeten, paralysierenden Staatswirtschaft typisch und unvermeidlich sind.

                                Teil 2. Maßnahmen in der Administration

Das Bundesumweltministerium BMU verliert alle Zuständigkeiten für Energietechnik und Energiepolitik, also alle in der Unterabteilung E I gesammelten Zuständigkeiten: Energiewende, Strommarkt, Infrastruktur (Netz, Speicher), Solarenergie, Biomasse, Geothermie, Windenergie und Wasserkraft.

Weiterhin verliert das BMU folgende Zuständigkeiten, die in der Unterabteilung E II zu finden sind: Emissionshandel, Energieeffizienz, Wärme- und Kältestrategie im Gebäudebereich, Stromsparinitiative, Europäische Energiepolitik.

Ebenso verliert es die Zuständigkeit für die „Sicherheit kerntechnischer Einrichtungen“ und „Nukleare Ver- und Entsorgung (incl. Endlager)“.  Das BMU verliert alle Haushaltsmittel für die zu den genannten  Bereichen gehörenden Projekte des BMU.

Entsprechend verliert das dem BMU unterstellte Umweltbundesamt Zuständigkeiten und Haushaltsmittel.

Die Sachverständigenkreise, die die Bundesregierung beraten, sind neu zu besetzen, und zwar nach ausschließlich fachlichen Kriterien. Das betrifft die Klima-, Energie- und Umweltpolitik (SRU), sowie die Reaktorsicherheitskommission.

Die Politik gerät in Panik

Es kam, wie es kommen mußte: Das mit der Energiewende überraschte Volk gab sich zunächst mit den vielversprechenden Ankündigungen einer neuen, heilen Energiewelt zufrieden und wartete ab. Die technischen Details konnte kaum jemand nachprüfen – und Kritik wurde von den grün besetzten Redaktionen ausgeblendet.  Aber allen Kritikern war klar, daß sich diese passive Haltung radikal ändern würde, sobald der Pferdefuß der staatlichen Beglückungspläne unübersehbar wurde: Die rasch steigenden Stromkosten.

Das Gewitter braute sich im Herbst 2011 zusammen, als der Termin der Prognose der Übertragungsnetzbetreiber (ÜNB) für die Höhe der EEG-Umlage für 2013 nahte. Nachdem es der Regierung 2011 gelungen war,  die ÜNB zu einer offensichtlich falschen EEG-Umlage-Prognose für 2012 zu veranlassen – angeblich drohte damals überhaupt keine Erhöhung, obwohl der dafür verantwortliche Zubau an Windmühlen, Solarpanels und Biogasanlagen rekordverdächtige Höhen erreicht hatte  -,  mußten die ÜNB am 15.10.12 ihre 2011 unterschlagenen Steigerungsbeträge auf die nun 2012 aufgelaufenen weiteren  Erhöhungen aufschlagen, was den Schock noch verstärkte.

Verbraucherschützer kamen nun mit ihren Warnungen vor der „Energiearmut“ zu Gehör; man erinnerte sich an den Beinahe-Blackout im Winter 2011/12 – und alles begleitet von krachenden Pleiten in der deutschen Solarstrom-Zukunftsindustrie.  Die Meldungen über die Überwälzung aller Haftungsrisiken der Offshore-Windparkbetreiber auf die Verbraucher und Berichte über den Bürgerwiderstand gegen neue Hochspannungstrassen vor ihrer Haustür taten ein Übriges: Man verstand jetzt, daß die Energiewende ein gigantisches Abkassiersystem war; dazu auch noch laienhaft geplant.

Inzwischen melden Umfragen, daß eine Mehrheit der Deutschen nicht bereit ist, die Energiewende weiter mit steigenden Strompreisen zu finanzieren.

Und nun drohte für das Jahr 2013 das Zusammentreffen zweier besonders unangenehmer Ereignisse:  Die Bundestagswahl am 22. September und die wieder Mitte Oktober fällige ÜNB-Prognose zur EEG-Umlage 2014 – und wie man es schon 2012 erlebt hatte, sickert diese Zahl ausreichend rechtzeitig durch:  In den Wahlkampf hinein.

Daß es abermals deutlich teurer wird, ist logisch und unvermeidbar; schließlich werden auch die Monate vom Oktober 2012 bis August 2013 die gewohnten kräftigen Zuwachsraten bei den „Erneuerbaren“ zeigen. Das EEG gilt weiterhin und wer jetzt investiert, kann 20 Jahre lang seine Einspeisevergütungen einstecken und eine prächtige Rendite auf Kosten der übrigen Bürger erzielen. Diese Zahlungsverpflichtung akkumuliert sich im Jahre 2015 bereits auf 570 Mrd. Euro (5).  Und je hektischer die Diskussion um EEG-Änderungen, desto rascher müssen noch weitere erneuerbare Schäfchen ins 20 Jahre Geld abwerfende Trockene gebracht werden. 

Das sind keine guten Aussichten für die Regierung. Die grausame Ironie der Geschichte besteht darin, daß es im Parlament  keine einzige Partei gibt, die die Energiewende als Irrtum und Sackgasse ablehnt. Im Gegenteil: Sollte Rot-Grün ab Herbst 2013 regieren,  wird das EEG überhaupt nicht mehr angetastet. Dann geht es allein um Bedürftigkeit,  Energiebeihilfen, Energieberatung, Sozialrabatte für stromsparende Kühlschränke, kostenlose Stromkontingente für sozial Schwache,  Belasten und Bestrafen der großen Energieversorger  als Standard-Schurken,  Energie-Soli für Reiche, neue Steuern. Dazu die Streichung der meisten Vergünstigungen für die Industrie – in der Hoffnung, daß deren Exodus und die dann anhebenden Gewerkschaftsproteste noch etwas auf sich warten lassen. Daß damit nur eine Umverteilung der steigenden Kosten erreicht wird und die dann noch stärker Belasteten auf die Barrikaden gehen,  wird in Kauf genommen. Insbesondere die Grünen haben in dieser Hinsicht eiserne Nerven: Wenn das Volk die Energiewende ablehnt, dann muß es eben gezwungen werden. Wenn auch die SPD – ähnlich wie jetzt die CDU/CSU plus FDP – auf Grund des Widerstands in der Bevölkerung Rückzugsbewegungen einleiten möchte, wird es zu einem harten Konflikt mit den Grünen kommen, die auf ihrem Umbau Deutschlands in einen industriearmen Öko-Modellstaat bestehen, koste es was es wolle. 

In dieser Zwickmühle sitzend hat Minister Altmeier am 1. Februar 2013 eine Nebelbombe gezündet. Sie enthält eine Mischung von Täuschungskörpern,  echten kleinen Knallfröschen und eben sehr viel Nebel.  Am tollsten ist seine gesetzliche Festschreibung der EEG-Umlage. Weil die sie verursachenden Kosten durch den ständigen Zubau neuer Anlagen unvermeidlich steigen, versucht Herr Altmeier hier einen Bluff, dem leider bald nach dem Wahltermin die Luft ausgeht. Adam Riese auszutricksen, klappt auch dieses Mal nicht.

EEG-Anlagenbetreibern einen „Energiesoli“ abzuknöpfen, ist prinzipiell richtig, wird aber große  juristische Widerstände auslösen – mit unbekanntem Ergebnis. Das trifft selbstverständlich auch auf einige Punkte des fiktiven Programms Energiewende Light“ zu.

Das Gleiche gilt für den Versuch, bei einem zu starken Zubau die Vergütungszahlungen zu verzögern: Juristischer Krach stünde ins Haus.

Dennoch ist Altmeiers Plan clever: Mit seiner Nebelbombe nimmt er der Opposition etliche Argumente weg.  Er will ja keine weiteren Strompreissteigerungen.  Er will den ungebändigten Windmühlen- und Photovoltaik-Zubau dämpfen. Wer bitte ist dagegen ?  Sein Blick ist auf den Bundesrat gerichtet, der – nun mit rot-grüner Mehrheit – gewiß alles ablehnen wird, was die EEG-Profiteure stört. Aber dann sind für die Regierung und wohl auch für die Medien die SPD und die Grünen am weiteren Anstieg des Strompreises Schuld. Die Absicht ist, dieses Schwarze-Peter-Spiel rechtzeitig vor der Wahl ablaufen zu lassen, weshalb der Minister den August als Termin für diese Gesetzesänderungen nannte.

Schon zeigt die SPD Trefferwirkung: Sigmar Gabriel schlug vor, statt dessen die Stromsteuer – nur ein kleines Stück in der Summe der staatlichen Steuern, Abgaben und Umlagen – zu senken. Das bringt zwar maximal 2 Cent/kWh, wäre aber auch ein Schritt in die richtige Richtung – und ärgert den Finanzminister…

Die Grünen warnten, daß mit Altmeiers Plan die Investoren in „Erneuerbare“ verunsichert würden und mit Zurückhaltung reagierten. Dieser Vorwurf ist ein Lob: Denn damit bestätigen sie dem Minister, daß sein Plan die gewünschte Wirkung hätte. Der Präsident des Fachverbandes Biogas Pellmeyer erklärte: „Für unsere noch junge Branche wäre das eine Katastrophe“. Im krassen Gegensatz dazu zeigte die Windbranche weiterhin großen Optimismus: Sie beabsichtige, 2013 um 23 bis 44 Prozent zu wachsen, teilte der Bundesverband Windenergie mit. Und die Solarstrombranche hofft weiterhin auf EU-Dumpingmaßnahmen gegen chinesische Importe…

In diesem Kasperletheater haben nun alle eine Pritsche in der Hand und schlagen aufeinander ein.

Selbst wenn ein Wunder geschähe und Altmeiers Wundertüte unverändert durch den Bundesrat käme,  wäre die Wirkung nur eine leichte Verzögerung weiterer Investitionen in Wind- und Solarstrom – begleitet von ausgiebigen Prozessen – und keine Entspannung der bereits gefährlichen Situation, die durch die längst existierenden Anlagen herbeigeführt worden ist.

Dieses Wunder wird aber nicht geschehen.

Da inzwischen sämtliche Akteure, Nutznießer und Betroffene der Energiewende vollkommen divergierende Interessen haben, was noch von einem ebenso chaotischen Zielwirrwarr bei den Bundesländern und dem Ergebnis der Bundestagswahl überlagert wird,  sind sämtliche Prognosen über die Situation am Jahresbeginn 2014 noch unzuverlässiger als Kaffeesatzleserei.  Vermutlich wird alles erst noch schlimmer; sehr viel schlimmer.

Die „Energiewende Light“ wird natürlich nicht kommen

Kehren wir zum Phantasieprogramm „Energiewende Light“ als Übungsgerät zurück.  Wenn schon politisch nicht durchsetzbar, dann aber bitte konsequent.

Jede einzelne der oben aufgelisteten Änderungen würde – falls als Gesetzesvorschlag eingereicht – auf den erbitterten Widerstand der finanziellen und politischen Profiteure sowie der grün besetzten Redaktionen und aller politischen Mitläufer der Energiewende stoßen.

Das vorgestellte chancenlose Gesamtpaket, das sicherlich noch um etliche Punkte ergänzt werden könnte, ist mit seinen vielen Änderungsvorschlägen und Rücknahmen von bereits erfolgten staatlichen Maßnahmen zumindest dazu geeignet, den unglaublichen politischen und wirtschaftlichen Zerstörungsprozeß zu veranschaulichen, den die Regierungen bereits in der Energiepolitik zu verantworten haben.

Die beschriebenen erforderlicher Veränderungen zurück zu einer funktionierenden und bezahlbaren Energiewirtschaft erscheinen wie ein riesenhafter, abzutragender Problemberg. Dabei ist die dafür gewählte Überschrift „Energiewende Light“ aber nicht einmal ironisch gemeint. Denn auch darin werden die „Erneuerbaren Energien“ – die es übrigens nicht gibt; „regenerative Energien“ wäre korrekt – keineswegs abgeschrieben oder verdammt, sondern sie sollten ihren sinnvollen Platz innerhalb des Energiesystems erhalten – siehe die Ausführungen zum Wärmemarkt.

Das Dilemma der deutschen Energiepolitik beruht auf mehreren Faktoren:

·       Ideologen haben es geschafft, durch Angstpolitik gegen konventionelle Energietechniken, verbunden mit unhaltbaren Versprechen in Bezug auf den Nutzen und die angeblich erreichbare Wirtschaftlichkeit der „Erneuerbaren“ die Regierungspolitik in eine desaströse Richtung zu lenken und viele Milliarden an Volksvermögen zu vernichten.

·       Weil es hauptsächlich um technische Sachverhalte geht, die von der breiten Mehrheit der Bevölkerung nur unzureichend verstanden werden können, werden technisch-wirtschaftliche Unsinnigkeiten in den staatlichen Maßnahmen nicht sofort erkannt. Widerstand erhebt sich erst, wenn die immer weiter steigenden Kosten der Energiewende die Verbraucher treffen. Dann aber ist ein großer Teil der Schäden bereits angerichtet worden.

·       Die Medien vernachlässigen ihre Pflicht zur kritischen Begleitung der Regierungspolitik. Sie verbreiten im Gegenteil irreführende, beschönigende Informationen über die Energiewende und setzen ihre Angstkampagnen gegen Kernenergie,  Shale-Gas-Förderung, Kohlekraftwerke und generell CO2-Emissionen (Klimaangst) fort. Den Grund für diese Selbstzensur und Manipulation hat eine Umfrage in Redaktionen zur politischen Selbsteinschätzung ihrer Mitglieder ergeben: 70 Prozent nannten die Grünen.

Änderungen sind jedoch im Gange: Eine stetig stärker werdende Alternative zu den deutschen Zeitschriften und dem Fernsehen stellt das Internet dar. Hier kann jeder die in den Redaktions-kontrollierten Medien unterdrückten kritischen Berichte und Kommentare  abrufen. Insbesondere der jüngere Teil der Bevölkerung nutzt diesen Informationskanal immer stärker. Noch ist dieser Anteil am Nachrichtenmarkt  nicht dominierend, aber die Entwicklung läuft stetig darauf zu – mit den entsprechenden politischen Wirkungen, wenn die Ideologen die Kontrolle über einen ausreichend großen Teil der Medien verloren haben.

Vielleicht spürt die Politik diese Wirkungen viel eher, als es die fiktive Partei LP mit ihrer noch fiktiveren energiepolitischen Kehrtwendung schaffen könnte.

Die nächste Wende kommt jedenfalls bestimmt.

Quellen:

(1): Günter Keil: „Die Energiewende ist schon gescheitert“, TvR Medienverlag, Jena

2012, ISBN 978-3-940431-32-5

(2): BILD vom 16.10.2012: Atomstrom-Umfrage: http://www.eike-klima-energie.eu/climategate-anzeige/bild-umfrage-buerger-in-grosser-mehrheit-fuer-mehr-kernkraft-oder/

(3): Dr.-Ing. Ulrich Dämgen: „Neuer Entwicklungsansatz bei Druckluftspeichern“, BWK Bd. 65 (2013) Nr.1/2

(4): RWE: „Solarstromspeicher für Haushaltskunden“, BWK Bd. 65 (2013) Nr. 1/2 ;

www.rwe-effizienz.com

(5): http://www.eike-klima-energie.eu/energie-anzeige/ wind-und-sonne-schicken-keine-rechnung-was-uns-kostenlose-energie-wirklich-kostet/ 

Dr.-Ing. Günter Keil                                                                                     11.02.2013 Sankt Augustin

Der obige Text kann als pdf im Anhang herunter geladen werden.

Vom Autor ist auch als Buch erschienen „Die Energiewende ist schon gescheitert“

Weitere Beiträge des Autors: Dreizehn und zwei Energiewendemärchen

sowie Der Offshore-Bluff

Related Files




In eigener Sache: EIKE wieder online




Energiewende: Der dritte Weg zum Sozialismus

Doch wenn Politiker antreten, diesen Glauben den Menschen überzustülpen , ihn quasi als Staatreligion zu verankern und damit  als neues Herrschaftsinstrument einen Steuerungsmechanismus künstlich herausgegriffener Stoffkreisläufe festschreiben  zu wollen, sollten gerade in Deutschland die Alarmglocken läuten.

Doch trotz aller diesbezüglich negativer Erfahrung in unserer deutschen Geschichte läuten die Glocken  nicht!

Das abermalige Scheitern der Klimakonferenz in Doha  mit weiterer Ablehnung einer Erweiterung des Kyoto- Abkommens durch die USA, Kanada, Japan, China, Japan, Brasilien und neuerdings auch Rußland lässt den fragwürdigen Weg Resteuropas, ( mit 15% des Weltenergieverbrauchs) unter Führung Deutschlands, mit seinem Wunsch: „Am europäischen  grünen Wesen soll die Welt genesen“ im richtigen Licht erscheinen: Der Wunschtraum von Kyoto wird vom Rest der Welt nicht geteilt, Europa ist isoliert. Die Gefahr, dass sich Europa in einigen Jahren am Rande der Weltwirtschaft wiederfindet, ist groß.

Deutschland scheint auch weltweit das einzige Land zu sein, -dank weitgehender Gleichschaltung seiner  Medien-, dessen politische Führung sich rückversicherungsfrei  in das Abenteuer  Energiewende stürzt und damit den Weg frei macht für die  Ziele des „Club of Rome“. Deutschland bemüht sich in vorauseilendem Gehorsam, so schnell wie möglich von der politischen Bildfläche zu verschwinden.

Es sind sicher nur einige grüne Illusionisten, die diese Zukunft für Deutschland und Europa gut heißen, aber im Zuge des Konformitätsdrucks, dem „main stream“  zu folgen, unterstützen auch intelligente Menschen und seriöse Unternehmen die Argumente politischer Rattenfänger. Immer mehr Wähler stimmen für eine  ökologisch begründete Umverteilungspolitik mit sozialistischen Merkmalen, die letztlich die große Mehrheit  viel ärmer macht, einigen Wenigen, der neuen „Nomenklatura“, jedoch immense Gewinne verschafft. Auch das zeigen uns die Resultate des sog. wissenschaftlich begründeten Sozialismus in der ehemaligen DDR und den Sowjetstaaten.

Es wird kaum erkannt, dass sich die grüne Partei mit den erneuerbaren Energien ein trojanisches Pferd geschaffen hat, mit dem sie inzwischen in der Mitte der Bevölkerung  Fuß gefasst hat. Das sog. Waldsterben hat diese Ziel verfehlt und nach kurzer Zeit seinen Schrecken verloren, da der Wald nicht gestorben ist , die erneuerbaren Energien werden jedoch die Wähler für lange Zeit einfangen.  Ihre Investitionen und ihre sozial unverantwortlichen  langfristigen Zusatzeinnahmen von  ihren Hausdächern  oder Wiesen  können langfristig nur durch die Unterstützung grüner Politik gesichert werden. Die Parteien kommen an dieser Klientel nicht mehr vorbei. Die SPD war die erste, die dem grünen Wahn nachlief, neuerdings folgen auch CDU/CSU und FDP im Buhlen um die Gunst dieser Wählerschicht.

Aber um das Klima geht es den Verantwortlichen beim Energiekonzept der Bundesregierung nicht wirklich.  Zwanzig Jahre nach dem Zusammenbruch des „Ostblocks“ geht es wieder um die Umsetzung einer Planwirtschaft  zu Gunsten von Ideologien und Staat, und die grüne Ideologie ist der Motor dieser Bewegung.

Die Ziele der Energiewende, den Primärenergieverbrauch in Deutschland bis zum Jahr 2050 um 50% zu senken, ähnelt der Zielsetzung kommunistischer Fünfjahrespläne, hätten aus der Feder des Zentralkomitees der SED stammen können und tragen den Keim eines Selbstzerstörungsprogramms für Deutschland in sich.

Verführt durch den Buchhaltungstrick, wesentliche,  1990 noch emittierende (inzwischen stillgelegten) Unternehmen der DDR- Industrie in die Gesamtdeutsche Kohlendioxidbilanz einzubeziehen, steht Deutschland  in Bezug auf die Kyoto- Zusage glänzend da. Doch das ist Augenwischerei, inzwischen stagniert in Deutschland die Kohlendioxidemission bei Werten um 900 Millionen Tonnen, bei ca. 3% des weltweiten Kohlendioxidaussstoßes. Trotzdem „fühlt“ sich Deutschland aufgerufen, als Weltverbesserer  aufzutreten.

Der Investitionsbedarf für den Ersatz von 18%  (ca. 2,5 EJ) des deutschen Primärenergiebedarfs (14 EJ) durch sog. erneuerbare Energien beläuft sich nach Schätzungen des Bundesumweltministeriums  auf ca.200 Milliarden €. Sollte auch nur der bis 2050 weltweit zusätzlich anfallende  Energiebedarf von ca. 400 EJ ( 1EJ sind 278 Billionen kWh) auf „erneuerbare Energien“  umgestellt werden, sprechen wir von einem Investitionsvolumen  von ca. 32 Billion €.

Es bedarf keiner besonderen Weitsicht, wenn dieses Geldvolumen Staaten, Banken und auch den müdesten Unternehmer über die Geschäftsmöglichkeiten auf der Basis dieser  „Energiewende“ nachdenken und Gesetze formulieren lässt, an dieses Geldvolumen heranzukommen. Dass dieser Prozess zunehmend auf Kosten der Freiheit der Bevölkerung geht, bleibt, durch entsprechende Einstimmung der  Presse, vielen verborgen.

Einmal auf den Geschmack gekommen, wird auch nicht bei der der Energieerzeugung Halt gemacht. Der Energieverbrauch muss intensiv in dieses Geschäft eingeschlossen werden, der Aussage von Bundeskanzlerin Merkel folgend:  „Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“

*Quelle „Frankfurter Rundschau“ 17. Juni 1997

Jetzt wird der Gebäudebestand als größtes Energieeinsparungspotential entdeckt.  Immerhin entfallen rund 40% des deutschen Energiebedarfs auf diesen Bereich.

Da ca. 12 Millionen Wohngebäude noch aus Zeiten stammen, in denen keine Wärmeschutzverordnung galt, ergibt sich hier ein riesiges Potential für die „energiesparende“ Nachrüstung. Eine Investitionssumme in der Größenordnung von mehr als 1 Billion € winkt allein in Deutschland.

Wen wundert es, wenn Staat, Industrie und Lobbygruppen von diesem Potential begeistert sind. Auch wenn die Zweifel groß sind, ob überhaupt eine Wärmedämmung von Häusern Heizkosten einspart und ob nicht die gesundheitsgefährdenden Nebenwirkungen, wie Schimmelbefall und Fassadenbrände, eine größere aktuelle Gefahr für die Bewohner darstellen als ein „science fiction“ Weltuntergang, wird mit dem Energie- Einsparungs- Gesetz (EnEG) ein weiterer planwirtschaftlicher Eingriff in die Besitzrechte der Bevölkerung geschaffen.

Für den Hausbesitzer rechnet sich diese Investition energietechnisch zu seinen Lebzeiten nicht, so dass private Eigentümer wohl das Geld für die Befolgung  der Energieeinsparvorschriften nicht freiwillig ausgeben würden. Deshalb war die Schaffung einer EnEV, der Energiesparverordnung vorprogrammiert , um dieses Geschäftsfeld  nicht nur über Steuern auf die Energieträger sondern über staatliche Kontrollen zu erschließen.

Wie lange werden in Deutschland noch private Eigentumsrechte Schutz vor Enteignungen auf der Basis von  Öko- Utopien haben?

Nach dem Vorbild des während des kalten Krieges aktiven militärisch- industriellen- Komplexes bestimmen im aktuellen ökologisch- industriellen Komplex ( ÖIK) nicht Angebot und Nachfrage die wirtschaftlichen Abläufe, sondern die Wünsche und Vorgaben von Politikern, Lobbyisten  und Bürokraten in Form von angepassten  Gesetzen und Verordnungen . So haben u. a. die Stromverbraucher kaum eine  Möglichkeit, sich der staatlich verordneten Ausbeuterei zu entziehen. EEG- Gesetz, Risikobelastung der Verbraucher bei der Netzanbindung, Abschaltverbot für  systemrelevante Kraftwerke etc. sind eklatante Beispiele einer nur mühsam verborgenen „Planwirtschaft“.

Zur Förderung der Öko- Industrie werden Bürger- und Besitzrechte staatstreichartig geändert, planwirtschaftliche Eingriffe in Wirtschaftsabläufe legalisiert und planungsrechtliche Hürden, die dem Schutz des Privateigentums dienen, beseitigt. Die Klimaangst und die Kohlendioxidhysterie liefern der Politik genügend Gründe für immer neue Vorschriften und Einschränkungen der persönlichen Freiheiten.

Als nachhaltiger Hebel dieses neuen  politischen Herrschaftsinstruments wird das zuverlässigste Stromversorgungsnetz Europas, welches bisher die Grundlage unseres wirtschaftlichen Wohlstandes darstellte, in Frage gestellt.

Die allgemeine Verteuerung des Wirtschaftsfaktors Energie wird, ganz im Gegensatz zu den allgemein üblichen Behauptungen der Politiker und auftragsheischenden Instituten, unterm Strich viel mehr Arbeitsplätze zerstören als neue schaffen. Damit bewegt sich Deutschland in Richtung Deindustrialisierung. Neue Arbeitsplätze auf dem Gebiet erneuerbarer Energien entstehen heute mehrheitlich nicht in Europa sondern in China.

Die deutsche Regierung aber hält stur an der von grünen Sektierern in die Welt gesetzten Fiktion fest, dass die Entwicklung der Global- Temperatur mit dem Kohlendioxidgehalt der Luft zusammenhängt und macht sich zum Vorreiter einer neuen Weltbewegung „Rettung der Menschheit vor dem drohenden Untergang durch die vom Menschen verursachte  Kohlendioxidproduktion“.

Jeder Mensch mit einem einigermaßen ausgeprägten klaren Verstand sollte sich fragen, wieso ein Spurengas in der Luft, das Kohlendioxid, welches für das Leben der Menschen auf der Erde existenziell wichtig ist und welches in Treibhäusern als Wachstumsbeschleuniger für die Pflanzen in bis zu dreifacher Konzentration der Umgebungsluft zugegeben wird , als klimaschädliches Gas eingestuft wird. Er sollte sich weiter fragen, warum sich dieses Spurengas im Widerspruch zu allen physikalischen Gesetzen in der oberen Atmosphäre anreichern und durch Wärmerückstrahlung zur Aufheizung der Erde beitragen soll.

Dabei weiß doch jeder, dass es in großen Höhen kälter als auf dem Erdboden ist. Niemand hat erlebt, dass eine kalte Kaffeetasse eine daneben stehende wärmere Tasse noch weiter aufheizt. Was soll dieser physikalische Unsinn, der bereits unseren Kindern in der Schule vorgesetzt wird?

Es sollte zu denken geben, dass die Wasserdampf- Konzentration  in der Luft, die  gerade in der unteren Atmosphäre wesentlich höher ist als die Konzentration des Kohlendioxids, unser Wetter wesentlich beeinflusst und in den Treibhausphantasien kaum berücksichtigt wird.

Es sollte sich letztlich auch herumgesprochen haben, dass die Sonne  etwa 10.000 mal mehr Energie  auf die Erde überträgt, als die Menschen pro Jahr erzeugen. Damit verändert die menschliche Aktivität auf der Erde die Energiebilanz gerade einmal um 0,01%. Es ist schon reichlich unverfroren, den Menschen zu erklären, dass diese  Störung in der Konzentration eines das Pflanzenwachstum fördernden Gases die Ursache für eine Klimakatastrophe sein soll und der Treibhauseffekt die Menschheit ausrotten könnte, wie eine deutsche Umweltministerin 1995 festgestellt hat. Bekanntlich entsteht durch den Stoffwechsel der Pflanzen aus dem Kohlendioxid der für unser Leben erforderliche Sauerstoff.

Es fehlt den sog. Klimawissenschaftlern, die ihre Verlautbarungen überwiegend  auf  Computersimulationen stützen, eine fachübergreifende Sicht der in der realen Welt ablaufenden Vorgänge. Die einfache Erfahrung eines Gewächshaus- Gärtners, der seine Erträge durch künstliches Einleiten von Kohlendioxid in die Gewächshausluft deutlich erhöhen kann, ist ein solch praktisches Beispiel, was die Welternährungsbehörde durchaus dazu verleiten sollte, eine höhere Kohlendioxidkonzentration in der Atmosphäre zu begrüßen, wenn sie nicht in den Aussagen des „Club of Rome“ gefangen wäre.

Das Märchen vom menschengemachten Klimawandel wird uns nun schon seit Jahren in immer neuen, an Gehirnwäsche erinnernden Versionen vorgesetzt, ohne gleichzeitig die gegenläufigen Resultate und Analysen renommierter Wissenschaftler auch nur zu erwähnen, geschweige denn, sie ernst zu nehmen. Im Gegenteil lautete eine Äußerung des Bundesumweltministers vor einigen Tagen: Das aktuelle Tempo des internationalen Klimaschutzes sei „absolut unzureichend“.

Dabei stört es die Regierung offenbar nicht, dass Windräder und Solarzellen unterm Strich keine einzige Tonne Kohlendioxid einsparen, weil sie mitlaufende „Schattenkraftwerke“ für wind- und sonnenarme Zeiten benötigen, da Stromspeichermöglichkeiten in großtechnischem Umfang nicht vorhanden sind und sich in überschaubaren Zeiten auch nicht installieren lassen. Es wird auf  Biomasse bzw. Biosprit –Importe aus Übersee, sowie auf  Nutzung ausländischer Pumpspeicherwerke  für den Ausgleich der stark schwankenden Wind- und Solarenergieeinspeisung  bei der Stromversorgung sowie Nutzung von ausländischen fossilen oder kerntechnischen Stromquellen  gesetzt.  Immense Steuerbeträge werden in den deutschen Öko-Industriellen Komplex (ÖIK) geleitet, d.h. eine Umverteilung von Finanzmitteln, dem der deutsche Steuerzahler aus Angst vor dem eingeredeten Weltuntergang bereitwillig zustimmt und die in anderen gesellschaftlichen Aufgabengebieten wesentlich sinnvoller eingesetzt werden könnten. Doch das würde das neue Herrschaftsinstrument in Frage stellen.

Die Gleichschaltung von Presse und Politik, in der Andersdenkende schamlos als Klimaleugner bezeichnet werden, um diese in die Nachbarschaft strafffälliger Holocaust- Leugner zu positionieren, kann kaum durch sachliche Diskussionsbeiträge aufgehoben werden, wie unsere leidvolle Vergangenheit zur Genüge beweist.

Auch Wahlen können sie nicht wesentlich verändern, da die Menschen in unserer Demokratie eine Katze im Sack kaufen. Gezwungen durch Koalitionsverträge oder nachträgliche Programmänderungen zum Machterhalt, wie es der durch die CDU/CSU/FDP vollzogenen Schwenk in der Frage der Kernenergie zeigt,  überdauern Wahlzusagen in den wenigsten Fällen die Legislaturperioden.

Frei wählen können die Deutschen nur noch in Supermärkten.

Eine Politik, die darauf abzielt, die Menschen durch die Einführung von Zwangsabgaben ärmer zu machen und die Bürger durch den Aufbau neuer Umverteilungsbürokratien im Namen einer „besseren, sicheren Zukunft“ daran hindert, ihr Leben eigenverantwortlich zu gestalten und reale Vorsorge zu betreiben, führt zum Gegenteil der unentwegt beschworenen „besseren Zukunft“ für die Menschheit. Entsprechende Beispiele aus der Geschichte sind uns allen geläufig.

Der von Bundeskanzlerin Dr. Merkel im Frühjahr 2011 eingesetzte „Wissenschaftliche Beirat der Bundesregierung globale Umweltveränderung“ ( WBGU) titelte sein Gutachten: „Gesellschaftsvertrag für eine große Transformation“

Der Kernsatz der Zusammenfassung für Entscheidungsträger lautet darin:

„ Der fossil- nukleare Metabolismus“ der Industriegesellschaft hat keine Zukunft“. Dringend nötig sei ein globaler Gesellschaftsvertrag, das heißt eine Weltrevolution durch eine „Global-Governance- Architektur“. „Die bisherigen großen Transformationen der Menschheit waren weitgehend ungesteuerte Ergebnisse evolutionären Wandels. Die historisch einmalige Herausforderung der nun anstehenden Transformation zur klimaverträglichen Gesellschaft besteht darin, einen umfassenden Umbau aus Einsicht, Umsicht und Voraussicht voranzutreiben“

Die große Transformation, der ökologische Umbau der Industriegesellschaft, auch als dritte Industrielle Revolution betitelt, ist die Realisierung des Sozialismus  durch die Hintertür. Sie läuft darauf hinaus, die Marktwirtschaft durch eine Planwirtschaft zu ersetzen und damit der westlichen Zivilisation eine kommunistische Kohlenstoffrationalisierung überzustülpen:

„ Wir verteilen durch die Klimapolitik quasi das Weltvermögen um. Man muss sich von der Illusion freimachen, dass Klimapolitik Umweltpolitik ist“ Die Äußerung des Chefökonomen des Potsdamer Instituts für Klimaforschung (PIK),  Prof. Dr. Ottmar Edenhofer , Interview  NZZ 14. 11. 2010 spricht eine erschreckend deutliche Sprache.

Damit ist die grüne Politik nun endlich dort angekommen, wo sie ihre Führer aus dem kommunistischen Studentenbund haben wollten. Die grüne Einheitspartei aus CDU/CSU/ FDP, SPD und den ursprünglich Grünen liefert der Bevölkerung nun  eine  parteienübergreifende Begründung für die große Umverteilung. Doch die versteckten Ziele werden in der machtpolitisch gemischten „Einheitssuppe“ kaum wahrgenommen, und demokratische Spielregeln werden ohne erkennbaren gesellschaftlichen Protest außer Kraft gesetzt.

Diesen Ansatz hatten wir doch schon einmal in unserer Geschichte……

Jürgen Langeheine

Buchempfehlung: Jürgen Langeheine:  „Energiepolitik in Deutschland – Das Geschäft mit der Angst“, Athene Media Verlag, gebunden, Euro 16,98, 238 Seiten.

 




Das R. W. Wood-Experiment

Zu Beginn möchte ich ein kurioses Beispiel eines Treibhauseffektes zeigen, nämlich den eines Stahl-Treibhauses. Man stelle sich einen Planeten im Vakuum des Weltalls vor. Ein Überbleibsel nuklearen Materials, das im Erdkern zerfällt, erwärmt den Planeten so weit, dass er eine Strahlung von, sagen wir, 235 W/m² abstrahlt. Abbildung 1 verdeutlicht das.

Abbildung 1: Planet im freien Weltraum, erwärmt aus seinem Inneren. Die Zeichnung zeigt die Lage im Gleichgewicht.

Dieser Planet befindet sich im Gleichgewicht. Der natürliche Reaktor im Kern des Planeten erzeugt Energie, die sich an der Oberfläche des Planeten auf 235 W/m² beläuft. Die Strahlungsmenge ist immer gleich, so dass sich dieser Planet weder erwärmt noch abkühlt.

Jetzt stellen wir uns vor, dass wir, ohne sonst irgendetwas zu verändern, einen Stahlmantel um den Planeten legen. Abbildung 2 zeigt diese Situation, wobei eine Seite der Hülle zeitweise entfernt wird, damit man nach innen schauen kann.

Abbildung 2: Wie in Abbildung 1, aber jetzt mit einer soliden Stahlhülle um den Planeten. Eine Seite der Hülle wurde zeitweise entfernt, um nach innen sehen zu können. Die vertikale Distanz zwischen der Hülle und der Oberfläche des Planeten ist der Anschaulichkeit halber stark übertrieben – in Wirklichkeit haben die Oberfläche und die Hülle* fast die gleiche Oberfläche. (Eine Hülle 10 km über der Erde hat nur eine um 0,3% größere Oberfläche als die Erde).

(Aktualisierung: In den Kommentaren zum Vorschein kommende Missverständnisse glauben, dass ich Klarheit vermissen lasse. Hierzu möchte ich Folgendes sagen: Weil die Differenz der äußeren Oberfläche der Hülle und der Planetenoberfläche nur etwa 0,3%* ausmacht, mache ich die vereinfachende Annahme, dass beide Oberflächen gleich sind. Dies klärt die Lage um großen Teil. Ja, damit kommt ein gewaltiger Fehler von 0,3% in die Berechnungen. Über diesen Fehler haben sich die Kommentatoren lang und breit ausgelassen, als ob er etwas bedeuten würde… Wirklich, Leute, 0,3%? Ich mache auch die vereinfachende Annahme, dass sowohl der Planet als auch die Hülle „Schwarzkörper“ sind, soll heißen, sie absorbieren die gesamte auftreffende Infrarotstrahlung).

[*Vielleicht war der Autor Eschenbach hier nicht so in Form. Im Original steht an dieser Stelle die Zahl 0,03%. Auch hier scheint es sich eindeutig um einen Schreibfehler im Original zu handeln. A. d. Übers.]

Betrachten wir jetzt, was passiert, wenn wir eine Hülle um den Planeten legen. Die Hülle erwärmt sich und beginnt nun ihrerseits zu strahlen… aber sie strahlt nach innen und nach außen die gleiche Menge ab. Die nach innen gerichtete Strahlung erwärmt die Oberfläche des Planeten, bis er mit 470 W/m² strahlt. An diesem Punkt befindet sich das System wieder im Gleichgewicht. Der Planet empfängt 235 W/m² aus seinem Inneren plus 235 W/m² von der Hülle, und strahlt die Gesamtmenge ab, 470 W/m². Die Hülle empfängt 470 W/m² vom Planeten und strahlt die gleiche Menge ab, 470 W/m², zur Hälfte nach innen zum Planeten und zur Hälfte nach außen in den Weltraum. Man beachte auch, dass obwohl die Oberfläche des Planeten jetzt wärmer ist (und 470 W/m² abstrahlt) trotzdem Energie gespart wird. Die gleichen 235 W/m² Energie wie in Abbildung 1 werden in den Weltraum abgestrahlt.

Und das ist alles, was es mit dem Treibhauseffekt auf sich hat. Er erfordert kein CO2 oder eine Atmosphäre, er kann sich aus Stahl einstellen. Es hängt vollständig von der Tatsache ab, dass die Hülle zwei Seiten hat und ein fester Körper nur eine.

Dieses Zaubersystem funktioniert, weil es zwischen dem Planeten und der Hülle ein Vakuum gibt. Als Folge können der Planet und die Hülle sehr unterschiedliche Temperaturen annehmen. Wenn sie das nicht könnten, wenn zum Beispiel die Hülle durch gewaltige Säulen gehalten werden würde, die effektiv die Weiterleitung der Wärme von der Oberfläche zur Hülle gewährleisten würden, würden die beiden immer die gleiche Temperatur aufweisen, und die Temperatur wird von einer Größe sein. Dass das System 235 W/m² abstrahlt. Es gäbe keine unterschiedliche Erwärmung der Oberfläche, und es gäbe keinen Treibhauseffekt.

Ein anderer Weg, die Effizienz des Systems zu verringern, wäre die Einführung einer Atmosphäre. Jedes Watt Energie, das durch die atmosphärische Wärmekonvektion von der Oberfläche zur Hülle verloren geht, reduziert die Strahlungstemperatur der Oberfläche um den gleichen Betrag. Falls die Atmosphäre die Oberflächentemperatur effektiv genug an die Hülle weiterleiten kann, wird die Oberfläche nur wenig wärmer als die Hülle.

Zusammenfassend: Wenn der Treibhauseffekt funktionieren soll, muss die Hülle thermisch von der Oberfläche isoliert sein, so dass die Temperaturen der beiden substantielle Unterschiede annehmen können. Falls die Atmosphäre oder irgendetwas Anderes die Wärme der Oberfläche effektiv zur Hülle transferiert, wird die Temperatur zwischen beiden nur geringe Unterschiede aufweisen.

Und jetzt erinnern wir uns daran, dass ich das Experiment von R. W. Wood betrachten wollte. Hier folgt der Bericht von diesem Experiment vom Autor. Ich habe den experimentellen Aufbau in den Mittelpunkt gerückt.

Bemerkungen zur Treibhaus-Theorie

Professor R. W. Wood

Es scheint der Glaube weit verbreitet, dass die vergleichsweise hohe Temperatur, die in einem der Sonnenstrahlung ausgesetzten Treibhaus erzeugt wird, durch eine Transformation von Wellenlängen erfolgt, das heißt, dass die Wärmestrahlen von der Sonne, die das Glas durchdringen können, auf die Wände des Treibhauses treffen und deren Temperatur erhöhen: Die Wärmeenergie wird von den Wänden in Form viel längerer Wellen rückgestrahlt. Sie können das Glas nicht durchdringen, so dass das Treibhaus als Wärmefalle fungiert.

Ich habe immer meine Zweifel gehabt, ob dieser Vorgang wirklich eine so große Rolle beim Steigen der Temperatur gespielt hat. Viel wahrscheinlicher schien es mir, dass die Rolle des Glases darin bestand zu verhindern, dass die vom Boden innerhalb des Treibhauses erwärmte Luft nach außen entweicht. Wenn wir die Türen des Treibhauses  an einem kalten und windigen Tag öffnen, wird das Zurückhalten der Strahlung viel von seiner Effektivität verlieren. Tatsächlich bin ich der Meinung, dass ein aus Glas bestehendes Treibhaus, das für Wellen jeder möglichen Wellenlänge durchlässig wäre, fast die gleiche, wenn nicht genau die gleiche Temperatur annehmen würde wie in einem Glashaus beobachtet. Die transparente Abschirmung erlaubt es der Sonnenstrahlung, den Boden zu erwärmen, und der Grund wiederum erwärmt dann die Luft, aber nur den begrenzten eingeschlossenen Teil. Im „Freien“ steht der Boden kontinuierlich im Kontakt mit kalter Luft infolge von Konvektiosströmen.

Um das mal zu überprüfen, habe ich zwei Gehäuse aus tiefschwarzem Karton konstruiert, eines abgedeckt mit einer Glasplatte, das andere mit einer Platte Steinsalz [rock-salt] von gleicher Dicke. Der Messfühler eines Thermometers wurde in jedes Gehäuse eingeführt und das Ganze in Baumwolle verpackt mit Ausnahme der transparenten Platten, die frei lagen. Setzte man dies dem Sonnenlicht aus, stieg die Temperatur allmählich bis 65°C, wobei das mit der Salzplatte abgedeckte Gehäuse dem anderen etwas voraus war. Dies ist der Tatsache geschuldet, dass es die längeren Wellen von der Sonne passieren ließ, die durch das Glas zurück gehalten wurden. Um diesen Umstand zu eliminieren, wurde das Sonnenlicht zunächst durch eine Glasplatte geschickt.

Jetzt zeigte sich eine kaum wahrnehmbare Differenz von einem Grad zwischen den Temperaturen in den beiden Gehäusen. Die maximale erreichte Temperatur betrug 55°C. Mit dem, was wir über die Energieverteilung in einem von einem Körper mit 55°C emittierten Strahlungsspektrum wissen, wird klar, dass die Steinsalz-Platte praktisch alles davon hindurch lässt, während die Glasplatte das vollständig verhindert. Dies zeigt uns, dass der Temperaturverlust am Boden durch Strahlung sehr klein ist im Vergleich zum Verlust durch Konvektion. Mit anderen Worten, wir erreichen nur sehr wenig mit dem Umstand, dass die Strahlung gefangen ist.

Ist es daher erforderlich, bei der Ableitung der Temperatur eines Planeten der gefangenen Strahlung Aufmerksamkeit zu zollen, wenn er durch seine Atmosphäre beeinflusst wird? Die Sonnenstrahlen durchdringen die Atmosphäre, erwärmen den Boden, der wiederum die Atmosphäre durch Kontakt erwärmt sowie durch Konvektionsströme. Die empfangene Wärme wird folglich in der Atmosphäre gespeichert und verbleibt dort wegen der sehr geringen Strahlungskraft eines Gases. Es scheint mir sehr zweifelhaft, dass eine Atmosphäre in größerem Umfang durch Absorption von Strahlung von der Oberfläche erwärmt werden kann, selbst unter günstigsten Bedingungen.

Ich sage nicht, dass ich sehr tief in diese Materie eingestiegen bin, und veröffentliche dieses Papier nur, um auf die Tatsache aufmerksam zu machen, dass gefangene Strahlung nur eine sehr kleine Rolle zu spielen scheint in aktuellen Fällen, die uns vertraut sind.

Hier würde meine Interpretation dieses experimentellen Aufbaus stehen:  

Abbildung 3: Querschnitt durch das Wood-Experiment. Die zwei Kartons sind schwarz gezeichnet. Einer ist mit Glas bedeckt, das Infrarot absorbiert und re-emittiert. Der andere ist abgedeckt mit Steinsalz, welches für Infrarot durchlässig ist. Sie sind in Baumwolle verpackt. Die Thermometer sind nicht gezeigt.

Mit der Diskussion über das Stahl-Treibhaus oben überlasse ich es als eine Übung für interessierte Leser herauszubekommen, warum dies kein stichhaltiger Test der infraroten Gegen-Strahlung im planetarischen Maßstab ist… bitte beachten Sie die Existenz von Luft in den Kartons, die Effizienz des Wärmetransports durch diese Luft von den Kartons zu den Abdeckplatten, das vertikale Temperaturprofil dieser Luft, den Transfer von Energie von der „Oberfläche“ zur „Hülle“ durch die Wände der Schachtel und die relativen Temperaturen der Luft, des Kartons und der transparenten Abdeckung.

Mir scheint allerdings, dass es mit einigen kleinen Änderungen doch ein stichhaltiger Test sein könnte.

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/02/06/the-r-w-wood-experiment/#more-78966

Übersetzt von Chris Frey EIKE




„Klimaschutz“ ist Big Business! 200 Milliarden im EU Budget für Klimamaßnahmen!

BRÜSSEL (ENS) – Die Europäischen Staats- und Regierungschefs sind überein gekommen, mindestens 20 Prozent des gesamten EU-Budgets während der nächsten 7 Jahre für klimabezogene Dinge auszugeben. Die ganze Nacht über dauernde Verhandlungen in Brüssel brachten Übereinstimmung unter den EU-Führern hinsichtlich von Budget-Vorschlägen für den Rest dieses Jahrzehnts, von 2014 bis 2020.Beitrag vom News Editor

Bild rechts: Kommissionspräsident Jose Manuel Barroso, links, und Ratspräsident Herman Van Rompuy mit Reportern am 8. Februar 2013 (Photo: EC)

„Klimabezogene Maßnahmen werden mindestens 20% der EU-Ausgaben im Zeitraum von 2014 bis 2020 ausmachen, und zwar für geeignete Instrumente um sicherzustellen, dass sie zur Stärkung der Energiesicherheit beitragen sowie zur Einrichtung einer wenig Kohlenstoff erzeugenden, ressourcen-effizienten und gegen das Klima widerstandsfähigen Wirtschaft, die Europas Wettbewerbsfähigkeit stärken sowie mehr und grünere Arbeitsplätze schafft“, heißt es im final agreement.

Die Führer stützten zum ersten Mal in der Geschichte der EU Einschnitte in dessen Budget, vorangetrieben vom Premierminister von UK David Cameron und Bundeskanzlerin Angela Merkel. Camerons Plan, eine Volksabstimmung zur britischen Mitgliedschaft in der EU abzuhalten, hat die Verhandlungsbasis von UK gestärkt.

Das verabschiedete Budget beläuft sich auf 960 Milliarden Euro. Zum Vergleich, das Budget der Jahre 2007 bis 2013 hatte 975,777 Milliarden Euro betragen.

Kommissionspräsident Barroso sagte: „Nachhaltigkeit ist eine sehr wichtige Prämisse, und tatsächlich ist es unsere Überzeugung, dass wir sie bei unserer gesamten Politik berücksichtigen. In dieser Hinsicht muss das Grüner werden der Landwirtschafts-Politik erwähnt werden wie zum Beispiel unser Einsatz für den Klimaschutz“.

„Heute ist ein unglaublich wichtiger Tag für Europa und für den Kampf gegen die Klimaänderung”, sagte die Klimaschutzbeauftragte der EU Connie Hedegaard aus Dänemark. „Das ist ein wichtiger Schritt nach vorn für unsere Bemühungen, der Klimakrise zu begegnen“.

Die Bereitstellung der 20 Prozent für Klima wurde zum ersten Mal von der Europäischen Kommission vorgeschlagen.

„Anstatt irgendwo in einer Ecke des EU-Budgets geparkt zu werden, werden Klimamaßnahmen in alle wesentlichen Ausgabenposten integriert – Zusammenhalt, Innovation, Infrastruktur und Agrikultur“, sagte Hedegaard.

Abbidlung 1: Klima-Kommissarin Connie Hedegaard (Photo courtesy GUE/NGL)

„Und sie unterstreichen wieder einmal die Europäische Führung beim Kampf gegen diese kritische Herausforderung. Falls alle anderen wichtigen Wirtschaften Ähnliches leisten, hätte das sehr signifikante Auswirkungen“, sagte sie.

„Die Lenkwirkung der europäischen politischen Führer ist eindeutig: sie wollen an vorderster Front des Übergangs in eine Low-Carbon-Wirtschaft verbleiben”, erklärte Hedegaard. „Und sie sind vollständig überzeugt, unsere gemeinsamen Ausgaben an diese politische Priorität anzupassen. Das sind gute Nachrichten für Europa!“

Die europäischen Führer haben zugestimmt, in miteinander verbundene Transportwege, Energie und digitale Netzwerke zu investieren. Ihrer Ansicht nach ist das mittel- und langfristig ein wichtiges Element zur Stärkung der europäischen Wettbewerbsfähigkeit unter schwierigen wirtschaftlichen Bedingungen, die gekennzeichnet sind durch langsames Wachstum und angespannte öffentliche Haushalte.

Ratspräsident Herman Van Rompuy sagte in einer Pressekonferenz, dass – während das Budget angemessener die heutigen finanziellen Realitäten reflektieren muss – ganz klar die Förderung neuer Investitionen und die Weriterentwicklung des Transportwesens, Energie und ICT-Netzwerke im Brennpunkt stehen müssen, einschließlich 30 Milliarden Euro dafür, „Europa miteinander zu verbinden“.

Solche Investitionen in die Infrastruktur sind hilfreich für die EU, ihre Objektiven zu nachhaltigem Wachstum voranzubringen, die in der Europa 2020-Strategie und den „20-20.20-Objektiven“ im Gebiet Energie- und Klimapolitik umrissen sind.

„Dieses Budget wird es Europa erlauben, sich in vitalen globalen Angelegenheiten zu engagieren, als da wären Klimaänderung, nuklearer Sicherheit und Entwicklungshilfe“, sagte Van Rompuy.

Hedegaard sagte: Es ist jetzt Sache aller involvierten Parteien – einschließlich des Europaparlaments – sicherzustellen, dass die Gesamtambition gebührend mit klaren Zielen und transparenten Messmethoden in allen relevanten politischen Maßnahmen und Programmen reflektiert wird, nicht zuletzt der gemeinsamen Landwirtschaftspolitik“.

Die Objektiven der gemeinsamen Landwirtschaftspolitik (oder CAP) werden auf „nachhaltigem Wachstum“ basieren, sagten die Führer. Zusätzlich zur Sicherstellung der Erzeugung von Nahrungsmitteln wird die CAP „spezielle umweltliche öffentliche Güter einbringen und die Wettbewerbsfähigkeit der Landwirtschaft verbessern. Außerdem sollen die Diversifizierung ökonomischer Aktivitäten und die Lebensqualität in ländlichen Gebieten gefördert werden…“ heißt es im Dokument des Rahmenabkommens.

Abbildung 2: Eine Farm in Tuscany (Photo by Sebastien Buen)

Die Ergrünung der gemeinsamen Landwirtschaftspolitik hinsichtlich Umwelt wird der Übereinkunft der politischen Führer zufolge durch direkte Zahlungen für bestimmte landwirtschaftliche Praktiken „erweitert“, die vorteilhaft für das Klima und die Umwelt sind und der alle Landwirte folgen müssen.

Das Budget enthält auch eine neue Reserve in Höhe von 2,8 Milliarden Euro, falls wesentliche Krisen die landwirtschaftliche Produktion oder deren Verteilung beeinträchtigen.

Aber die größte Koalition von Umweltbewegungen [grassroots environmental organizations] in Europa, das European Environmental Bureau EEB, das über 140 NGOs repräsentiert, verurteilte das Ergebnis als „Schande“ [disgrace].

Der Generalsekretär des EEB Jeremy Wates sagte: „Das ist das Schlimmste von beiden Welten: Ein schmaleres Budget, das explizit dazu dient, Geld in die verschwenderischsten und schädlichsten Maßnahmen und Projekte zu pumpen, im Besonderen in das CAP“.

Die Ausgaben für Subventionen in die Landwirtschaft sind seit der Vorlage im November gestiegen, sagte Wates. „Noch erschreckender, als Teil dieses Handels werden die Ausgaben für fortschrittlichere Komponenten ländlicher Entwicklungen effektiv eingefroren durch die Möglichkeit einer kolossalen umgekehrten Anpassung von 25 Prozent, dass den Mitgliedsstaaten erlaubt, mehr in direkte schädliche Zahlungen zu stecken“, sagte Wates.

„Den finalen Schlag musste eine grüne CAP-Reform jedoch durch eine Übereinkunft hinnehmen, dass es den Mitgliedsstaaten vollkommen freigestellt ist zu beschließen, was man unter einem grünen CAP zu verstehen hat, was die Tür zu noch nie da gewesenen Greenwashing-Maßnahmen öffnet“, sagte Wates.

„Staats- und Regierungschefs sind sogar so weit gegangen, im Detail zu verordnen, wie die meisten Ergrünungs-Maßnahmen durchzuführen sind – die Kontingentierung ökologischer Brennpunkte auf landwirtschaftlichem Niveau – vollständig bedeutungslos durch die Festschreibung, dass dies ‚von den Landwirten nicht verlangt, irgendwelche Produktionsflächen stillzulegen“, sagte er.

Wates drohte: Sollten die Staats- und Regierungschefs diesen Deal nicht zurückweisen, werden wir das Europäische Parlament drängen, dies zu tun!“

Copyright Environment News Service (ENS) 2013. All rights reserved.

Environment News Service (http://s.tt/1zz11)

Link: http://ens-newswire.com/2013/02/08/climate-gets-20-percent-of-seven-year-european-budget/

Übersetzt von Chris Frey EIKE




Abkühlung kommt? Fakten zum Klimawandel seit der Kleinen Eiszeit

Die über den Klimawandel und seine primäre Ursache aussagekräftigsten Klima-/ Temperaturreihen finden sich in West- und Mitteleuropa. Dabei reichen die Beobachtungsdaten der Central England Temperatures (CET) bis ins 17. Jahrhundert, die der Mitteleuropareihe (Klimamittel aus Berlin, Basel, Prag, Wien) bis 1701 zurück. Bei der nachfolgenden Analyse ab 1671 wurden für die drei Dekaden 1671-1700 die Mitteleuropatemperaturen aus den CET-Daten abgeleitet (Reduktionsfaktor –0,5°C).

In den Beiträgen zur BWK SO 29/09 bzw. SO 37/09 war der Zusammenhang zwischen Sonnenaktivität und Klimawandel in Mittel- bzw. Westeuropa getrennt untersucht worden. Im ersten Fall konnte dadurch die Auswirkung des integralen solaren Effekts auf einen primär kontinental geprägten, im zweiten auf einen ozeanischen Klimabereich erfasst werden.

In Analogie zur Betrachtung des globalen Klimawandels, d.h. des Mittels aus primär ozeanischer Südhemisphäre und stark kontinental geprägter Nordhemisphäre, wird bei der vorliegenden Analyse eine Europa-Temperaturreihe als Mittel aus Central-England-Reihe und Mitteleuropareihe gebildet. Auf diese Weise wird eine repräsentative empirische Aussage über die integralen (direkten und indirekten) Auswirkungen solarer Aktivitätsänderungen auf den Klimawandel seit der Kleinen Eiszeit möglich.

Sonnenaktivität und Temperaturverhalten

In Abb.1 ist die mittlere Sonnenfleckenzahl je Sonnenfleckenzyklus als Maß für die solare Aktivität wiedergegeben. Deutlich sind sowohl die kurzzeitlichen Fluktuationen als auch die klimarelevanten langzeitlichen Änderungen der Sonnenaktivität zu erkennen. Dem solaren Aktivitätsminimum im 17.Jahrhundert, dem Maunder-Minimum, folgte eine Zunahme der Sonnenaktivität im 18.Jahrhundert: der „ruhigen“ Sonne folgte  eine zunehmend „aktive“ Sonne. Am Ende des 18.Jahrhunderts begann erneut eine Phase geringer Sonnenaktivität, das  sog. Dalton-Minimum. Gegen Ende des 19. Jahrhunderts setzte erneut eine anhaltende Phase zunehmender Sonnenaktivität ein. Diese hielt bis zum Ende des 20.Jahrhunderts an. Seither nimmt die Sonnenaktivität wieder deutlich ab.

In Abb.2 sind für denselben 330-jährigen Zeitraum die dekadischen Mitteltemperaturen in Europa dargestellt. Auch diese weisen eine hohe Fluktuation auf. Die Ursache dafür sind die vielfältigen kurzfristigen Einflüssen von Ozean (v.a. El Nino/La Nina), Biosphäre, Sonnenaktivität und Vulkanismus auf die Atmosphäre.

Der langfristige Klimaverlauf wird durch die Ausgleichskurve beschrieben. Dem Temperaturminimum der Kleinen Eiszeit im 17.Jahrhundert folgte ein Temperaturanstieg im 18. Jahrhundert. Am Ende des 18.Jahrhunderts setzte eine rapide Abkühlung ein. Erst gegen Ende des 19.Jahrhunderts folgte erneut eine Erwärmung. Diese erreichte 1998 ihren Höhepunkt. Seither stagniert die Temperatur global bzw. weist einen Abkühlungstrend auf. Im Gegensatz zu der globalen Klimareihe seit 1850, die allein die letzte Erwärmung erfasst, also nur eine einzige Phase des Klimawandels der letzten Jahrhunderte, lässt die Europareihe eine Untersuchung des Klimawandels seit der Kleinen Eiszeit zu.    

Empirische Klimaanalyse

Wie schon der optische Vergleich von Abb.1 und Abb.2  belegt, weisen die langzeitlichen Kurvenverläufe der solaren Aktivität und der Europa-Temperatur seit 1671 unverkennbar ein synchrones Verhalten auf. Als „Klima“ definiert die Weltorganisation für Meteorologie (WMO) das Integral über alle Wetter-/Witterungsereignisse, erfasst durch die Mittelwerte, in einem mindestens 30-jährigen Zeitraum. Entsprechend dieser Definition spiegeln daher nicht  kurzfristige Sprünge von Jahr zu Jahr oder Dekade zu Dekade, sondern allein die  Langfristverläufe den (wahren) Klimawandel wider. In der gegenwärtigen Klimadebatte wird aber  ständig gegen die WMO-Definition verstoßen. Wenn es in die Ideologie passt, werden einzelne Wetter-/Witterungsereignisse (Hurrikan „Sandy“, Überschwemmungen) oder einzelne Jahre/Jahreszeiten als Beleg für die anthropogene Erwärmungshypothese angeführt. Äußerungen dieser Art sind unseriös und zeugen von wenig meteorologischem Sachverstand.

Entsprechend der WMO-Klimadefinition wurde die Datenanalyse für Klimaperioden von 3 Sonnenfleckenzyklen  (im Mittel 33 Jahre) durchgeführt. Da der solare Klimaantrieb kontinuierlich auf unser Klimasystem wirkt, werden der Auswertung gleitende Klimaperioden von 3 Sonnenfleckenzyklen zugrunde gelegt.

  

In Abb.3 ist die Änderung der solaren Aktivität für den Zeitraum 1672-1999 wiedergegeben, in Abb.4 ist die Temperatur-/Klimaentwicklung im gleichen Zeitraum dargestellt. Unschwer zu erkennen ist zum einen, dass Klimawandel ein permanenter Prozess ist und nicht erst ein Phänomen des Industriezeitalters. Auch vor 1850 mussten die Menschen mit  nachhaltigen Erwärmungen und Abkühlungen leben. Besonders bemerkenswert ist, dass die Klimaerwärmung von der Kleinen Eiszeit bis zum Ende des 18. Jahrhunderts mit rund 1°C genau so groß war wie die aktuelle seit 1850. Die natürlichen Klimaprozesse sind somit auch ohne anthropogene „CO2-Hilfe“ jederzeit in der  Lage, nachhaltige Erwärmungen zu verursachen.    

Unverkennbar zeigt der Vergleich der beiden Abbildungen zum anderen das grundsätzlich synchrone Verhalten von solarer Aktivität und Temperatur/Klima. Der „ruhigen“ Sonne zur Zeit des Maunder- sowie des Dalton-Minimums entsprechen die beiden Kälteperioden. Der „aktiven“ Sonne im 18. und 20.Jahrhundert entsprechen die beiden Erwärmungsperioden.

 

In Abb.5 und Abb.6 sind die Anomalien, also die Abweichungen der solaren Aktivität bzw. der Temperatur vom Mittelwert dargestellt. Auf diese Weise werden die Zeiten mit über- bzw. unterdurchschnittlichen Verhältnissen sichtbar.

Für den Zusammenhang von Sonnenaktivität und Klimawandel ergibt sich folgendes Bild:

* Zeiten mit unterdurchschnittlicher Sonnenaktivität (ruhige Sonne) korrespondieren auf der Klimaskala mit unternormalen Temperaturperioden, also mit Abkühlungs-/Kältephasen.

* Zeiten mit überdurchschnittlicher Sonnenaktivität (aktive Sonne) korrespondieren auf der Klimaskala mit übernormalen Temperaturperioden, also mit Erwärmungen/Wärmephasen.

Die kritische Grenze zwischen den Wärme- und Kälteperioden liegt bei einer mittleren Sonnenfleckenzahl von rund 50 Sonnenflecken pro Zyklus, d.h. unterschreitet die mittlere Sonnenfleckenzahl diesen Grenzwert,  befindet sich das Klima auf dem Weg in eine kältere Periode. Überschreitet die Sonnenaktivität hingegen den kritischen Wert, befindet sich das Klima auf dem Weg in eine wärmere Periode (BWK SO 03/09).

Korrelationsanalyse

Die (lineare) Korrelation liefert bei den untersuchten Zeitreihen einen quantitativen Aufschluss, wie groß der Zusammenhang zwischen den zeitlichen Änderungen der solaren Aktivität und den gleichzeitigen Änderungen der Temperatur, also dem Klimawandel, ist.  Der Korrelationskoeffizient würde gleich Null (0,0), wenn kein Zusammenhang bestünde. Je näher er dem Maximalwert von +1,0 kommt, um so stärker muss der solare Einfluss auf den Klimawandel sein, um so stärker vermag die zeitliche Änderung der Sonnenaktivität die Varianz des zeitlichen Temperatur-/Klimaverlaufs zu erklären.

Auf unsere Atmosphäre wirken, wie zu Abb.2 beschrieben, zwar eine Vielzahl kurzfristiger Prozesse, doch klimarelevant sind allein die langfristigen Klimaantriebe. Durch die Korrelation von Klimaperioden von 3 Sonnenfleckenzyklen wird diesem Sachverhalt  Rechnung getragen. 

In Abb.7 sind die Korrelationskoeffizienten für den Zusammenhang der sich zeitlich ändernden Sonnenaktivität (Abb.3) und den gleichzeitigen Temperatur-/Klimaänderungen für die Klimaperioden der letzten Jahrhunderte wiedergegeben. Für die Erwärmung im 18. Jahrhundert nach der Kleinen Eiszeit berechnen sich stabile Korrelationskoeffizienten von +0,90 bis +0,94. Das heißt: Die integrale (direkte und indirekte) Klimawirkung der Sonne vermag bis zu 88% der klimarelevanten Temperaturvarianz in diesem Zeitraum zu erklären.

Für die rapide Abkühlung Ende des 18./Anfang des 19.Jahrhunderts errechnet sich ein Korrelationskoeffizient von +1,0. Offensichtlich waren in dieser Zeit andere Prozesse marginal.

Auch für die Zeit der Klimaerwärmung im 20.Jahrhundert berechnen sich hohe stabile Korrelationskoeffizienten. Für den Temperaturverlauf von 1860, 1870 bzw. 1883 bis zum Ende der  1990er Jahre, dem Ende der aktuell diskutierten globalen Erwärmung, beträgt die Korrelation +0,86, +0,87, +0,89, d.h. im Klimabereich von Europa sind rund 80%  der Erwärmung im  20. Jahrhundert auf die langfristige Zunahme der Sonnenaktivität zurückzuführen.  Für den anthropogenen Treibhaus-/CO2-Einfluss auf die Klimaerwärmung bleibt folglich nur ein Anteil von rund 20% übrig.

Von einer Dominanz des anthropogenen Treibhaus-/CO2-Effekts auf den Klimawandel kann folglich keine Rede sein. Damit widerlegen die Fakten die CO2-Hypothese und damit die als „Vorhersagen“ interpretierten Szenarien der Klimamodelle.   

Schlussbetrachtungen

Die durchgeführte Klimaanalyse belegt auf der Grundlage zuverlässiger Beobachtungsdaten mit hoher statistischer Sicherheit den dominierenden Einfluss der  Sonne auf den Klimawandel. Jede langfristige Änderung des solaren Klimaantriebs führte in den vergangenen Jahrhunderten zu einer Veränderung des Klimas in Europa.

Sonnenaktivität und Klimaverhalten weisen unverkennbar eine synchrone, rund 200-jährige Schwingung auf (De-Vries-Zyklus). Im Gegensatz zum solaren Effekt vermag das CO2  diesen sinusartigen Klimaverlauf seit 1670 nicht zu erklären. Zwischen 1670 und 1850 lag der CO2-Gehalt der Luft konstant bei 280 ppm, d.h. sein Einfluss auf den Klimawandel war in diesem Zeitraum gleich Null. Kleine Eiszeit, die nachfolgende Erwärmung im 18. Jahrhundert und der Temperatursturz zu Beginn des 19.Jahrhunderts vollzogen sich bei konstantem CO2-Gehalt allein als Folge natürlicher, primär solar angetriebener Klimaprozesse. 

Warum der integrale solare Klimaeffekt nach 1850 nur noch eine unbedeutende Rolle beim Klimawandel spielen soll, wie es das IPCC und seine Anhänger behaupten, entbehrt jeder Logik und muss nach den obigen Ergebnissen als nicht haltbar angesehen werden.

Jede Stagnation und jeder Rückgang der Temperatur ist ein elementarer Widerspruch zur angeblichen Dominanz des CO2-Effekts, denn nach der Hypothese vom dominierenden anthropogenen CO2-Klimaeffekt dürfte es nur noch Erwärmungen geben. Die Varianz des Temperaturverhaltens kann daher durch den CO2-Effekt nicht erklärt werden. Wenn aber Stagnation und Abkühlungen „naturbedingt“ sind, sollte die Natur auch heute in der Lage sein, bei Erwärmungen die  wesentliche Rolle zu spielen.  Alles andere wäre paradox.

Alle Korrelationen zwischen Sonnenaktivität und Klimawandel sind nicht nur für die Zeit vor 1850, sondern auch für die Erwärmung im 20. Jahrhundert auf hohem Niveau statistisch signifikant. Es ist daher nicht nachvollziehbar, wenn von CO2-Anhängern behauptet wird, der integrale solare Effekt betrüge nur 10%, obwohl er 80% der klimarelevanten Temperaturvarianz der Erwärmung  (regional wie global) hochsignifikant erklärt. 

Der Einwand, Europa spiegele nicht den globalen Klimawandel wider, ist nicht stichhaltig. Aber selbst, wenn dem so wäre, wenn also die Änderungen der Sonnenaktivität nur in Europa klimabestimmend wären,  käme dem solaren Effekt eine grundlegende Bedeutung für die hier lebenden Menschen,  die Natur im allgemeinen und die Landwirtschaft im speziellen zu.

Doch ist der Einwand vor allem deswegen nicht stichhaltig, weil die Klimaerwärmung in Europa nach 1850 synchron zum globalen Temperaturanstieg verlaufen ist, d.h. der Klimawandel in Europa ist Teil des globalen/nordhemisphärischen Klimaverhaltens. So liegt die Korrelation zwischen dekadischem globalen Temperaturverhalten und dem Temperaturverlauf in Europa über +0,90, d.h. das Klima in Europa ist über die allgemeine atmosphärische und ozeanische Zirkulation in alle wesentlichen Veränderungen des globalen Klimas eingebunden.  

Ausblick:

Die Sonne ist derzeit am Beginn einer ruhigen Aktivitätsphase und wird voraussichtlich im aktuellen Zyklus bereits den kritischen Mittelwert von 50 Sonnenflecken erreichen bzw. unterschreiten, also den Grenzwert zwischen einer Wärme- und einer Kälteperiode. Analog zu den Klimabedingungen zur Zeit des Dalton-Minimums vor 200 Jahren gilt es daher, sich auf eine Klimaabkühlung in den kommenden Jahrzehnten einzustellen.

Allein die „launige“ Sonne wird über das grundsätzliche Ausmaß der zu erwartenden Abkühlung entscheiden und auch darüber, wann es mit der Temperatur allmählich wieder aufwärts geht. Letzteres ist voraussichtlich im Verlauf der 2. Hälfte des 21. Jahrhunderts zu erwarten, wenn die  Sonne wieder in eine aktivere Phase wechselt.

Sowohl der 200-jährige De-Vries-Zyklus als auch der 80-90-jährige Gleißberg-Zyklus der Sonnenaktivität deuten auf die bevorstehende Talfahrt der Sonnenaktivität hin mit allen Folgen für das globale Klima und die Welternährung.

Zum gleichen Ergebnis kommt auch I.Abdussamatov vom russischen Hauptobservatorium Pulkovo bei St.Petersburg (www.eike.eu). Auch nach seinen Ergebnissen wird das solare Minimum – und entsprechend der Höhepunkt der Abkühlung – während der Sonnenfleckenzyklen um 2055 zu erwarten sein.

Das CO2 wird nach den obigen Auswertungen weder Europa noch den Globus  vor der kommenden Abkühlung bewahren. Es kann den Temperaturrückgang höchstens etwas abmildern.

Seit 15 Jahren ist es global nicht mehr wärmer geworden. Die Globaltemperatur stagniert bzw. weist in jüngster Zeit eine fallende Tendenz auf, und zwar trotz jährlich kräftig weiter steigender CO2-Emissionen. (Warum wird die Öffentlichkeit von den Medien darüber nicht informiert?). Für den politisch motivierten „Weltklimarat“ (IPCC) und seine Anhänger ist es an der Zeit, das Dogma vom dominierenden CO2-Klimaeffekt aufzugeben und mit der Ausgrenzung bis Verketzerung der Klima-Querdenker aufzuhören. Nicht weil man dem main-stream angehört, hat man in der Wissenschaft automatisch die besseren Erkenntnisse.

Globale Erwärmungen von 4°C nebst apokalyptischen Folgen bis 2100 mittels CO2-dominierter Klimamodelle „vorherzusagen“, (Weltbank, PIK), sind reine Hypothesen. Wird der solare Effekt mit all seinen Wechselwirkungen unter- und der CO2-Effekt überschätzt, kann man keine realistischen Klimaaussagen erwarten.  

Wie die früheren Klimaanalysen so lässt auch die vorliegende nur einen Schluss zu:  

Im Vergleich zum integralen solaren Klimaeffekt mit all seinen komplexen, nicht-linearen Wirkungsmechanismen (Ozean, Wolken, Albedo, Biosphäre, kosmische Strahlung,…) ist der anthropogene Treibhaus-/CO2-Effekt nur von untergeordneter Bedeutung. Auch der medienwirksame Versuch, singuläre Extremwetterereignisse auf einen anthropogenen Klimaeinfluss zurückzuführen, entbehrt jeden Beweises. Orkane, tropische Wirbelstürme, Tornados, Dürren, Überschwemmungen hat es, wie die Chroniken  belegen, in allen Jahrhunderten  infolge außergewöhnlicher synoptischer Konstellationen mal mehr und mal weniger  gegeben. Allerdings werden durch das anhaltende Bevölkerungswachstum auf  bald 7 Mrd. immer mehr Menschen sowie ihre Güter von den Naturkatastrophen betroffen.

An die Stelle eines überschätzten, ineffektiven Klimaschutzes sollten sich alle Anstrengungen auf einen weltweiten Umweltschutz konzentrieren: Saubere Luft, sauberes Wasser, unbelastete Böden und ein intaktes Ökosystem zählen zu den Grundrechten des Menschen. Auch sind wegen der Begrenztheit der fossilen Ressourcen und der Umweltbelastungen durch Verbrennungsprozesse Maßnahmen zur CO2-Reduzierung gut zu begründen. Der sog. Klimaschutz ist dagegen die ineffektivste aller Maßnahmen. Ein stabiles Klima hat es in der Klimageschichte nie gegeben, und wird es auch in Zukunft nicht geben.

 Prof. Dr. Horst Malberg,

Den Beitrag können Sie auch als pdf im Anhang herunterladen

Prof. Malberg war in seiner aktiven Zeit langjähriger Leiter des Meteorologischen Instituts der Freien Universität Berlin. 

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global 

   observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106, 

  doi:10.1029/2005JD006548 — pdf

– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate     

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen-

  schaftsmagazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800.

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-    

   tions over the last 150 years. Reviews of Geophysics 37, 173-199.

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower

Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.:

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Sub-

   tropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO

   10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) –

   In Memoriam Prof. Richard Scherhag.

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07              

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO

   03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:

   Zukunft braucht Herkunft. SO 29/09 (2009)

– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10

   (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)

– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen

 urzperiodischen Klimaverhaltens SO 09/11 (2011) 

– Über sprunghafte Anstiege von CO2 und globaler Temperatur –SO 05/12 (2012)

– Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakade-

   mie Freiberg, 2010

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the

   troposphere: Northern winter. J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität

   Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-

   Cottbus.2007  

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R.          Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in

  Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg,

   1781–2006- Theor. Appl. Climatol. 75 (2009)

Daten

Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Central England Temperatures (CET) basieren auf den Werten des Climatic Research Unit, UK.

(www.cru.uea.ac.uk/cru/data)

Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.

Die globalen Temperaturdaten basieren auf den Werten des Climatic Research Unit, UK.

(www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen ab 1749 entstammen den Veröffentlichungen von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)

Die Sonnen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)

Related Files