1

Die Verstaatlichung der Energiewirtschaft

Beängstigend waren von Anbeginn die vorhersehbaren, zerstörerischen  Auswirkungen auf die Wirtschaft und die privaten Verbraucher., denn die Ruinierung der Energieversorgung eines Industrielandes bedeutet die Vertreibung derjenigen Unternehmen, die dem Bankrott durch Flucht ins Ausland entkommen können, während die übrigen schlicht untergehen.  Die privaten Verbraucher werden zuerst durch immer höher steigende Energiepreise ausgeplündert, bevor sie auch noch ihre Arbeitsplätze verlieren.

Nun muss man sich fragen, ob das so gewollt war. Hat die Regierung im Auftrag einer finsteren Macht beschlossen, ihr Land in den Staatsbankrott zu treiben ?  Zu den Zeiten des Kalten Krieges hätte man sicherlich diese Möglichkeit erwogen, denn der Untergang des Kapitalismus und seiner westlichen Vertreter war schließlich tatsächlich das Ziel des uns nicht wohl gesonnenen Warschauer Paktes.

Heutzutage ist ein solcher Verdacht natürlich absurd. Wenn es aber nicht die Absicht der Regierung war, das Land über die Zerstörung seiner Energieversorgung kaputt zu machen – was war dann der Grund für ihre Handlungsweise ?

Die beiden einzig plausiblen Antworten auf diese Frage sind unendlich peinlich.

Die Regierung:

Der Anlass für diesen krassen Kurswechsel, der zu Recht als „Wende“ bezeichnet wurde, war eine politische strategische Überlegung: Der Opposition, speziell den Grünen , sollten alle Argumente abgenommen werden – indem die Regierung plötzlich selbst deren Linie vertrat.

Sie hat ungeprüft ideologische Konzepte der Grünen übernommen.  Sie hat auf die Zuziehung von externem fachlichem Sachverstand verzichtet; andernfalls wäre das Ausmaß des Unsinns nicht so extrem geworden.  Und in ihren Ministerien fehlte es allem Anschein nach an dem nötigen Sachverstand; insbesondere im Umweltministerium, in dem es direkt nach der Amtsübernahme durch Trittin einen Exodus von Fachleuten und eine Einstellungswelle von grün-ideologisch geprägten Mitarbeitern gab, die bis heute – zwei Regierungen später – immer noch die Arbeit des Hauses bestimmen.

Die Folgen dieser Wende interessierten die Kanzlerin ganz offensichtlich überhaupt nicht.  Es ging nur um den Machterhalt.

Das Parlament:

Man hätte daraufhin erwarten können, dass die Abgeordneten, unter denen sich schließlich eine nicht geringe Anzahl von Fachleuten und Managern befindet, die Regierungspläne zu Konfetti zerreißen würden. Aber es lief völlig anders ab.

Unsere Parlamentarier haben sich – mit wenigen ehrenwerten Ausnahmen –  wie die sprichwörtlichen Lemminge verhalten, als sie sowohl über die Energiewende-Pläne als auch über das Kernkraft-Moratorium und den Kernkraft-Ausstieg abstimmten.  Es war offenbar eine Mischung aus verschiedenen Faktoren, die sie dazu veranlaßten: Die Opposition aus SPD, Grünen und Linken sah erstaunt, wie ihre eigenen Forderungen von der Regierung erfüllt wurden. Die Regierungsfraktionen standen unter dem Druck  ihrer   Fraktionsführungen.  Zudem fehlte der Mehrheit die fachliche Kompetenz zur Beurteilung der Konsequenzen.  Durch Zeitdruck wurde die Zuziehung externen Sachverstands verhindert. Und schließlich herrschte eine große Angst vor den Medien, deren überwiegend grün-rot orientierte Redakteure ihrerseits einen Druck ausübten, den alle Politiker fürchten.

Und so beschloß der gesamte Bundestag fast einstimmig den Einstieg in das „erneuerbare Zeitalter“ (Zitat aus dem Energiekonzept) – und de facto den Untergang ihrer Nation.

Dieser Vorgang dürfte den Historikern noch viel Stoff für Analysen bieten.

Es ist diese praktisch einstimmige Zustimmung des gesamten Parlaments zur Energiewende und zum „Atomausstieg“, die wie eine schwere Hypothek auf den Altparteien und ihren Abgeordneten liegt.  Diese Hypothek liegt auch auf dem nun neu gewählten Bundestag, denn die maßgeblichen Parteien sind immer noch dieselben – mit Ausnahme der FDP – und auch die meisten der neuen Abgeordneten sind die alten, die der energiepolitischen Blamage ihre Zustimmung gegeben hatten.

Jede nur denkbare Regierungskoalition wird aus Parteien bestehen, die alle dafür waren. Und sie müßten nun im Grunde fast alles, was sie vor nicht langer Zeit mitbeschlossen haben, wieder zerschlagen.

Dieses Dilemma in Verbindung mit den unausweichlichen, sehr bald fälligen drastischen energiepolitischen Maßnahmen  eröffnet nun leider ziemlich erschreckende Aussichten. Denn es besteht die Möglichkeit, dass an Stelle einer Rücknahme der falschen Entscheidungen – insbesondere das EEG betreffend – die letzten Hemmungen fallen und der bereits eingeleitete Prozeß der Planwirtschaft direkt in eine Verstaatlichung des Energiesektors führt.

Schließlich bietet ein weitgehend verstaatlichter Energiesektor für eine Regierung, die eine mit Gesichtsverlust verbundene Revision des Zerstörungsprogramms fürchtet, eine Reihe von vorübergehenden Vorteilen:

  • Es geschieht schließlich etwas; man zeigt Handlungsfähigkeit.

  • Immer neue, verschlimmbessernde Reparaturmaßnahmen , die durch die gegenüber wirtschaftlichen Fehlern gnadenlose Marktwirtschaft erzwungen werden, sind nun nicht mehr nötig.  Denn die Marktwirtschaft wird ja in diesem Sektor abgeschafft.
  • Man kann nun mit vielen Milliarden Euro die selbst verschuldeten und immer neuen Probleme vorübergehend „heilen“.
  • Es gibt neue Behörden und viele schöne Pöstchen für verdiente Parteisoldaten.
  • Und man gewinnt Zeit. Nicht sehr viel, denn nach maximal zwei  Jahren dürften alle Verstaatlichungskosten, Firmenaufkäufe – (bevorzugt: notleidende Stadtwerke) -, Subventionen, Investitionszuschüsse, Kapazitätsvorhaltungs-Prämien für stillstehende Kraftwerke  und soziale Hilfsprogramme für Energiekosten-geschädigte Bürger die Finanzkraft des Bundes übersteigen.  Dann steckt der Karren zwar noch viel tiefer im Dreck, aber der Zeitgewinn wäre es der Politik vermutlich wert.

Pläne, Visionen und Gesetze

Wer einen Blick in die Zukunft wagen möchte, tut gut daran, die bisherige Entwicklung genau in Augenschein zu nehmen.  Wir kennen die Programme,  die unsere Regierung seit 2009 auf dem Feld der Energiepolitik beschlossen hat und wir kennen die bisherigen Ergebnisse, heute, gerade einmal 4 Jahre später.

Sie sind überaus aufschlußreich und erlauben eine Beurteilung der Qualität der Regierungsarbeit – und daher gestatten sie auch eine Prognose über die künftigen  Schritte der Regierung  in diesem volkswirtschaftlich extrem wichtigen Sektor. Um eine Bewertung der deutschen Energiepolitik zu erhalten, genügt der Blick auf die Aktionen der Bundesregierung seit dem Sommer des Jahres 2009.

Im August des Jahres 2009  wurde das Gesetz zum Ausbau von Energieleitungen im   380 kV-Höchstspannungs-Übertragungsnetz (EnLAG) verabschiedet.

  • ♦ In der gegenüber 2009 leicht modifizierten Fassung  gilt heute eine Planung von 1.855 km.  Zweck dieses enormen Netzausbaus, der bisher nur das Höchstspannungs-Übertragungsnetz betrifft, ist vor allem der Transport des in Norddeutschland fern von den Verbrauchszentren erzeugten Windstroms nach West- und Süddeutschland. Von dem noch viel gewaltigeren Ausbau der Mittel- und Niederspannungsnetze, der durch die flächendeckend vorhandenen Solarstrom- und Windkraftanlagen mit ihrem gesetzlich garantierten Einspeisevorrang verursacht wird, ist dabei noch gar nicht die Rede.

Am 28. September 2010 beschloss die Regierung dann das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare Energieversorgung“, das nach der wahrlich größenwahnsinnigen Feststellung des Bundesumweltministeriums „die energiepolitische Ausrichtung Deutschlands bis 2050 beschreibt“.

Wesentliche Ziele darin waren:

  • Reduzierung der Treibhausgasemissionen bis 2020 um 40 % gegenüber 1990.
  • Erreichen eines Anteils der „erneuerbaren“ Energien an der Stromerzeugung von 50 % bis 2030; von 65 % bis 2040 und von 80 % bis 2050.
  • Bei diesen Zielen handle es sich um „ehrgeizige Klimaschutzziele“.
  • Zur Kernenergie liest man im Energiekonzept: „Der notwendige Umbau der Stromversorgung hin zum (wörtlich) erneuerbaren Zeitalter mit der Perspektive 2050 wird den traditionellen Energiemix (gemeint sind Kohle und Kernkraft) deutlich verändern.  Ein solcher Prozeß benötigt nicht nur Zeit, sondern muss auch wirtschaftlich vernünftig ausgestaltet werden.“ Dann kommt der entscheidende Satz:                                                                                                                
  • „Um diesen Übergang zu gestalten, brauchen wir noch zeitlich befristet die Kernenergie und werden deshalb die Laufzeiten (der 17 KKW) um durchschnittlich 12 Jahre verlängern“.  Und noch besser: „Darüber hinaus werden die Regelungen über Sicherheitsanforderungen an die deutschen Kernkraftwerke im Rahmen einer 12. Atomgesetz-Novelle erweitert und auf technisch höchstem Niveau fortgeschrieben.“

  • Zum Endlager für Kernkraft-Abfälle: „Dies (Anm.: das Endlager Konrad) wird möglichst zügig errichtet und in Betrieb genommen. Für 90 % der anfallenden radioaktiven Abfälle ist dann ein sicheres Endlager vorhanden.“  Zum Thema hochradioaktive Abfälle steht dort: Die Erkundung (Anm.: des Salzstocks Gorleben) wird ab Oktober 2010 ergebnisoffen wieder aufgenommen. In einer vorläufigen Sicherheitsanalyse werden bis Ende 2012 alle bisherigen Ergebnisse über den Salzstock zusammengetragen und einer internationalen Expertenprüfung unterzogen. Darauf aufbauend können wir die Erkundung zielgerichtet abschließen.“
  • Zur Abtrennung und Speicherung von CO2 (CCS):  „Bis 2020 sollen zwei der 12 EU-weit förderfähigen CCS-Demonstrationsvorhaben gebaut werden.
  • ♦ „Wir wollen mittelfristig die verfügbaren deutschen Potenziale für Pumpspeicherwerke im Rahmen der technischen und wirtschaftlichen Möglichkeiten erschließen.“
  • „Bis 2020 sollen 1 Million Elektrofahrzeuge in Deutschland fahren;  bis 2030 sollen es 6 Millionen sein.“
  • Am Schluß wird ausführlich „die Einbettung (dieser Pläne und Bemühungen) in die europäische Energiepolitik“ versprochen.

Nur 8 Monate später: Ein Grundpfeiler der Stromversorgung wird zerstört

Kurz nach dem durch ein schweres Erdbeben mit  nachfolgendem katastrophalem Tsumani verursachten Reaktorunfall in Fukushima verkündete am 14. März 2011 die Bundeskanzlerin eine auf 3 Monate befristete Aussetzung der gerade beschlossenen Laufzeitverlängerung  – das sog. Moratorium.  Am darauf folgenden Tag teilte sie mit, dass die 7 ältesten deutschen Kernkraftwerke während des Moratoriums abgeschaltet werden sollten. Auch das seit 2009 abgeschaltete KKW Krümmel sollte in dieser Zeit außer Betrieb bleiben.

Weil die fachlich zuständige Reaktorsicherheits-Kommission allen Reaktoren eine sehr hohe Sicherheit bescheinigte,  berief die Regierung eine sogenannte Ethik-Kommission, die dann unbelastet durch Fachkenntnisse und wunschgemäß den Kernkraftausstieg befürwortete.

Am 6. 6. 2011 beschloss die Regierung ein Energiepaket mit dem Titel „Der Weg zur Energie der Zukunft – sicher, bezahlbar und umweltfreundlich“. 

Es war streckenweise eine Neuauflage des Papiers vom September 2010. Aber durch das begleitende 13. Gesetz zur Änderung des Atomgesetzes wurde die Laufzeitverlängerung vom Oktober 2010 am 6.8.2011 zurückgenommen.

Diese sachlich völlig unbegründete und rein politisch-taktische Kehrtwendung bezüglich der Rolle der Kernenergie zerstörte einen Grundpfeiler der deutschen Stromversorgung, denn die zuvor allein durch Kohle- und Kernkraftwerke sichergestellte Grundlast-Stromerzeugung wurde plötzlich allein den Kohlekraftwerken auferlegt. Das war nicht nur ein schwerer Schlag gegen die Versorgungssicherheit der Wirtschaft und der Verbraucher, sondern zugleich auch ein Schlag gegen die hochfliegenden Pläne mit der stufenweisen und weitgehenden Übernahme der Stromversorgung durch die „Erneuerbaren“, die nun auch alle Kernkraftwerke ersetzen sollten.  Diese Vision wurde nun vollkommen illusorisch, weil die wegfallende große Grundlast-Kapazität überhaupt nicht durch „Erneuerbare“ ersetzt werden kann und höchstens ein kleiner Teil der entstehenden Lücke durch neue Braunkohlekraftwerke ausgefüllt werden könnte – falls sich überhaupt noch ein Investor dafür findet (s.u.). 

Weiterhin zerstörte dieser Beschluss die Hauptbegründung der Energiewende,  die Treibhausgase drastisch zu Gunsten eines angeblichen „ehrgeizigen Klimaschutzes“ zu reduzieren.  Wer mit mehr Kohlekraftwerken die CO2-freien Kernkraftwerke ersetzen muß, bekommt unweigerlich mehr CO2-Emissionen – das wusste selbst diese Regierung.

Damit war nach nur 8 Monaten nach seiner Verkündung dem Energiekonzept der Regierung das Hauptziel abhanden gekommen und alle anderen, die Stromversorgung betreffenden Ziele waren endgültig illusorisch geworden.

Damit endete dann auch schon die angeblich 40 Jahre in die Zukunft reichende Energieplanung.

Der Blick auf eine Trümmerlandschaft

Zwei Jahre darauf gleichen das Energiekonzept von 2010 und das „Energiepaket“ von 2011 einer Trümmerlandschaft.:

  • ♦ Die Emissionen des angeblichen Treibhausgases CO2 steigen seit der Abschaltung der 8 Kernkraftwerke unaufhaltsam. Das macht im Grunde nichts, denn die Hypothese vom CO2-angetriebenen Klimawandel zerfällt gerade, weil die reale Temperaturentwicklung im Begriff ist, selbst den Streubereich der IPCC-Horrorprognosen in Richtung Abkühlung zu verlassen.  Das politische Hauptziel „Klimaschutz“ der gesamten Energiepolitik ist damit aufgegeben worden. Darüber spricht man nicht mehr, da zu peinlich. 
  • ♦ Der Ausbau der sogenannten erneuerbaren Energien ist dank großzügigster Subventionierung stärker als geplant erfolgt, allerdings mit unerwünschten Folgen: Ein starker Anstieg des Strompreises; die ruinierte Wirtschaftlichkeit von Gas-, Steinkohle- und Pumpspeicherkraftwerken mit der Folge ihrer drohenden Stilllegung; die Gefährdung der Netzstabilität durch witterungsbedingte Schwankungen von Wind- und Solarstrom; Landschaftsverschandelung, Naturzerstörung und Lärmbelastung durch Windkraftanlagen; riesige Monokulturen durch Mais- und Rapsanbau für Biogasanlagen werden zur Konkurrenz für landwirtschaftlich genutzte Flächen; Anstieg der Pachtkosten für Agrarflächen; Anstieg der Holzpreise; Feinstaubbelastung durch Holzpellet-Heizungen; Belastungen der Stromnetze unserer Nachbarländer durch Überschuß-Strom von Windkraftanlagen; Zuzahlungen für Nachbarländer, damit sie die unerwünschten Leistungsspitzen annehmen. Und dennoch kein Ersatz der konventionellen Stromerzeugung durch Erneuerbare, weil diese auch bei größtem Ausbau niemals eine sichere Versorgung garantieren können. Damit wird die gesamte Stromerzeugung doppelt aufgebaut – die dadurch verursachten Kosten kann keine Wirtschaft verkraften: Die Abwanderung der Grundstoffindustrie ist die Konsequenz.  Womit die Regierung ebenfalls nicht rechnete, war der große Widerstand der Bürger  gegen Windkraftanlagen: Es gibt lt. SPIEGEL-Bericht über 700 Bürgerinitiativen gegen diese Technik. Hinzu kommen Bürgerinitiativen gegen den Bau von Hochspannungsleitungen und gegen den großflächigen Anbau von Energiepflanzen sowie gegen Biogasanlagen.
  • ♦ Der durch die Abschaltung der Kernkraftwerke verursachte Ausfall an Grundlaststrom wird nun teilweise durch Stromimporte ausgeglichen: Dieser Strom kommt aus französischen und tschechischen Kernkraftwerken.
  • ♦ Alle entschlossen im Energiekonzept vom September 2010 verkündeten Pläne zur Endlagerung radioaktiver Abfälle wurden schon 2013 Makulatur. Am 23.7.2013 wurde das von allen Parteien im Bundestag verabschiedete „Standortauswahlgesetz“ veröffentlicht. Das neue zeitliche Ziel ist nicht mehr 2012, sondern 2031 – aber nicht etwa für die Eröffnung des Endlagers, sondern nur für die Entscheidung, wo es denn errichtet werden könnte. Wörtlich im Gesetz: „Das Standortauswahlverfahren soll (!) bis zum Jahr 2031 abgeschlossen sein.“ Woraufhin dann der „Gorleben-Effekt“, also massiver Bürgerwiderstand, an jedem neuen, in Aussicht genommenen Standort eintritt.  Dieses Gesetz ist nichts anderes als eine Totalkapitulation vor einer unangenehmen Entscheidung: Es bedeutet, dass sämtliches hochradioaktive Material für einen unabsehbaren Zeitraum oberirdisch gelagert werden muss.  Ob das die Endlager-Gegner wollten ?
  • Die Pläne für Demonstrationsanlagen zur  CO2-Abtrennung und  unterirdischen Speicherung wurden durch den Ausstieg von Vattenfall sowie die massiven Bürgerproteste in Norddeutschland ebenfalls Makulatur.
  • ♦ Von den wenigen, energiewirtschaftlich bedeutungslosen Projekten zum Bau neuer Pumpspeicherkraftwerke scheiterte das  große Projekt am Rursee; Trianel warf das Handtuch nach sehr großem Widerstand aus der Bevölkerung.
  • ♦ Auch beim Thema Elektrofahrzeuge droht eine Blamage.  Im ersten Halbjahr des Jahres 2013 gab es nicht einmal 2.500 Neuzulassungen.
  • ♦ Der Ausbau des Höchstspannungsnetzes kommt nicht voran: Von den aktuell geplanten 1.855 km sind bislang 268 km und damit knapp 15 % realisiert.  Weitere Fertigstellungen erwarten die Netzbetreiber erst wieder 2014.  Inzwischen werden die genannten Zahlen als viel zu niedrig angezweifelt: Minister Rösler erklärte, dass  nach dem Netzentwicklungsplan 2.900 km optimiert und weitere 2.800 km neu gebaut werden müßten.
  • Und die von der Regierung zugesagte „Einbettung in die europäische Energiepolitik“  fand nicht nur nicht statt, vielmehr vollzog sie ihren extremen Schritt mit der überstürzten Abschaltung von 8 Kernkraftwerken von immerhin 8422 Megawatt Leistung ohne jede Vorwarnung oder gar Konsultation mit den Nachbarländern, die mit ihren Stromnetzen mit Deutschland verbunden sind.  Auch der extreme Ausbau der Windkraft und der Photovoltaik hat durch die dadurch verursachten starken Leistungsschwankungen erhebliche Auswirkungen auf benachbarte Länder.  Die Regierung hat diese einseitige Politik niemals mit ihren in Bezug auf die Auswirkungen auf den Strompreis und die Netzstabilität direkt betroffenen Nachbarn abgestimmt. Jetzt planen Nachbarländer – insbesondere Polen – den Bau technischer  Sperreinrichtungen gegen unerwünschte deutsche Stromexporte in ihr Netz. Abwehr anstelle von Integration ist nun die Richtung.

Energie-Planwirtschaft als Folge von Hilflosigkeit

In der Wirtschaftspresse ist bereits harsche Kritik daran geübt worden, dass im Energiesektor immer mehr marktwirtschaftliche Grundprinzipien von der Regierung missachtet und durch politisch motivierte Verletzungen dieser Prinzipien ersetzt werden.

Zahlreiche durch diese Politik hervorgerufenen Probleme zwangen die Regierung bereits zu „Reparaturmaßnahmen“, die allerdings niemals den Grundübeln zu Leibe rückten, sondern im Gegenteil stets so eingerichtet wurden, dass die gefährlich gewordenen primären Schadwirkungen durch neue kostspielige Investitionen, Subventionen und Kostenüberwälzungen auf die Verbraucher zugekleistert wurden – womit sie selbst zu neuen Schädigungen von Bürgern und Wirtschaft führen.

Die Methode ist: Fehlentscheidungen nicht rückgängig machen, sondern neue Fehler einführen, um die dahinter stehende planwirtschaftliche Ideologie zu schützen.

Folgendes geschah bereits:

1.     Das Erneuerbare Energien-Gesetz (EEG), also die Zwangssubventionierung unwirtschaftlicher und auch technisch ungeeigneter Methoden der Stromerzeugung – verbunden mit dem Zwang, den so erzeugten Strom vorrangig ins Netz einzuspeisen und seinen Weiterverkauf notfalls noch zusätzlich zu bezahlen

2.     Entschädigungs-Verpflichtung für die Nicht-Produktion eines Wirtschaftsgutes – s. §12 EEG.

3.     Die mit Angstszenarien begründete Stilllegung einer großen Grundlast-Stromerzeugung (Kernkraft) mit der Folge von Preissteigerungen,  Versorgungsengpässen und abnehmender Netzstabilität.

4.     Gewaltiger  Ausbau der Stromnetze, der ohne die Fehlentscheidung der erzwungenen Bevorzugung unrentabler Erzeugungstechniken – s. Punkt 1 – überhaupt nicht notwendig wäre.

5.     Die Übernahme der Kosten, die den Windparkbetreibern durch einen  verzögerten Anschluss  der Offshore-Windparks an das Land-Stromnetz entstehen, durch die Stromverbraucher – eine staatswirtschaftliche Maßnahme, die das vormals FDP-geführte Wirtschaftsministerium erfunden und durchgesetzt hatte.

6.     Die Entlastung von energieintensiven Produktionen von den durch das EEG verursachten Strompreiserhöhungen – und deren Überwälzung auf die übrigen Verbraucher. Hier besteht die Möglichkeit eines Eingriffs der EU wegen Wettbewerbsverletzung.

7.     Neue Subventionen, um weitere Folgen der Fehlsteuerung durch das EEG und den Kernkraftausstieg zu bekämpfen: Die Vorrangseinspeisung von Wind- und Solarstrom drückt den Börsenpreis speziell in den Mittagsstunden und macht Kohle- und Gaskraftwerke und auch Pumpspeicherkraftwerke unrentabel: Die Betreiber planen Stilllegungen.  Damit zerstört das EEG sogar die Rentabilität der einzigen Kraftwerke, die zu einer Stützung und Stabilisierung des vom stark schwankenden EEG-Strom gefährdeten Stromnetzes imstande sind. Die verzweifelte Regierung hilft sich mit: Neuen Subventionen. Das Stichwort heißt „Kapazitätsmanagement“. Im Klartext:  Zur Stilllegung vorgesehene Kraftwerke werden zur „Kaltreserve“ ernannt und deren Betreiber erhalten Geld, um die stillstehende Anlage bei Engpässen hochzufahren.  Bereits erfolgt beim bayerischen modernen Gaskraftwerk Irsching, dessen Normalbetrieb durch das EEG ruiniert wurde. Der Staat hält sich also auf eigene Kosten eine Kaltreserve.  Für die von niemand mehr geplanten Kraftwerksneubauten kommt Entsprechendes: Siehe unten.

8.     Stromspeicher werden im Ausland gesucht – so die per Seekabel teuer  anzuschließenden Pumpspeicherwerke Norwegens – weil nicht benötigter, überschüssiger Windstrom zwischengespeichert werden muss.  Die Seeekabelverbindung Nord.Link ist geplant.

9.     Durch die Energieeinsparverordnung werden Hausbesitzer zur energetischen Sanierung und Nachrüstung gezwungen. Auch wenn sie das nicht wünschen. Sie dürfen die Kosten auf die Mieter umlegen.

10. Für Neubauten ist bereits die Installierung der sog. intelligenten Stromzähler vorgeschrieben. Ein Zwang für alle Verbraucher, diese Geräte anzuschaffen, ist angesichts der die Bürger bevormundenden Energiepolitik zu erwarten.

11. In Baden-Württemberg wurden Hausbesitzer bereits gesetzlich verpflichtet, bei einer Modernisierung ihrer Heizungsanlage eine anteilige Versorgung durch „Erneuerbare Energie“ sicherzustellen.

12. Durch die wetterabhängige, bei Bewölkung rasch schwankende  Stromeinspeisung der Photovoltaikanlagen geraten die Verteilnetze in Stabilitätsprobleme. Weil ein durch zu große Einspeisung hervorgerufenes Überschreiten der Netzfrequenz von 50,2    Hertz vermieden werden muss,  wurde den Betreibern der Solarstromanlagen die Anschaffung eines Regelgerätes vorgeschrieben.  Die Kosten dafür wurden – unbemerkt – wieder den Stromverbrauchern auferlegt, obwohl sie für diese Störung des Netzes nicht verantwortlich sind. 

Die Verstaatlichung  des Energiesektors in der Zukunft

Der bereits eingeschlagene Weg in die Verstaatlichung der Stromerzeugung und -verteilung führt folgerichtig zu folgenden Schritten – und bei einer großen Koalition erst recht:

1.    Die von den EVU geplante Stilllegung von konventionellen Kraftwerken hat nicht nur den Einbruch des Börsenpreises durch hochsubventionierten und mit gesetzlichem Einspeise-Vorrang versehenen EEG-Strom als Ursache: Es geht ebenfalls um alte, unmoderne und mit schlechten Wirkungsgraden arbeitende  Anlagen, die demnächst das Ende ihrer Betriebsdauer erreichen.  Auch das fürchtet die Regierung, denn sie braucht alle existierenden Kraftwerke, weil keine neuen mehr gebaut werden – s.u.

Die staatswirtschaftliche und anti-marktwirtschaftliche Konsequenz: Bezuschussung auch dieser Altanlagen; d.h. Finanzierung umfassender Modernisierungsmaßnahmen und Subventionierung des Betriebes.

2.  Die Bevorzugung von Wind- und Solarstrom macht nicht nur die bestehenden konventionellen Kraftwerke unrentabel. Insbesondere Kraftwerksneubauten werden von der Regierung dringend gefordert, weil die durch den Kernkraftausstieg entstandene Lücke mit neuen Kohlekraftwerken ausgefüllt werden muss.  Von CO2-Emissionen spricht ohnehin niemand mehr.  Die privaten  Investoren denken jedoch angesichts dieser Energiepolitik verständlicherweise nicht mehr an  Neubaupläne. Das bekannte Heilmittel: Geld vom Staat – hier Investitionkostenszuschüsse. Das diskutiert auch schon der BDEW und auch die Bundesnetzagentur empfiehlt, über Subventionen für den Kraftwerksneubau „nachzudenken“ Deshalb hat bereits die alte Bundesregierung derartige   Investitionskostenzuschüsse für neue fossile Kraftwerke im Zeitraum 2013-2016 in Aussicht gestellt und nahm hierzu Verhandlungen mit der EU auf.  Dies wird mit Sicherheit kommen, weil auch weiterhin angesichts der sprunghaften und unberechenbaren Energiepolitik niemand derartige Investitionen tätigen wird, was sich schon heute abzeichnet. Sollte das dann auch nicht helfen, wird der Staat selbst als Kraftwerksbauer auftreten müssen – vielleicht auch gerne wollen.

3. Der staatliche Geldregen für Energiewende-Reparaturmaßnahmen lockt nun auch weitere Interessenten hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein Einspeisegesetz  á la EEG auch für Energiespeicher, die das Netz stabilisieren sollen, gefordert. Auch Investitionszuschüsse seien geeignet. Abermals heißt das vom Staat – also von den Verbrauchern –  bezahlte  „Kapazitätsbereitstellung“; hier eben für Speicher.      

4. Die schon heute erheblichen Probleme, die viele Haushalte mit ihren Stromrechnungen haben – die Verbraucherschützer sprechen von 600.000 Haushalten, denen der Strom abgestellt wurde – könnten in der Logik der Staatswirtschaft dazu führen, dass es einen Eingriff in die Tarifgestaltung der  Netzbetreiber gibt: Sozialtarife für Bedürftige, also höhere Preise für die Übrigen.                                          

5. Die bereits bei den PKW erprobte Idee der Verschrottungsprämie erlebt gegenwärtig bei den Ideenproduzenten eine Neuauflage für die „weiße Ware“, speziell alte Kühlschränke und Heizkessel.  Vorbild ist Mexiko: Dort wurde das seit 2009 praktiziert; 1,5 Millionen Haushalte ersetzten dadurch ihre Kühlschränke und  7 % weniger Stromverbrauch pro Haushalt  war das Ergebnis.

Dieser finanzielle Anreiz kann auch noch mit der Verpflichtung zur Installation von Photovoltaikanlagen oder Wärmepumpen verknüpft werden.

6. Ebenso kann es zu staatlichen Zuschüssen beim Kauf eines Elektroautos kommen, wie es die Autoindustrie, die fast nichts derartiges verkaufen kann,  vehement fordert.  Nicht einmal 2.500 Neuzulassungen gab es in Deutschland im 1. Halbjahr 2013.  Die Autofahrer sind eben nicht so dumm,  ein überteuertes Fahrzeug zu kaufen, das  auch noch ausschließlich Nachteile bringt: Geringe Reichweite,  lange Ladezeiten, fehlende Lade-Infrastruktur,  Unbrauchbarkeit im Winter, Sicherheitsbedenken bei den Li-Ionenbatterien,  Zweifel an der Batterielebensdauer.  Dazu kommt noch die Konkurrenz moderner Dieselmotoren, die kaum weniger energieeffizient, aber voll gebrauchstüchtig sind.  Die Regierung hat jedoch aus nicht nachvollziehbaren Gründen das E-Auto zum Klimaretter ernannt und es ist zu befürchten, dass neue staatliche Maßnahmen erfunden werden, um diese noch ca. 20 Jahre von ihrer  Brauchbarkeit entfernte Technik jetzt in den Markt zu bringen, koste es was es wolle. 

7. Es ist davon auszugehen, dass die sog. Smart Meter,  also „intelligente Stromzähler“ ,  durch staatliche Zwangsmaßnahmen in den Haushalten auch von Altbauten eingebaut werden müssen.  Versuche haben zwar gezeigt, dass die damit verbundenen Kosten deutlich über den sehr geringen Einsparungen im Stromverbruch liegen, doch das dürfte nach allen Erfahrungen die Ministerialbürokratie nicht daran hindern.  Es geht schließlich nicht nur um Stromeinsparungen, sondern vielmehr um die Kontrolle der Energieverbraucher sowie um deren Erziehung zum Energiesparen. Es sind deshalb Proteste zu erwarten, weil mit diesen Zählern das Verbrauchsverhalten der Bürger überwacht werden kann – mit Ermahnungen des Versorgers bei kritikwürdigem, nicht klimagerechten Verhalten.  Der Schnüffelstaat läßt grüßen.

8. Kurz vor der Bundestagswahl hat das bis dahin FDP-geführte Wirtschaftsministerium 1000 Energieberatungs-Gutscheine á 250 Euro an Haus- und Wohnungsbesitzer verteilt.  Ziel sei „ein weitgehender klimaneutraler Gebäudebestand bis 2050“.  Dieser dreifache Unfug – die Unnötigkeit der Aktion, weil das Klimaargument passé ist,  die größenwahnsinnige Perspektive 2050 und die faktische Unbezahlbarkeit trotz Gutschein – erklärt zumindest zu einem kleinen Teil den Totalabsturz der FDP. Aber die Idee zur Energieberatung der Haushalte hatte zuvor schon Minister  Altmaier und es ist anzunehmen, dass die staatlich geförderte Ermunterung der Bürger zum Energiesparen noch weiter getrieben wird.  Bezeichnend ist dabei, dass es mit dem Strom-Schlaraffenland der Erneuerbaren nicht so weit her sein kann, wenn geradezu verzweifelt das Stromsparen propagiert wird.  Ob die Ergebnisse dieser Beratungen von staatlichen Stellen ausgewertet werden, um uneinsichtigen Bürgern „erneuerbare“ Energien nahe zu bringen, ist offen, aber keineswegs ausgeschlossen.

9. Weil mit zunehmendem Anteil von extremen Spitzen und ebenso abrupt eintretenden Versorgungslücken des Windstroms gerechnet werden muss, steigt auch die Gefahr von Netzzusammenbrüchen – neudeutsch Blackouts.  Weil es  nicht annähernd ausreichende Stromspeicher zum Ausgleich  dieser Schwankungen gibt – und auch für die kommenden 20 Jahre nicht geben wird – werden staatliche Stellen verstärkt Großverbraucher zwingen,  zeitweise Stromabschaltungen hinzunehmen.  Diese Unternehmen sehen sich dadurch gezwungen, eigene größere Notstromgeneratoren zu installieren, was ihre Kosten in die Höhe treibt.

10. Weil die Lebensdauer auch von Photovoltaikanlagen und Windkraftanlagen begrenzt ist, stellt sich irgendwann die Frage der Verschrottung.  Nach dem bislang eisern durchgehaltenen Prinzip der Energiewende, alle Kosten auf die Verbraucher abzuwälzen, ist zu befürchten, dass  das auch bei diesen Kosten nicht anders sein wird.

11. Die Schnüffelei, die bei den intelligenten Zählern und der Energieberatung möglich ist,  kann auch noch auf einer anderen, buchstäblich höheren Ebene erfolgen: Der Umweltreferent der Stadt Bonn, der über die geringe Anzahl von Photovoltaikanlagen auf den Dächern, die er aus seinem Büro sah, sehr traurig war, verbreitete sich über die Idee, aus Luftbildaufnahmen alle für eine Solarzellen-Installation geeigneten Dächer der Stadt zu bestimmen – um dann den betreffenden Hausbesitzern die Anschaffung einer Solarstromanlage ans Herz legen zu können. Hier können sich staatliche Stellen noch Meriten erwerben; vielleicht hilft auch die Luftwaffe.

13. Die Mischung aus Hilflosigkeit und Verzweiflung produziert bereits Vorschläge, die die Älteren an die letzten Jahre des Krieges erinnern. Damals wurde zum Beispiel in der Wochenschau im Kino regelmäßig der Kohlenklau vorgeführt , den man durch das Schließen der Fenster am Energiediebstahl hindern sollte.  Jetzt ist das Energiesparen wieder nationale Pflicht geworden.  Mit Plakaten wurde im Krieg auf die Wichtigkeit der Verdunkelung hingewiesen – damals gegen die Bomber, heute vielleicht wieder aktuell gegen den auch nicht angenehmen totalen Blackout im Winter.  Minister Altmaier gab bereits Tips zum Energiesparen im Haushalt: So sollte man möglichst den Deckel auf dem Kochtopf lassen.  Wenn es so weiter geht, werden auch noch unsere Kabarettisten arbeitslos.

Eine sehr ernste Warnung

Auf dem Debattenabend „Energiewende: Plan- vs. Marktwirtschaft“ der Stiftung Energie & Klimaschutz am 5.6.2013 in Stuttgart hat der Leiter des renommierten Instituts für Energiewirtschaft und Rationelle Energieanwendung (IER) der Universität Stuttgart, Prof. Dr. Alfred Voß, die Gefahr eines weiteren Ausbaus der sog. Erneuerbaren mit sehr deutlichen Worten beschrieben.

Zitat: „Die Technologieziele der Energiewende sind mit einem marktwirtschaftlichen Ordnungsrahmen nicht zu erreichen“. Trotz großer Fortschritte der erneuerbaren Energien glaube er nicht, dass diese auf einem freien Markt mit der konventionellen Stromerzeugung konkurrieren können.  Deshalb werde die Energiewende „nur mit einem planwirtschaftlichen Ordnungsrahmen und mit erheblich höheren Kosten umzusetzen sein“.  Voß weiter: „Alles was wir machen, wenn wir den Ausbau der Erneuerbaren so fortführen, wird dazu beitragen, dass wir ein Energieversorgungssystem haben, das ein zentrales Kriterium nicht erfüllt, nämlich einen wettbewerbsfähigen Strompreis für die Bürger und die Industrie.“

Zur Erinnerung: Im September 2010 beschloss die Regierung das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare (!) Energieversorgung“.  Wird dieses Konzept weiter verfolgt, werden alle diese Hauptziele völlig verfehlt und dieses Experiment wird in einer teuren Planwirtschaft enden.

Prognosen sind schwierig……,

insbesondere, wenn sie die Zukunft betreffen. Dieser von Mark Twain stammende Satz gilt weiterhin und ganz besonders für die deutsche Energiepolitik.  Dennoch sei hier eine Voraussage gewagt.  Genau so, wie neuerdings in Wetterberichten regelmäßig die ziemlich seltsame  Aussage über die Regenwahrscheinlichkeit zu hören ist (als ob man dann mit 60-prozentiger Wahrscheinlichkeit seinen Schirm mitnimmt), kann man auch in diesem Politikfeld, gegen das unser Wetter – obwohl ein chaotisches System – zumindest für zwei Tage und damit besser als die gleichfalls chaotische Politik recht gut prognostizierbar ist,  nur noch mit Wahrscheinlichkeiten rechnen.

Und die oben angestellten Betrachtungen ergeben mit einer höheren Wahrscheinlichkeit als alle anderen Möglichkeiten für den Energiesektor das Ergebnis Plan- und Staatswirtschaft. Sollte es anders kommen, wäre es ein guter Grund zur vorübergehenden Erleichterung.

Dr.-Ing. Günter Keil,  Sankt Augustin

Den Beitrag können Sie unten als pdf herunterladen

Related Files




IPCC-Klimabericht: Ein Erzeugnis voller Lügen, verdammter Lügen und Statistiken aus unsauberen Daten

Wenn man die Daten nur lange genug bearbeitet, wird die Natur immer klein beigeben – Ronald Coase.

Fakten sind eine sture Sache, aber Statistiken sind viel formbarer – Anonymus

Die Konferenz wurde dominiert vom Hauptredner, dem Klimamodellierer Michael Schlesinger. Er verglich in seiner Präsentation fünf große Globalmodelle und deren Ergebnisse. Er erklärte sie als gültig, weil sie alle Erwärmung zeigen. Natürlich taten sie das, weil sie genau so programmiert waren, um zu diesem Ergebnis zu kommen. Das Problem bestand darin, dass sie in weiten Gebieten erhebliche Abweichungen zeigten. Zum Beispiel zeigte ein Modell für Nordamerika Abkühlung, ein anderes Erwärmung. Das Auditorium wollte angemessene Informationen für die Planung haben und wurde unruhig, vor allem während der Fragestunde. Die Unruhe erreichte einen Höhepunkt, als jemand nach der Genauigkeit der Prognose ‚trockener und wärmer’ für die Provinz Alberta fragte. Die Antwort lautete 50%. Der Fragesteller erwiderte, dass das nutzlos sei, sein Minister bräuchte 95%. Die Rufe wurden lauter.

Schließlich warf jemand seinen Schuh auf die Bühne. Als es im Saal wieder ruhig geworden war, sagte er: „Ich hatte gerade kein Handtuch“. Es stellte sich heraus, dass er schlecht bei Stimme war und der Schuh das einzige Mittel gewesen sei, Aufmerksamkeit zu erlangen. Er fragte um Erlaubnis, zum Rednerpult vorkommen zu dürfen. Dort beschrieb er seine Qualifikationen und schrieb eine Formel an die Tafel. Er fragte Schlesinger, ob dies die Formel sei, die er als Basis für sein Atmosphären-Modell verwendet hatte. Schlesinger bejahte. Dann eliminierte der Mann Variablen und fragte Schlesinger, ob sie in seiner Arbeit weggelassen worden waren. Nach einigen Eliminierungen sagte er, dass eine womöglich reichen würde, aber dann bliebe keine Formel übrig und mit Sicherheit kein Modell. Dies war der Weg mit den Computermodellen seit deren Einführung.

Klima ist ein Mittel, und zu Anfang waren Mittelwerte immer statistisch berechnet worden. In den meisten Wetterämtern war es die Aufgabe der Klimatologen, monatliche und jährliche Mittel zu erstellen. Das Fach Klimatologie war nicht von Interesse oder etwas, weswegen man sich Sorgen machte. Die wichtigsten Personen waren die Prognostiker, also Meteorologen mit Kenntnissen über die Physik der Atmosphäre. Selbst heute noch kennen nur wenige Menschen den Unterschied zwischen einem Meteorologen und einem Klimatologen. Als ich meinen PhD erlangte, gab es im Wesentlichen nur zwei Zentren klimatologischer Forschung, nämlich Reid Brysons center in Wisconsin und die Climate Research Unit (CRU) von Hubert Lamb an der University of East Anglia. Lamb hat es dort aufgebaut, weil der nationale Wetterdienst sich nicht für Klimatologie interessierte. Mancher machte sich lustig über meinen PhD im Fachbereich Geographie wegen seiner chronologischen Zielsetzungen. (Das Studium kausaler Beziehungen zwischen geographischen Phänomenen in einem Gebiet).

Disraelis Warnungen vor Lügen, verdammten Lügen und Statistiken wurde beispielhaft bestätigt durch die Arbeit des IPCC und deren Unterstützer. Ich habe schon vor Jahren bemerkt: je ausgeklügelter die statistische Methode war, umso größer war die Wahrscheinlichkeit, dass die Daten unbrauchbar waren. Im Bereich Klima waren die Daten unbrauchbar von Anfang an, wie Lamb bei der Gründung der CRU ausführte. In seiner Autobiographie schrieb er: „…es war klar, dass die erste und größte Notwendigkeit darin bestanden hat, die Fakten des natürlichen Klimas der Vergangenheit zusammenzustellen, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten bedeutsam werden könnten“. Heute ist es noch schlimmer. Beweis für die Unbrauchbarkeit ist die Verwendung immer bizarrerer statistischer Methoden. Jetzt führen sie Daten ein, als ob sie etwas parametrisieren. Jetzt verwenden sie den Output einer statistischen Erfindung oder eines Modells als reale Daten in einem anderen Modell.

Die Klimadebatte kann nicht getrennt von der Umweltpolitik betrachtet werden. Die globale Erwärmung wurde zum zentralen Glaubenssatz der Behauptung, dass die Menschen den Planeten zerstören. Federführend diesbezüglich war der Club of Rome. Ihr Buch Grenzen des Wachstums bewirkte zwei wesentliche Dinge: Sie entfernten das Verstehen und kreierten einen falschen Sinn für Autorität und Genauigkeit. Das erste war die grob vereinfachende Applikation von Statistik jenseits eines Mittels in Form einer geradlinigen Trendanalyse. Das Zweite waren Vorhersagen, die ehrfurchtgebietend, aber ungerechtfertigt und nur der Output von Computermodellen waren. Sie wollten zeigen, dass wir auf eine Katastrophe zusteuern und haben die Statistiken und Prozesse entsprechend frisiert. Dies wurde zur Methode und der Philosophie des IPCC. Ursprünglich hatten wir Klima-Mittelwerte. In den siebziger Jahren kamen dann nach der Abkühlung der vierziger Jahre Trends in Mode. Natürlich war der Abkühlungstrend nicht von Dauer und ist in den achtziger Jahren durch einen ebenfalls grob vereinfachten Erwärmungstrend abgelöst worden. Jetzt versuchen sie, einen weiteren Abkühlungstrend zu ignorieren.

Ein Problem entwickelte sich aus dem Übergang vom Mittel zum Trend. Personen, die versuchten, historische Mittelwerte zu rekonstruieren, brauchten einen Zeitraum in der Jetztzeit zum Vergleich. Das 30-jährige Mittel wurde aus 30 ausgewählten Werten gebildet, weil es eine statistisch signifikante Anzahl n war. Der erste dieser Mittelwerte war der Zeitraum 1931 bis 1960, weil man glaubte, die besten instrumentell gewonnenen Datensätze zu haben. Sie verändern die 30-Jahres-Periode fortwährend, was zusätzlich zur Konfusion beiträgt. Problematisch ist es auch, weil die Anzahl der Stationen signifikant reduziert worden ist. Wie aussagekräftig sind die Studien, die frühere „Normalperioden“ verwendet haben?

Unglücklicherweise begannen die Leute, Normalwerte für die falschen Zwecke zu verwenden. Sie werden jetzt für das Wetter allgemein verwendet. Dabei handelt es sich lediglich um das mittlere Wetter in einem Zeitraum von 30 Jahren. Tatsächlich ist das für Klima ungeeignet, weil die meisten Änderungen in längeren Zeiträumen erfolgen.

Aber es gibt eine andere statistische Maßzahl, die sie einfach ignorieren. Menschen, z. B. Landwirte, die Klimadaten für ihre Arbeit brauchen, wissen, dass eine der wichtigsten statistischen Größen die Variation ist. In der Klimatologie war man sich dessen vor Jahrzehnten bewusst, als man herausfand, dass für die sich ändernde Variabilität, vor allem beim Wetter der mittleren Breiten, Änderungen der Höhenwinde verantwortlich waren. Daran hat Lamb gearbeitet, und Leroux hat dessen Arbeit fortgesetzt.

Derzeit kehrt sich der globale Trend von Erwärmung zu Abkühlung um, und diese Winde ändern sich von zonal zu meridional, was die Variabilität von Temperatur und Niederschlagsmenge dramatisch zunehmen lässt. Das IPCC, verflucht mit einem Tunnelblick politischer Objektiven und begrenzt durch seine Sicht auf Referenzen hat die natürliche Variabilität nicht berücksichtigt. Sie können nur behaupten, und zwar fälschlich, dass die Änderung Beweis für ihre falschen Projektionen ist.

Edward Wegman hat in seiner Analyse des „Hockeyschlägers“ für das Barton Congressional committee sogar ein noch größeres Problem der Klimawissenschaft gefunden, wenn er schreibt:

„Wir wissen, dass es keine Beweise gibt, dass Dr. Mann oder irgendein Autor paläoklimatischer Studien irgendwann einmal einen signifikanten Austausch mit Mainstream-Statistikern gehabt hätte“.

Dies identifiziert das Problem, das seit Langem die Verwendung von Statistiken geplagt hat, vor allem in den Geisteswissenschaften, nämlich die Verwendung von Statistiken ohne Hintergrundwissen oder Verständnis.

Viele haben ein Buch zu Rate gezogen, das als SPSS bekannt ist (es ist immer noch verfügbar). Die Abkürzung steht für Statistical Packages for the Social Sciences. Ich kenne Leute, die einfach Zahlen hineinschreiben und total irrelevante Ergebnisse bekommen. Eine falsche Anwendung unterminierte die Karriere eines englischen Geomorphologen, der eine Trendanalyse völlig falsch angewandt hatte.

Die IPCC-Projektionen scheitern an vielen ungeeigneten Statistiken und statistischen Methoden. Natürlich bedurfte es eines Statistikers, um auf die völlig falsche Verwendung von Statistiken hinzuweisen und darauf, wie sehr sie damit die Welt zu desaströsen politischen Maßnahmen getrieben haben, aber das unterstreicht nur das Problem mit Statistiken, wie auch die beiden Zitate zu Beginn belegen.

Es gibt einen weiteren sehr passenden Spruch von dem Mathematiker und Philosophen A. N. Whitehead über den Gebrauch oder Missbrauch von Statistiken in der Klimawissenschaft:

Es gibt keinen größeren Fehler als die Annahme, dass die Anwendung der Ergebnisse auf einige Fakten der Natur absolut sicher ist, nur weil lange und genaue mathematische Berechnungen durchgeführt worden waren.

Andere Zitate bzgl. Statistik enthüllen ein allgemeines Verständnis für deren Grenzen und, schlimmer, deren Anwendung. Hier folgen einige:

Er verwendet Statistiken wie ein Betrunkener Laternenpfähle – zur Stützung und nicht zur Verdeutlichung. – Andrew Lang

Ein weiteres Bündel dieser eisenharten Bandagen ist die neue Wissenschaft der Statistik. – Ralph Waldo Emerson

Dann gibt es da diesen Mann, der während der Querung eines Flusses ertrunken ist, der im Durchschnitt 15 cm tief war. – W. E. Gates

Satan hat gleichermaßen an Statistiken und an Literatur-Zitaten seine Freude. – M. J. Moroney

Statistiken sind das moderne Äquivalent zur Anzahl der Engel auf dem Kopf einer Stecknadel – aber dann haben sie vermutlich eine statistische Abschätzung dafür. – Tim Ball

In nichts zeigt sich der Mangel an mathematischer Bildung mehr als in einer übertrieben genauen Rechnung.

Carl Friedrich Gauß, (1777 – 1855) deutscher Mathematiker, Astronom und Physiker 

Link: http://wattsupwiththat.com/2013/10/02/ipcc-climate-a-product-of-lies-damn-lies-and-statistics-built-on-inadequate-data/

Übersetzt von Chris Frey EIKE




Klimasieger und Klimaverlierer der Bundestagswahl

Trotz dieser kriegerischen Sprache handelt sich beim Wahlkampf um einen unblutigen Kampf, der überwiegend mit Worten ausgefochten wird, wobei alle Künste der Rhetorik ausgeschöpft und alle Tricks der Demagogie angewandt werden können. Der Wahlkampf ist Meinungskrieg der Worte und Neigungskrieg zugleich. Es kommt darauf an, zu wessen Gunsten sich die Waagschale neigt. Wem es gelingt, sich in einem Wahlkreis die Mehrheit der Wähler oder die Mehrheit an Erststimmen zugeneigt machen kann und von ihnen das ersehnte „Kreuz“ erhält, der hat sein Territorium, seinen Wahlkreis, direkt erobert. Der kann besonders stolz sein, der ein fremdes Revier erobert und den Platzhirsch verjagt hat. Er darf sich als direkt gewählter Abgeordneter fühlen, somit als echter „Volksvertreter“, der nicht über einen Listenplatz ins Parlament aus Parteignade gerutscht ist. Die Listenplätze werden streng nummeriert und schon vor den Wahlen festgelegt. Diesen muss sich jeder Kandidat parteiintern erobern. Mit seiner Zweitstimme wählt der Bürger eine Partei, keine Person.

Wahlen sind Neigungskämpfe, ja Klimakriege

Wenn auch die „Klimapolitik“ weitestgehend im stillschweigenden Einvernehmen zwischen allen konkurrierenden Parteien ausgeklammert wurde, da bezüglich „Klimaschutz“ zwecks Abwendung der „Klimakatastrophe“ ein parteiübergreifender Konsens zu bestehen scheint, ist jeder Wahlkampf, auf welcher politischen Bühne er ausgefochten werden mag, ein Klimakrieg. Das Wort Klima kommt aus dem Griechischen und heißt wörtlich übersetzt Neigung! Und nur um das Gewinnen von Neigung oder Zustimmung geht es bei der Wahl.

In einer parlamentarischen Demokratie ist automatisch jeder Mandatsträger ein Klimakrieger. Will er gewinnen, muss er von Plakaten lächeln, sich von seiner besten Seite zeigen. Er muss auf die Menschen zugehen, kleine Geschenke machen, freundliche Worte finden, Versprechungen machen, alles mit dem einzigen Ziel, ihre Zuneigung zu gewinnen und deren „Kreuz“ zu erhaschen. Politiker sind geborene Klimajongleure, die die Kunst beherrschen müssen, das Vertrauen von Menschen –zumindest vorübergehend- zu gewinnen und den politischen Gegner auszustechen. Ein Wahlkampf ist ein Neigungskampf. Wer die meiste Zuneigung auf sich zieht, gewinnt. Wer kein ausgesprochener Klimaegoist ist und nicht die meisten Stimmen ergattert oder ergaunert, ist Klimaverlierer. Von den 299 direkt zu vergebenden Wahlkreisen hat die CDU/CSU 236 erobert mit weitem Abstand vor der SPD mit 58, der Linken mit 4 und den Grünen mit 1.

Betrachtet man das Endergebnis, so sind die beiden Unionsparteien CDU/CSU die eindeutigen Klimagewinner. Von den 630 Sitzen nehmen sie 311 ein, ein Plus von 72 Sitzen. Ganz klarer Klimaverlierer ist die FDP. Sie hat die 5-Prozent-Hürde nicht genommen und verliert alle 93 Mandate. Die SPD zieht mit 192 Abgeordneten in den Bundestag. Das sind 46 mehr, die aber alle nicht direkt ihren Wahlkreis gewonnen, sondern über einen Listenplatz eingezogen sind. Die Linke wie die Grünen haben in diesem Klimakampf leichtere, wenn auch schmerzliche Verluste hinnehmen müssen. Mit 64 Sitzen hat die „Linke“ einen Sitz mehr als die „Grünen“, ist also drittstärkste Partei. Interessant wird sein, ob nach der Regierungsbildung der Hund mit dem Schwanz oder der Schwanz mit dem Hund wedelt.

Klimapolitik ist Neigungspolitik ist Gesellschaftspolitik

Diesen einfachen Zusammenhang zu erfassen und in der politischen Arena zu artikulieren, wäre die große Chance für die neue Partei „Alternative für Deutschland“ (AfD) gewesen. Sie hätte das feste, von links bis rechts reichende klimapolitische Schweigekartell brechen und damit klar den mit 4,7 Prozent nur knapp verpassten Einzug in den Bundestag feiern können. Dass diese Chance von einer Partei, die sich aus dem gehobenen Bildungsbürgertum entwickelt hatte, nicht genutzt wurde, ist kaum zu verstehen. Es drängt sich als Erklärung die Annahme auf, dass der politische Dressurakt „Klimaschutz“ inzwischen einen gesellschaftspolitischen Kollektivzwang ausübt, der es politisch für gar nicht opportun erscheinen lässt dagegen anzugehen. Es ist offensichtlich die Angst vor den Medienvertretern, die sich als eiserne Sittenwächter des „Klimaschutzes“ aufspielen und jeden, der dieses Politikziel auch nur geringfügig infrage zu stellen sich wagt, massiv des politisch unkorrekten Verhaltens bezichtigen.

Mir fällt hier eine Frage ein, die Mark Twain (1835-1910) stellte: „Manchmal frage ich mich, ob die Welt von einigen klugen Köpfen regiert wird, die uns für dumm verkaufen wollen, oder von einigen Dummen, die ernsthaft reden.“ Die Antwort ist deswegen schwierig, weil eine Regierung sich in unbekannter Mischung aus Klugen und Dummen zusammensetzt. Wir haben diese Dualität auch beim Licht, das sowohl Korpuskel als auch Welle ist. Wenn man wie Mark Twain vom Entweder-Oder-Standpunkt ausgeht, dann hat die AfD als Alternative eine riesengroße Chance verpasst, die Klima-Waagschale zu ihren Gunsten kippen zu können. So hat sie sich als Alternative „alternativlos“ gezeigt und ist trotz Achtungserfolg knapp mit 4,7 Prozent der Zweitstimmen gescheitert. Ob sie die Mutlosigkeit heute bereut?

Klima ist nicht Klima und Klima bestimmt schon gar nicht das Wetter

Im alltäglichen Sprachgebrauch ist Klima ein sehr häufig gebrauchtes Wort auf und tritt fast immer in Kombination mit anderen Begriffen auf, deren Eigenschaft es ist, nicht konstant sondern stets veränderlich und Schwankungen unterworfen zu sein. „Alles fließt“, wusste schon Heraklit und dazu bedarf es einer Neigung. Das Wort „Klima“ als „Neigung“ ist unbestimmt in der Urbedeutung. Erst mit der Angabe des Neigungswinkels kann man die Stärke des Flusses abschätzen. Das Ziel ergibt sich, wenn auch die Richtung bekannt ist. Das Wort „Klima“ ist so im Sprachgebrauch wie im individuellen wie kollektiven Unterbewusstsein verankert, dass wir uns praktisch keine Gedanken machen und emotional mit Angst reagieren, wenn die „Warnung vor der drohenden Klimakatastrophe“ ausgesprochen wird.

In welchen Wortkombinationen kommt nicht alles das Wort „Klima“ vor. Das beginnt beim Ehe- und Familienklima, es findet sich weiter beim Arbeits- und Betriebsklima. Es steckt im Beschäftigungs- und Konjunkturklima, im Börsen-, Steuer- und Wirtschaftsklima, im sozialen und politischen Klima. Der Erfolg politischer Verhandlungen hängt vom Gesprächsklima, ja von einer freundschaftlichen Atmosphäre ab. Es gibt wohl nichts im Leben, das nicht irgendwie neigungsabhängig ist. Das betrifft den Menschen auch ganz direkt. Wenn der Gleichgewichts-Sinn versagt, der uns aufrecht, in senkrechtem Winkel stehen lässt, dann ist das für jeden Menschen eine „Klimakatastrophe“.

Eine Gleichgewichtsstörung hat wie alle anderen denkbaren „Klimakatastrophen“, sei es ein Börsenzusammenbruch, eine gewaltsame Revolution, ein Bürgerkrieg, eine Geldentwertung nichts aber auch absolut nichts mit dem Wetter zu tun. Schlimmer, das Wetter kann gar nicht vom Klima beeinflusst werden, weil das Klima vom Wetter abgeleitet ist. Das Wetter ist die Ursache dessen, was wir als Klima bezeichnen. Dies besagt allein die international gültige und verbindliche Definition von Klima. Nach Maßgabe der Weltorganisation für Meteorologie in Genf muss man 30 Jahre an einem Ort das Wetter beobachten, die meteorologischen Elemente erfassen und statistisch bearbeiten. Das Rechenkonstrukt nennt man das Klima dieses Ortes. Damit beschreibt man das „mittlere Wettergeschehen“, das allerdings vom wirklichen Wetter beliebig weit abweichen kann. Konkret ist eine 30jährige Mitteltemperatur von 9,5°C ein Wert ohne Wert. Er sagt nichts aus darüber, was alles an Wetter diesen Wert zustande gebracht hat. Solch ein Wert kann nachträglich eingeordnet und gewichtet werden, wenn man sehr lange Zeiträume betrachtet und gleitende 30-Jahresmittel-Werte betrachtet.

So geht man auch an der Börse vor, wo man versucht, das sehr volatile und durchaus von Stimmungen abhängige Verhalten des DAX durch die Konstruktion von gleitenden 90-Tage-Mitteln oder 200-Tage-Mitteln zu glätten, um Zukunftsprojektionen entwerfen zu können. Über die Unsicherheiten und den spekulativen Charakter von Börsenprognosen braucht kein Wort verloren zu werden. Auch hier gibt es einen Spruch von Mark Twain: „Voraussagen sollte man unbedingt vermeiden, besonders solche über die Zukunft.“ Twain warnte zudem: „Wenn du merkst, dass du zur Mehrheit gehörst, wird es Zeit, deine Einstellung zu revidieren.“ Die Mehrheit glaubt bind der politischen Zielvorgabe, das Klima schützen zu können und zu müssen, fragt aber nicht, wie man das Wetter schützen kann, von dem das Klima statistisch abgeleitet wird.

Keiner bemerkt die Schizophrenie des Vorhabens „Klimaschutz“, dass nach entsprechender medialer Konditionierung von 90 Prozent der Bevölkerung gutgeheißen wird, auch wenn die Strompreise in unbezahlbare Höhen steigen. Eine Partei, die sich von der Masse abheben will, kann aber nur erfolgreich sein, wenn sie kritisch dem Zeitgeist gegenüber steht und auch den Mut hat, gegen den Konsensstrom zu schwimmen. Das erfordert Ausdauer, Kraft und Vertrauen in die eigene Urteilsfähigkeit. Die Frage hätte lauten müssen: Wie steht es mit dem „Wetterklima“, dem sich ändernden Neigungsverhalten des Wetters. Dieses ist so unbekannt, dass es zwar immer wieder private Versuche gibt, grob die Witterung des kommenden Winters oder Sommers abzuschätzen, aber keine „amtlichen“ Prognosen. Es gibt bisher auch keine Antwort auf die Frage, und kein Weltklimarat beschäftigt sich damit, weshalb Jahr für Jahr bei gleichem Jahreszeitenrhythmus der Wetter- bzw. Witterungsverlauf so erheblich voneinander abweichen.

Das Wetter ist für den Menschen die große Unbekannte in der Natur, nicht das statistisch vom Wetter abgeleitete Klima, das ohnehin immer nur die Vergangenheit betrifft. „Klimaschutz“ ist wie leeres Stroh dreschen. Es kommt nichts dabei raus! Es ist das Wetter, das unser aller Leben bestimmt, das die biologische Artenvielfalt verursacht.

Kann der Mensch das Wetter nach seinen Vorstellungen „machen“?

Dieser Wunschtraum besteht schon lange. Seine Verwirklichung ist eine Frage nach der dem Menschen zur Verfügung stehenden Energie. Insbesondere in Zeiten der „Energiewende“, wo man die Kraft des Windes wie die Strahlung der Sonne nutzen muss, um die Bedürfnisse nach elektrischer Energie zu befriedigen, ist an eine großräumige Wetterbeeinflussung eher nicht zu denken.

Dieser Traum wurde in der Sowjetunion geträumt, wie dem von A. P. Beljakow 1954 in Berlin erschienenen Buch „Elektrizität rings um uns“ zu entnehmen ist. Da wird an die Worte Lenins erinnert: „Kommunismus – das ist Sowjetmacht plus Elektrifizierung des ganzen Landes“. Dazu heißt es: „Die unter der Leitung der Partei Lenins und Stalins vom großen sowjetischen Volke durch die Elektrifizierung geschaffene gewaltige Technik erlaubt es, die Natur umzugestalten, das Klima zu verändern, die Dürren abzuwenden, aus Wüsten blühende Gärten zu machen und ein schöneres Leben zu schaffen, als es in den Märchen dargestellt wird.“

Der Traum geht weiter: „Mit Hilfe der Elektrizität wird auch der alte Wunsch der Menschheit, das Wetter zu regieren, Wirklichkeit werden: Bei Trockenheit wird man durch starke elektrische Apparate –Konzentratoren– die Wolken verdichten und in Regenwolken umwandeln können. Oder man wird, was noch vorteilhafter ist, gigantische elektrische Regenmaschinen einsetzen. An trüben Tagen wird man den Wolkenvorhang beseitigen können, der die Sonne verdeckt; man wird Regenwolken ableiten und zerstreuen können; die Wissenschaft wird Wege finden, um an heißen Tagen die Schwüle zu vermindern und an kalten Tagen den starken Frost. Es werden einige Jahre vergehen, und durch diese mächtige Elektrotechnik und Elektrifizierung des ganzen Landes wird das Sowjetvolk unter der Leitung der Partei Lenins und Stalins eine nie dagewesene Arbeitsproduktivität erreichen. Damit wird für Millionen Menschen, für die Schöpfer der kommunistischen Gesellschaft, ein Überfluss an allen zu einem glücklichen Leben erforderlichen Gütern vorhanden sein.“

Leider sind die große Sowjetunion und mit ihm das Sowjetvolk untergegangen, bevor diese Wunschträume Wirklichkeit wurden. Zumindest war der Wille, „das Wetter zu regieren“, an der Wirklichkeit ausgerichtet. Der Wille, „das Klima zu schützen“, ist nicht einmal das.

Dipl.-Met. Dr. phil. Wolfgang Thüne




Kernkraft ist die ideale Energiequelle und das Beste für die Umwelt und auch für die Weltwirtschaft

Bild rechts: Die finale Demonstration der Anti-Feuer-Partei vor 25000 Jahren

In besonderem Maße müssen ergiebige Energiequellen gefunden werden, die die Umwelt verschmutzenden Gas, Kohle und Öl ersetzen. Wind und Sonne können das nicht leisten, obwohl sie hier und da etwas dazu beitragen können – und Gas ist ein verschmutzender fossiler Treibstoff, ob die Vorräte nun zunehmen oder nicht. Überraschenderweise gibt es eine fast ideale Ressource – Kernkraft. Die einzige Schwierigkeit ist, dass die Weltmeinung nach wie vor hypnotisiert ist, wenn die Worte Kernkraft oder Strahlung fallen. Dafür gibt es jedoch absolut keine wissenschaftliche Rechtfertigung. Viele glauben, dass Kernkraft gefährlich oder sehr schwer zu verstehen ist, aber das ist ziemlich falsch – die Wahrheit ist relativ einfach und sollte von viel mehr Menschen akzeptiert werden (1).

Besorgnis hinsichtlich technischer Änderungen ist nichts Neues, aber selbst wenn sich ernste Sicherheitsfragen erheben, bringen sie normalerweise vitale Vorteile. Zum Beispiel hat 1865 die Einführung des berühmten Red Flag Act [mehr dazu hier bei Wikipedia] das Tempo bzgl. des Fortschritts von motorisiertem Straßenverkehr zu Kriechtempo verlangsamt. Die „Anti“-Lobby, die das Gesetz durchgedrückt hatte, war wegen Unfällen besorgt und wollte die Pferde nicht erschrecken! Man sollte sich daran erinnern, dass es modernen Wohlstand heute kaum geben würde, wenn das Gesetz nicht im Jahre 1896 zurückgezogen worden wäre, obwohl die Sicherheitsbedenken bis heute bestehen.

Ein noch bedeutenderes Beispiel ereignete sich vor etwa 25000 Jahren, als die Menschen zum ersten Mal das Feuer zu ihrem Nutzen verwendeten. Sie müssen es damals als gefährlich empfunden haben – ging doch Vieles leicht in Flammen auf und brachte in einer Art „Kettenreaktion“ Zerstörung. Tiere gerieten in Panik und rannten davon, aber die Frühmenschen überwanden diese natürliche Angst und gebrauchten ihren Verstand zum Lernen und Verstehen. Wir können uns einige lautstarke Demonstrationen vorstellen durch Mitglieder einer Anti-Feuer-Partei, die mächtige Argumente auf ihrer Seite hatte wie zum Beispiel Geschichten von Tod und Zerstörung [siehe oben rechts], aber sie haben die Wahl verloren, und anders als die Pro-Feuer-Partei sind sie möglicherweise nach Hause gegangen zu ungekochten Mahlzeiten und einem schlimmen Leben in Kälte und Feuchtigkeit. Das war ein wichtiges Ergebnis, weil die menschliche Gesellschaft trotz seiner Gefahren das Feuer benötigte, um die Zivilisation zum Blühen zu bringen.

Die gegenwärtige Debatte über die Kernkraft-Technologie weist dazu einen bemerkenswerten Unterschied auf – es gibt keine Gefahr, oder sie ist zumindest deutlich geringer als beim Straßenverkehr oder beim Feuer. Kernreaktoren können in Fukushima zerstört worden sein, aber es gab keinen einzigen Todesfall [durch die Havarie] und auch nicht wirklich ernsthaft Verletzte durch Strahlung. Auch wird es in Zukunft durch Strahlung wahrscheinlich keinen Krebs geben. Obwohl dies innerhalb von wenigen Wochen klar geworden ist (2), dauerte es über zwei Jahre, bis ein internationaler Konsens zu einer ähnlichen Schlussfolgerung gekommen war (3, 4).

Inzwischen haben die Medien weiterhin ungehindert die Menschen mit Falschinformationen geängstigt. Die Anzahl der Todesopfer infolge Angst in Japan lag über 1000, und zwar als Folge der erzwungenen Evakuierung allein der älteren Menschen (5, 6, 7). Weltweit kam es zu einem irrationalen Vertrauensverlust in die Kernenergie, der gegenwärtige und zukünftige Energieplanungen unterbrach, die Weltwirtschaft geschädigt hat und den Verbrauch fossiler Treibstoffe hat zunehmen lassen.

Man weiß viel über die Auswirkungen nuklearer Strahlung auf das Leben. Hohe Dosen von Strahlung sind über ein Jahrhundert lang verwendet worden, um Krebs via Strahlungstherapie zu heilen, und moderate Dosen werden bei der Strahlungsdiagnose [radiation scans] verwendet. Menschen werden in Krankenhäusern weltweit entweder durch von außen oder von innen kommende Strahlung behandelt, entweder durch Bestrahlung bestimmter Körperregionen oder durch Injektion oder Implantate. Der Gedanke, in seinem Körper Radioaktivität zu haben, mag schrecklich sein, aber jeder einzelne Körper ist von Natur aus radioaktiv – das Leben hat sich in einer Welt entwickelt, in der das schon immer so war. Die Biologie verfügt über viele Mechanismen, Schäden durch Strahlung zu reparieren und hat das schon vor vielen Millionen Jahren gelernt. Dies alles geschieht auf dem Zellniveau der Menschen, ohne dass es ihnen bewusst wird, und auch bei Tieren und Pflanzen.

Im Jahre 1987 wurde aus einem Hospital für Obdachlose eine Strahlentherapie-Dosis von Caesium 137 gestohlen, dem gleichen radioaktiven Material, dass bzgl. Fukushima so große Besorgnis ausgelöst hatte (8, 9). Den Räubern gelang es, den Behälter zu öffnen, und ihre Freunde und Nachbarn erfreuten sich an dem blauen Glühen des Stoffes. Sie haben sich damit Körperstellen eingerieben und es in ihren Häusern verstreut. Zwei Wochen später wurden die Hintergründe des Unfalls entdeckt. Insgesamt waren 249 Menschen kontaminiert worden, von denen 28 so schwere Verbrennungen erlitten, dass sie in einigen Fällen chirurgisch behandelt werden mussten. 50 Patienten waren mehr als einer Million Bq interner Strahlung ausgesetzt. Innerhalb von wenigen Wochen waren vier an der Strahlenkrankheit gestorben, aber während der letzten 25 Jahre ist niemand an durch die Strahlung ausgelöstem Krebs gestorben (10). Wirklich Null – das ist jetzt keine komische Statistik – obwohl Viele tausendmal größere Strahlenmengen abbekommen hatten als irgendjemand in Fukushima (11).

Selbst in Tschernobyl, wo der Reaktor vollständig zerstört worden war, gab es weniger als 50 eindeutig auf die Strahlung zurückzuführende Todesfälle – darunter 28 unter den ersten Feuerwehrleuten vor Ort, die Opfer der Strahlenkrankheit geworden waren, und 15 durch Schilddrüsenkrebs (12). Aber auch dabei war die Angst vor der Strahlung der wesentliche Grund für Leiden und Verlust des Lebens, obwohl es so aussieht, als seien internationale Berichte hierüber in Japan nicht gelesen worden (13). Während also die „Antis“ der Vergangenheit bzgl. Verkehr und Feuer starke Sicherheitsargumente auf ihrer Seite hatten, ist das bei den Nuklear-“Antis” von heute nicht der Fall.

Intensive ionisierende Strahlung, zum Beispiel der UV-Anteil im hellen Sonnenlicht, kann Krebs auslösen, und Hautkrebs ist verantwortlich für 30 Todesfälle pro Jahr pro einer Million Menschen (14) – weniger als im Straßenverkehr (110 pro Million {15}), aber mehr als durch Feuer (11 pro Million {16}) und weit, weit mehr als durch jeden Kernkraftunfall. Wenn die Leute es wirklich ernst meinen würden mit ihrer Angst vor Strahlung, sollten sie ihre Ferien bei Sternenlicht oder im Untergrund verbringen, um ihre Haut zu schützen!

Glücklicherweise sind die meisten Menschen ausgeglichener und vermeiden einfach übermäßiges Ausgesetztsein, während sie ihren Sommerurlaub wie jeder andere auch verbringen. Die Wahrheit ist, dass nukleare Strahlung nur deswegen einmalig ist, weil sie in der öffentlichen Wahrnehmung das Stigma des Kalten Krieges enthält. Aber das Propagandabild der Strahlung eines nuklearen Holocaust ist betrügerisch. Die Explosionen und Brände der Bomben von Hiroshima und Nagasaki waren hundertfach tödlicher als die späteren Auswirkungen der Strahlung. Dies wurde anhand der Gesundheitsdaten der Überlebenden während der letzten 60 Jahre festgestellt.

Was ist mit radioaktivem Abfall und Bedrohungen durch Terroristen? Diese sind nur gefährlich bei sehr hohen Strahlendosen. Falls die Gefahren der Strahlung überschätzt worden sind, ist der Abfall kein Problem. Eine schmutzige Bombe von Terroristen wird eher zu einem Fall des Umgehens mit der öffentlichen Panik und weniger mit der Strahlengefahr selbst. Nuklearer Abfall ist zwar unschön, breitet sich aber nicht aus oder wirkt zerstörerisch wie Feuer oder die Krankheiten, die mit biologischen Abfällen einhergehen. Weil die Kernkraft so konzentriert ist, wird nur wenig Treibstoff gebraucht und wenig Abfall erzeugt – etwa ein Millionstel so viel wie bei fossilem Treibstoff. Stark strahlender Abfall muss gekühlt und wieder aufbereitet und nach ein paar Jahren vergraben werden – was keine allzu schwierige Sache ist [von der Entwicklung der DFRs, die fast ganz ohne Abfall auskommen, hat der Autor vermutlich noch nichts gehört. A. d. Übers.].

Aber zurück zur zentralen Frage: Warum ist die Kluft zwischen der öffentlichen Angst und der wirklichen Gefahr durch Strahlung so gewaltig? Die offizielle Information der Öffentlichkeit hängt von nationalen Sicherheitsvorschriften ab, die wiederum abhängig sind von internationalen Ratschlägen. Diese verlangen ungeeigneterweise, dass nukleare Strahlung so gering wie nur irgend möglich gehalten werden muss [as low as reasonably achievable ALARA]. Berichte über jüngste Arbeiten auf dem Gebiet der Toxikologie haben unterstrichen, wie sehr dieses Prinzip in die Irre führen kann (17). Es ist ein einfacher Versuch, öffentliche Ängste zu beschwichtigen, ohne auf irgendein Risiko zu verweisen.

Unglücklicherweise haben die auf dieser Grundlage erlassenen Vorschriften auch die Größenordnung der Reaktionen auf jeden Unfall aufgebläht (Evakuierung, Beschränkungen der Aufnahme von Nahrungsmitteln) sowie auf die Wahrnehmung in der Öffentlichkeit (persönlicher und sozialer Stress, ökonomisches Vertrauen). Die Abschwächung [der Ängste] hat nicht funktioniert, es gab großes Leiden ohne Vorteile, die zusätzlichen Emissionen durch fossile Treibstoffe infolge Schließung von Kernkraftwerken haben zusätzlich zu dem Schaden beigetragen, und die zusätzlichen Kosten für nukleare Sicherheitsprogramme waren eine blinde Folge der öffentlichen Phobie. Persönliche Aussagen von leitenden Sicherheitsleuten sprechen davon, wie gefährlich industrielle Bedrohungen der Sicherheit sind und wie sehr diese routinemäßig akzeptiert werden im Gegensatz zu minimalen Strahlungsrisiken (18, 19). Das sind die Konsequenzen der gegenwärtigen dogmatischen Verwendung von ALARA, wie es internationale Sicherheitsstandards verlangen.

Wie also sollte unsere Haltung zur Nukleartechnologie aussehen? Wir sollten nachdenken und Wissen anwenden, so wie es unsere Vorfahren in der Steinzeit gemacht haben, als sie sich das Feuer nutzbar gemacht haben. Obwohl sie sich einem genau ausgemachten Dilemma gegenüber sahen, haben sie einen besseren Job bei der Entscheidungsfindung gemacht, als wir es heute hinsichtlich der Kernkraft machen. Autorität ist kein Substitut für wissenschaftlich basiertes Vertrauen, und es ist an der Zeit, dass die UN durch die zahlreichen internationalen Komitees (UNSCEAR, ICRP, WHO, IAEA und Andere {20}) akzeptieren, dass Strahlensicherheit auf Basis von ALARA fundamental falsch und gefährlich ist. (Man kann sich natürlich auch fragen, warum es so viele dieser Komitees gibt). Einige Länder könnten sich entschließen, gegenwärtige Ratschläge beiseite zu schieben und sich der billigeren Kernkrafttechnologie mit realistischeren Sicherheitsvorschriften zu öffnen. Das würde ihnen ökonomische Vorteile auf Kosten anderer bringen, die sich zu langsam einer solchen Initiative anschließen. Es wäre besser, dies gemeinsam anzugehen und Sicherheitsstandards zu entwickeln, die sich auf tatsächliche Risiken beziehen, genau wie in anderen Bereichen – es gibt keinen Grund, Strahlung als irgendetwas ganz Besonderes zu behandeln.

Genau wie Strom kann die Kernkrafttechnologie unbegrenzt Frischwasser durch Entsalzung sowie billige Nahrungsmittel-Konservierung durch Bestrahlung zur Verfügung stellen. Die Welt braucht diese Gelegenheiten, um ökonomisch zu expandieren, aber die Philosophie von ALARA steht dem im Wege. Die exzessive Sicherheit ist verantwortlich für die offensichtlichen Kosten der Nukleartechnologie.

Nur Investitionen in die erforderliche wissenschaftliche Bildung und die Anpassung von Sicherheitsvorschriften durch einen Faktor eintausend (1) würde einen signifikanten wirtschaftlichen Wachstumsschub bieten. Der große Ökonom des 18. Jahrhunderts Adam Smith sagte: „Wissenschaft ist ein großartiges Gegengift zu dem Gift von Enthusiasmus und Aberglaube“. Die nukleare Angst ist ein solcher Aberglaube und muss als solcher benannt werden. Die Verankerung öffentlichen Vertrauens durch Bildung anstatt Abschwächung von Ängsten sollten zu diesem Ziel führen.

 Wade Allison; Emeritus Professor of Physics at the University of Oxford

Notes and references

[1] Further discussion is given in Radiation and Reason: the Impact of Science on a Culture of Fear and

other articles posted on www.radiationandreason.com  See also Amazon websites

[2] www.bbc.co.uk/news/world-12860842

[3] www.who.int/mediacentre/news/releases/2013/fukushima_report_20130228/en/index.html

[4] www.unis.unvienna.org/unis/en/pressrels/2013/unisinf475.html

[5] http://nextbigfuture.com/2012/08/fear-of-radiation-has-killed-761-and.html

[6] Ichiseki, H. Lancet 381, 204, (2013)

[7] Yasumura, S.et al. Public Health 127, 186-188, (2013)

[8] http://www-pub.iaea.org/mtcd/publications/pdf/pub815_web.pdf

[9] http://www-pub.iaea.org/MTCD/publications/PDF/te_1009_prn.pdf

[10] http://goo.gl/oTAjZ

[11] www.radiationandreason.com/uploads//enc_FukushimaGoianiaInternal.pdf

[12] www.iaea.org/Publications/Booklets/Chernobyl/chernobyl.pdf

[13] www.bmj.com/content/295/6606/1100.extract  and

http://library.temple.edu.libproxy.temple.edu/ – qt-homepage_search_tabs-ui-tabs2

[14] in USA (2009) www.cancer.gov/cancertopics/types/melanoma

[15] in USA (2009) http://en.wikipedia.org/wiki/List_of_motor_vehicle_deaths_in_U.S._by_year

[16] in USA (2009) www.usfa.fema.gov/statistics/

[17] www.sciencedaily.com/releases/2013/08/130813201434.htm#.UgtmL4TW_-k.email

[18] Chaplin, K Senior inspector in the nuclear industry “I am watching as radiological protection dogma, in particular ALARA, stops the nuclear industry dead in its tracks. It is hard to prevent this, but I am trying” Extract from an email of Dec 2012, quoted with permission http://goo.gl/zm82t

[19] Iskayn, H. Design Engineer “For the nuclear regulatory death by hot gas was satisfactory so long as the body could be buried without radiation restrictions. Accordingly, the design stressed radiation ALARA and had almost no concern about the hazard of hot gas.” Extract from a post on LinkedIn Nuclear Safety Group, 20 May 2013, quoted with permission

[20] United Nations Scientific Committee on the Effects of Atomic Radiation, International Commission for Radiological Protection, World Health Organisation, International Atomic Energy Agency. There are others, as well as many influential national committees.

Link: http://www.radiationandreason.com/uploads//enc_IdealEnergySource7Sept2013.pdf

Übersetzt von Chris Frey EIKE




Durchwursteln bis zum Crash Deutschlands Energiepolitik: Geld futsch, CO2 noch da

Von den Politikern, die Deutschland in den nächsten vier Jahren regieren dürften, ist in Energiefragen vorerst wohl keine Richtungsänderung zu erwarten. Sowohl die CDU als auch die SPD sind nach wie vor stramme Vertreter der sogenannten Energiewende. Zudem ist Angela Merkel in diesem Punkt auch selbst Überzeugungstäterin: Als nach den Fukushima-Ereignissen die Gelegenheit günstig erschien, setzte sie Widerstände gegen die von ihr gewünschte Stilllegung der deutschen Kernkraftwerke matt, indem sie die eigentlich zuständige Reaktorsicherheitskommission kurzerhand durch einen ihr genehmen „Ethikrat“ umging. Die SPD wird diesen Kurs ebenfalls stützen. Man hört sogar schon Kommentare, dass die Genossen darauf dringen dürften, einen künftigen Energieministerposten zu besetzen. Beide Parteien wären im Prinzip bereit, die bisherige Politik auf dem Energiesektor unverändert weiterzuführen. Allerdings zeigt sich inzwischen bei der Umsetzung der schönen Theorie vom CO2-freien Strom aus Sonne und Wind in die raue Realität der eine oder andere Knackpunkt.

Das leidige Kostenproblem

Wichtigster Problempunkt ist aus Sicht der Öffentlichkeit zunächst die Kostenfrage. Zwar hat die Mehrzahl der Wähler diesbezüglich offensichtlich die Zeichen an der Wand noch nicht erkannt, wie das sehr gute Ergebnis gerade für Angela Merkel zeigt, doch regt sich in vielen Unternehmen und selbst im Bundesverband der Energie- und Wasserwirtschaft (BDEW) inzwischen doch soviel Unmut, dass die Politik über kurz oder lang gezwungen sein wird zu reagieren. Deutschlands Wirtschaft hat ihre Stärken vor allem in Bereichen wie Maschinen- und Anlagenbau, Fahrzeugherstellung, Pharmazie und Chemie, also Branchen, die vergleichsweise viel Energie benötigen. Eine wichtige Stütze sind hierbei Metall erzeugende und verarbeitende Branchen wie Stahlhersteller, Aluminiumwerke, Gießereien und Schmieden, deren Produktion sehr energieintensiv ist, Bild 1. Hier befinden sich viele Unternehmen bereits jetzt am Limit. In manchen Fällen liegen die Bezugskosten für Energie bei 40, 50 oder gar 60 % der Gesamtausgaben. Weitere wesentliche Preissteigerungen dürften über kurz oder lang zu Abwanderungen oder Betriebsschließungen führen. Dieser Gefahr scheint man sich zumindest in den manchen Kreisen der CDU bewusst zu sein und wird versuchen, Gegensteuer zu geben. Allerdings gibt es auch erhebliche Kräfte, die dem entgegenstehen.

 

Bild 1. Metall erzeugende und verarbeitende Industrien sind ein entscheidendes Rückgrat der deutschen Wirtschaft (Symbolbild)

Die Energiewende spaltet die Gesellschaft

Das heimtückische am EEG und an der Energiewende ist, dass dadurch die Gesellschaft tief in zwei Gruppen mit gegensätzlichen Interessen gespalten wurde: In Gewinnler und Verlierer. Gewinnler sind nicht nur große Firmen wie die Hersteller von Windenergieanlagen oder Solarsystemen, sondern auch zahllose Kleinanleger (Bild 2), Häuslebauer sowie ganz normale Bürger, die sich eine Investition in „Erneuerbare“ als angeblich todsichere Geldanlage für die Altersvorsorge haben aufschwatzen lassen. Hinzu kommen Konzerne wie Siemens oder Enercon, die mit diesen Geschäftsfeldern Milliardenumsätze tätigen. Siemens z.B. liefert nicht nur Windmühlen, sondern bedient auch weitere Bereiche der Energietechnik z.B. mit Gaskraftwerken. Auch vom Ausbau der Netze und der Einführung von „Smart grids“ sowie „Smart meters“ inklusive der zugehörigen Überwachungs- und Leittechnik versprechen sich zahlreiche Firmen ein Milliardengeschäft. Auf der Verliererseite der Energiewende finden sich dagegen die große Masse der Bevölkerung, die für das lebenswichtige Versorgungsgut „Strom“ immer tiefer in die Tasche greifen muss, sowie wichtige Teile der produzierenden Industrie.

Damit sind erbitterte Konflikte rund um das Thema EEG und Energiewende vorprogrammiert, egal in welche Richtung die Politik versuchen wird sich zu bewegen. Zudem haben die EE-Profiteure die Medien und einen großen Teil des Staatsapparats auf ihrer Seite. Angesichts der zu erwartenden Konflikte wird die Politik vermutlich zur gleichen Taktik greifen wie auch beim Euro: Durchwursteln, taktieren, hier und da ein paar Trostpflästerchen verteilen und ansonsten hoffen und beten, dass die Probleme entweder von alleine verschwinden oder zumindest der nächsten Generation zugeschoben werden können. Da sich jedoch die Gesetze der Physik und des Marktes nicht ändern lassen, ist dies ein ziemlich sicheres Rezept für einen mehr oder weniger heftigen Crash. Noch nicht abzusehen ist die Frage, wie sich dieser manifestieren wird: Durch Blackouts, zu große Verluste an Arbeitsplätzen oder Unruhen aufgrund unbezahlbarer Strompreise. Noch werden Wetten angenommen…

 

Bild 2. Das heimtückische am EEG ist, dass dadurch die Gesellschaft tief in zwei Gruppen mit gegensätzlichen Interessen gespalten wurde. Auch die mehr als eine Million Solardachspekulanten werden ihre Privilegien mit Klauen und Zähnen gegen den Rest der Bevölkerung verteidigen (Symbolbild)

Keinerlei Gesamtkonzept in Sicht

Am besten zu erkennen ist die in der Politik vorherrschende Haltung des „Durchwurstelns“ am Fehlen eines schlüssigen Gesamtkonzepts für die Realisierung der Energiewende. Das EEG selbst hat nichts weiter bezweckt als den planlosen Bau möglichst vieler Anlagen zur „EE“-Stromerzeugung, zumeist fernab von den Verbrauchszentren. Leitungen und sonstige Infrastruktur, Speicherung und Netzstabilität wurden überhaupt nicht berücksichtigt. Die aktuell installierten Wind- und Solarkapazitäten von zusammen rund 66.000 MW sind inzwischen bereits so hoch, dass sie die Stabilität der Versorgung zu überfordern beginnen. Dennoch sind Wind- und Solarstrom außerstande, auch nur ansatzweise eine kontinuierliche Stromversorgung zu gewährleisten, Bild 3.

Bild 3. Erzeugung von Strom aus Wind- und Sonnenenergie in Deutschland am 22.8.2013. Teilweise sind es nur rund 600 MW, das reicht noch nicht einmal für den Standby-Betrieb der Nation. Ganz rechts die installierten Gesamtkapazitäten (Datenquelle: transparency.eex.com)

Zudem ist zur Gewährleistung der Netzstabilität je nach Tageszeit eine ständige Präsenz von ca. 30.000 bis 40.000 MW konventioneller Erzeugungskapazität erforderlich, die hauptsächlich von Grundlastkraftwerken erbracht wird. EE-Erzeugung erfolgt dagegen in dem bisher von Mittellast- und Spitzenlastkraftwerken abgedeckten Bereich von bis zu 45.000 MW zusätzlicher Leistung: Alles, was darüber hinausgeht, ist nicht mehr verwertbar. Im Prinzip müsste diese Energie gespeichert werden, doch fehlt in den aktuellen Planungen ein realistisches Konzept zur Verwirklichung ausreichender Speicherkapazitäten, Bild 4. Zwar kann man sich teilweise damit behelfen, den mit jeder neuen Windanlage und jedem neuen Solardach immer noch steigenden Überschuss fallweise auf ausländischen Märkten zu „dumpen“, doch regt sich dagegen zunehmend Widerstand nicht nur im Ausland, sondern auch auf Ebene der EU.

 

Bild 4. Die Idee, den Strombedarf eines Haushalts mit so kleinen Speichern abpuffern zu wollen, wirkt absurd – aber auf nationaler Ebene sind nur Bruchteile von Promille der eigentlich zur Realisierung der Energiewende erforderlichen Speicherkapazitäten vorhanden (Symbolbild)

Auf der anderen Seite ist die Erzeugung von Strom aus Wind und Sonne – wie schon erwähnt – so unzuverlässig, dass man weiterhin den gesamten konventionellen Kraftwerkspark vorhalten muss. Eine Speicherung von Überschüssen für solche Fälle ist mit heute verfügbaren Technologien nicht zu vertretbaren Bedingungen zu bewältigen. Weitere Folge der fehlenden Speichermöglichkeiten ist im gleichen Zusammenhang die Tatsache, dass die verschiedenen Kategorien der EE-Stromerzeugung bereits jetzt beginnen, sich gegenseitig Konkurrenz zu machen. Wenn die installierten EE-Kapazitäten weiter zunehmen, kann man die Grundlastkraftwerke dennoch nicht abschalten, weil sonst die Netzstabilität gefährdet würde. Leidtragende sind deshalb zunehmend andere EE-Stromerzeuger wie Biogasanlagen und Kraft-Wärme-Kopplungsanlagen. In Zukunft dürften sich auch Wind und Strom zunehmend ins Gehege kommen. Dass man dann „Stillstandsprämien“ für nicht abnehmbaren Strom bezahlt, ist eine Absurdität, die sich nicht ewig durchhalten lassen wird.

Der einzige erkennbare Handlungsansatz unserer Politik sind Planungen zur Realisierung einiger zusätzlicher Fernleitungen, doch kann man diese eigentlich nur als Flickschusterei einstufen. Für die eigentliche Zielsetzung werden sie viel zu spät fertig und stehen mangels eines schlüssigen 40-Jahre-Gesamtkonzepts sicherlich oft auch an den falschen Stellen. Letzteres wird sich spätestens dann zeigen, wenn der aktuelle EE-Hype in einigen Jahren abgeklungen sein wird. Die dann wieder überflüssigen Leitungen und Masten werden dann noch mindestens 40 Jahre lang weiter in der Landschaft herumstehen und Geld kosten – zur Freude derjenigen, die sich „Bürgerbeteiligungen“ haben aufschwätzen lassen.

Energiekonzerne am Limit

Da die Strombörsen immer häufiger mit überschüssigem und daher zu Kampfpreisen verschleudertem Strom aus EE-Erzeugung überschwemmt werden, ist der Strompreis inzwischen soweit gefallen, dass die konventionellen Erzeuger (Bild 5) massive Probleme bekommen. RWE hat kürzlich angekündigt, rund 3000 Mitarbeiter entlassen und bis zu 10.000 MW an Kraftwerkskapazität stilllegen zu wollen. Auch E.ON denkt über die Stilllegung von bis zu 11.000 MW konventioneller Kraftwerkskapazität nach. Zusammen wären das mehr als 23 % der aktuell noch vorhandenen rund 90.000 MW Kapazität konventioneller Kraftwerke. Dabei befindet sich die deutsche Stromproduktion bereits jetzt im kritischen Bereich: Einer Meldung der Fachzeitschrift „Österreichs Energie“ zufolge ist Deutschland seit Jahresbeginn 2012 bereits viermal an einem Blackout – mit wahrscheinlich europäischen Kaskadeneffekten – vorbeigeschrammt [OESE].

 

Bild 5. Grundlastkraftwerke wie das Braunkohlekraftwerk Weisweiler sind zur Aufrechterhaltung der Netzstabilität unverzichtbar (Bild: kohlekraftwerke.de)

Um das sich immer deutlicher abzeichnende Chaos der Energiewende perfekt zu machen, betreffen diese Stilllegungspläne Mittellast- und Spitzenlastkraftwerke besonders stark, also gerade solche Kraftwerkstypen, die für den Ausgleich der schwankenden Wind- und Solarerzeugung besonders dringend gebraucht würden. Die Energiewende zerstört somit selbst wesentliche Voraussetzungen für ihre Realisierung.

Zwar versucht die Politik Gegenmaßnahmen zu ergreifen, beispielsweise indem man in aller Eile ein Gesetz verabschiedete, das es ermöglicht, den Stromerzeugern die Stilllegung sogenannter systemrelevanter Kraftwerke zu verbieten. Allerdings muss diesen dann ein finanzieller Ausgleich gezahlt werden. Die vom EEG angestoßene Kostenspirale dreht sich somit munter weiter, man stopft Löcher, indem man andere aufreißt.

Mehr statt weniger CO2

Das im Prinzip entscheidende Manko der Energiewende ist die Tatsache, dass das angebliche Hauptziel – die „Klimarettung“ durch Verringerung des CO2-Ausstosses bei der Stromproduktion – überhaupt nicht erreicht wird. Trotz gigantischer Ausgaben entsteht zur Zeit bei der Stromproduktion in Deutschland genauso viel CO2 wie vor 12 Jahren, als das EEG verabschiedet wurde, Bild 6. Diese Bilanz wird sich mit der Abschaltung der jetzt noch laufenden Kernkraftwerke sogar noch weiter verschlechtern, da die wegfallenden KKW‘s aus den oben dargelegten Gründen gar nicht durch Wind- oder Solarenergie ersetzt werden können. Stattdessen wird man auf Kohlekraftwerke zurückgreifen müssen. Nach Stilllegung der letzten KKW im Jahre 2022 wird Deutschland für seine Stromproduktion voraussichtlich mindestens 10 % mehr CO2 in den Himmel pusten als heute. Angesichts dieser Fakten kann man sich nur wundern, wenn man verfolgt, wie großmäulig gerade in diesen Tagen die deutschen Medien und Politiker die neuesten „Klimawarnungen“ des IPCC als Credo nachplappern.

Für die deutsche Politik dürfte dies nach einem Crash unangenehme Konsequenzen haben, sobald sich die Bürger zu fragen beginnen, warum ungezählte Milliarden € ausgegeben wurden, um das Klima dann doch nicht zu retten. Es wird interessant werden zu verfolgen, mit welchen Ausreden man dann versuchen wird, sich den Volkszorn vom Leibe zu halten. Das Thema „Klimarettung durch CO2-Vermeidung“ wird man dann wohl still und heimlich beerdigen – hoffentlich samt der deutschen Mitgliedschaft beim IPCC.

Fred F. Mueller

Bild 6. Auch nach 12 Jahren EEG und ungeheuren Ausgaben hat sich der CO2-Ausstoss deutscher Kraftwerke (Zahlenangaben in Mio. t CO2/ Jahr) nicht verringert

Quellen

[OESE] Oesterreichs Energie, Sept. 2013, S. 4-13.




Verzweifelte Zeiten des Klima-Alarmismus’

Der Blogger Joe Romm im Blog www.ClimateProgress.org hat gläubig und ergeben „Goreacle“ [Wortspiel: Mischung aus „Gore“ und „oracle“] und die Greenpeace-Hysterie nachgeplappert. Um seine Partisanen-Propaganda am Laufen zu halten, ignoriert er vollständig die Tatsache, dass die Kabale des Klima-Kataklysmus die „Leugner“ mindestens im Verhältnis 1000 Dollar zu 1 Dollar hinter sich lässt; ExxonMobil hat skeptische Gruppen seit Jahren nicht mehr unterstützt; und das wirkliche Geld von Big Oil ging an extreme grüne Gruppen.

Chesapeake Energy allein hat dem Sierra Club 25 Millionen Dollar zukommen lassen, um die Anti-Kohle-Kampagne dieser radikalen Gruppe zu fördern. Diese einzelne Förderung ist zehnmal mehr Geld, als das Heartland Institute in seiner gesamten 29-jährigen Geschichte von sämtlichen Unternehmen fossiler Energie erhalten hat, merkt der Präsident von Heartland Joe Bast an.

Inzwischen fährt Präsident Obama damit fort, die von CO2 angetriebene Klimaerwärmung für Tornados, Hurrikane, Waldbrände und Dürren verantwortlich zu machen, obwohl diese alle auf dem gleichen oder sogar einem niedrigeren Niveau liegen als viele Jahrzehnte lang zuvor. Sein State Department steuert Klimaverträge mit Inselstaaten, die vielleicht 0,1% zu den globalen Kohlendioxid-Emissionen beitragen – obwohl er weiß, dass diese Verträge die USA zu weitgehenden und kostspieligen CO2-Emissions-Reduktionen verpflichten könnten, die die Energiepreise steigen lassen und die Schaffung von Arbeitsplätzen sowie die Wirtschaft abwürgen würden.

Seine Environmental Protection Agency EPA vernichtet schon jetzt Arbeitsplätze und Wachstum. Und neueste beantragte Vorschriften würden verlangen, dass alle neuen Kohlekraftwerke ihre Kohlendioxid-Emissionen auf 1100 Pfund pro Megawattstunde beschränken, das sind etwa 700 Pfund weniger als das, was in modernen Kraftwerken heutzutage emittiert wird. Die einzige Möglichkeit hierfür besteht darin, eine teure experimentelle Technologie zu verwenden, um das CO2 abzuscheiden – und dann darüber zu befinden, wo man es vergraben könnte.

Und nicht zu vergessen, dass sich einige Mitglieder des Kongresses „Kohlenstoffsteuern“ wünschen, von der die Energy Information Administration EIA sagt, dass sie das Einkommen einer mittleren Familie in den USA um 1500 Dollar pro Jahr belasten würde, zusätzlich zu den 2200 Dollar pro Jahr, die von diesem Personenkreis der Washington Post zufolge für den Energieverbrauch seit dem Jahr 2008 aufgewendet werden musste

Um diese Agenda voranzubringen zu helfen, hat ein kanadischer Erzeuger den Erz-Umweltaktivisten David Suzuki angeheuert sowie den Klima-Katastrophiker James Hansen („Kohlezüge des Todes“) und Miles Richardson, ehemaliger Präsident des Haida Nation Council [?]. Diese Personen sollten „die Weisheit der Älteren“ in die „globale Klimakrise“ einbringen. Der Titel ihres Films Wakan Tanka bedeutet „Großer Geist“ oder „großes Mysterium“ in der Lakota-Sprache, also der Sprache der Sioux-Indianer. Um die Flammen noch weiter anzufachen, wird bei ClimateWire die absurde Behauptung aufgestellt, dass „ein sich erwärmendes Klima dafür gesorgt hat, dass durch Blut übertragene tropische Krankheiten in Gebieten aufblühten, in denen man von ihnen zuvor noch nie etwas gehört hatte“.

Eine genauere Beschreibung all dieser Klima-Armageddon-Stürme und –aufruhr wird durch einen anderen Ausdruck in Lakota beschrieben, tatonka chesli, was „Big Bull Excrement“ [kann sich jeder selbst übersetzen!] bedeutet. Tatsächlich hat der frisch gewählte australische Premierminister Tony Abbot gesagt, dass alle Behauptungen hinsichtlich der Menschen als Ursache einer gefährlichen Klimaänderung „vollständig Schrott“ seien.

Mr. Abbot beabsichtigt, die Kohlenstoffsteuer sowie alle anderen diesbezüglichen Abgaben zu streichen. Industriekapitäne in der EU machen sich Sorgen, dass die europäischen politischen Maßnahmen gegen Klimaänderung und für „grüne“ Energie zu „einem systemischen industriellen Massaker“ führen könnten, weil stark steigende Preise für Strom und Erdgas die Unternehmen immer weniger wettbewerbsfähig auf den internationalen Märkten machen. Sie wollen diese Politik geändert sehen und dass das hydraulische Brechen gefördert wird. China, Indien und andere wesentliche CO2-Emittenten lehnen es kategorisch ab, bindende Ziele zur Reduktion dieser Emissionen festzuschreiben.

Die wirklichen Leugner der Klimaänderung

Wir „Skeptiker” und „Leugner” haben niemals die Realität des sich ändernden Klimas in Frage gestellt. Wir wissen, dass globale Erwärmung, globale Abkühlung und Klimaänderungen „real“ sind und dass es sie während der gesamten Erdgeschichte gegeben hat. Was wir leugnen sind die Behauptungen, dass menschliche CO2-Emissionen die komplexen solaren, planetarischen und kosmischen Kräfte ersetzt haben, die die Änderungen bislang verursacht haben, und was wir derzeit erleben, ist tatsächlich beispiellos und wahrscheinlich katastrophal. Worauf wir bestehen sind solide Beweise, dass die alarmistischen Behauptungen eine Grundlage haben.

Wir glauben an die wissenschaftliche Methode. Hypothesen, Behauptungen, Modelle und ängstigende Szenarien müssen durch tatsächliche Beweise, Daten und Beobachtungen gestützt werden – bevor wir uns an Forderungen machen, unser Energiesystem, die Wirtschaft, Arbeitsplätze und den Lebensstandard zu beschneiden. Bis auf den heutigen Tag gibt es keine solchen Beweise!

Die wirklichen Leugner des Klimawandels sind diejenigen Alarmisten, die leugnen, dass natürliche Kräfte nach wie vor Wetter- und Klimaereignisse dominieren, und die sich weigern zu akzeptieren, dass es tausende Wissenschaftler gibt, die den IPCC-Proklamationen und –Vorschriften nicht zustimmen.

31.500 amerikanische Wissenschaftler haben die Oregon Petition unterzeichnet, in der Ängste vor einer „katastrophalen“ Erwärmung und eine Klimastörung verworfen werden; über 1000 internationale Wissenschaftler widersprechen den Behauptungen einer vom Menschen verursachten globalen Erwärmung. Behauptungen über einen „Konsens von 97%“ aller Wissenschaftler mit dem IPCC sind purer Blödsinn.

Kein Wunder, dass die Klimaalarmisten so wütend, verzweifelt und bösartig sind. Jetzt haben sie noch zwei weitere Gründe dafür.

Zwei neue wissenschaftliche Studien entziehen der geforderten Rechtfertigung und Dringlichkeit für ökonomisch verheerende und gegen fossile Treibstoffe gerichtete Maßnahmen jede Grundlage. Eine stammt vom Nongovernmental International Panel on Climate Change (NIPCC); die andere ist unglaublicherweise vom IPCC selbst geschrieben worden.

Der neue NIPCC report Climate Change Reconsidered II: Physical Science – legt höchst überzeugend dar, dass die Hypothesen, Modelle und Schrecken des IPCC in der Wirklichkeit keine Grundlage haben. Der 1018 Seiten starke Bericht widerlegt überzeugend und systematisch die IPCC-Behauptungen, dass Kohlendioxid- und andere Treibhausgas-Emissionen eine „gefährliche“ globale Erwärmung und Klimaänderung verursachen – und Behauptungen, dass man sich auf deren Computermodelle verlassen kann als glaubwürdige Basis für alarmierende Vorhersagen und Szenarien.

Die NIPCC Summary for Policymakers ist erhellend und leicht zu verstehen; seine 14 Seiten sollten Pflichtlektüre sein für alle Gesetzgeber, Behörden, Journalisten und für jeden an der Klimawissenschaft Interessierten.

Der Bericht stellt klar, dass das IPCC die Erwärmung erheblich übertrieben hat, zu der es vermutlich bei einer Verdoppelung des CO2-Gehaltes auf etwa 800 ppm (0,08%) kommen würde. Außerdem würde eine moderate Erwärmung bis zu 2°C für die Umwelt und das menschliche Wohlergehen insgesamt keinerlei Schaden darstellen. Tatsächlich wäre sie vorteilhaft, würde sie doch Wachstumsphasen verlängern und für eine nordwärts gerichtete Ausdehnung von Ackerbau und vieler Natur-Habitate sorgen; vor allem, weil zusätzliches Kohlendioxid den Pflanzen helfen würde, schneller und besser zu wachsen, selbst unter widrigen Bedingungen wie Verschmutzung, begrenzten Wasserressourcen oder hohe Temperaturen. Im Gegensatz dazu wären selbst schon 2°C Abkühlung verheerend für die Landwirtschaft und Bemühungen, die menschliche Bevölkerung satt zu bekommen, ohne weitere Wild-Habitate zu opfern.

Der NIPCC-Bericht macht auch Schluss mit den falschen IPCC-Behauptungen, dass Computermodelle „beweisen“, dass die jüngste globale Erwärmung auf menschliche CO2-Emissionen zurückzuführen ist und dass man mit ihnen zukünftige globale Temperaturen, Klimata und Ereignisse vorhersagen kann. In Wirklichkeit übertreiben die Modelle erheblich die Klimasensitivität bzgl. Kohlendioxid; sie nehmen an, dass die gesamte Erwärmung seit Beginn der industriellen Revolution menschlichen Ursprungs ist; ihre Eingangsdaten sind durch den Wärmeinseleffekt verfälscht; und sie verlassen sich auf grob vereinfachende Konfigurationen unabdingbarer Treiber des Klimasystems der Erde (wenn sie diese nicht komplett ausblenden). Solche Treiber sind beispielsweise solare Variationen, kosmische Strahlen, Winde, Wolken, Niederschlag, Vulkane, Meeresströme und periodische Ereignisse wie die Pazifische Dekadische Oszillation.

Das ist GIGO [=garbage in garbage out] der schlimmsten Art: Falsche Hypothesen, falsche Daten, falsche Algorithmen, grob vereinfachende analytische Methoden und anderer Müll, der eingeht – und Vorhersage-Müll ausspuckt.

Die NIPCC-Autoren kommen zu dem Ergebnis, dass die bestehenden Klimamodelle „aus diesen Gründen nicht verwendet werden sollten, um öffentlich-politisch Einfluss zu nehmen, bis sie durch Beweise (in Gestalt von Vergleichen von deren Ergebnissen mit tatsächlichen Beobachtungen) bestätigt worden sind und gezeigt haben, dass sie für die Vorhersage von Wert sind“. Und doch werden diese Defizite aufweisenden Modelle benutzt: zur Rechtfertigung politischer Maßnahmen sowie von Gesetzen und Vorschriften, die den Verbrauch von Kohlenwasserstoffen stigmatisieren und bestrafen und die Subventionen für Solar- und Windenergie. Außerdem haben diese Maßnahmen gewaltige negative Auswirkungen auf Arbeitsplätze, Energiekosten für jede Familie, die Wirtschaft insgesamt und das Leben der Menschen.

Die Länder geben jährlich zahllose Milliarden Dollar aus für falsche oder betrügerische IPCC-Klimamodelle und Studien, die vorgeben, dass jedes außergewöhnliche Ereignis oder Problem auf die anthropogene Klimaänderung zurückzuführen ist; außerdem für subventionierte Programme für erneuerbare Energie, die landwirtschaftliche Nahrungsmittel ersetzen und Wildleben zerstören; für die Anpassung an und die Abschwächung von zukünftigen Katastrophen, die nur in den von den GIGO-Modellen des IPCC erzeugten „Szenarien“ existieren, sowie für das Wohlergehen hinsichtlich Nahrung und Energie der gerade arbeitslos gewordenen Menschen. Genauso schlimm ist, dass diese Länder Zehner-Milliarden Dollar verlieren in Gestalt von Gebühren- und Steuereinnahmen, die sie erhalten würden, wenn sie die Weiterentwicklung von Öl, Gas und Kohle nicht blockieren würden – und Arbeitsplätze zerstören würden, die abhängig sind von billiger, zuverlässiger Energie, so dass die Unternehmen im internationalen Wettbewerb bestehen können.

Der jüngste IPCC-Bericht ist inzwischen erschienen. Schon zuvor haben Ross McKitrick und andere Analysten eine durchgesickerte Vorab-Version begutachtet und verworfen. Jene Vorab-Version enthüllt, dass selbst das IPCC Probleme mit seinen Modellen einräumen musste, mit seinen Temperaturvorhersagen und den Vorhersagen planetarischer Katastrophen. McKitrick in einem vernichtenden Artikel in der Financial Post [auf Deutsch beim EIKE hier]: „Alles, was man über das Dilemma wissen muss, vor dem das IPCC steht, ist in einer einzigen bemerkenswerten Graphik enthalten“.

Die Graphik zeigt auf dramatische Weise, dass jedes IPCC-Klimamodell der letzten 22 Jahre (1990 bis 2012) vorhergesagt hatte, dass die mittlere globale Temperatur bis zu 0,9°C höher liegen würde als sie tatsächlich liegt. Das ist keine Überraschung, wenn man bedenkt, welch große Defizite die Modelle aufweisen und wie stark sie von der Vorgabe abhängen, dass das Kohlendioxid der hauptsächliche Treiber der globalen Erwärmung ist.

McKitrick (chair of graduate studies at the University of Guelph (Ontario) Department of Economics) weiter: was allgemein als ‚skeptisch’ oder ‚Leugnung’ gebrandmarkt wird, steht in Übereinstimmung mit den Beobachtungen in der realen Welt.  Das ist der Schlüsselpunkt“.

Wir IPCC-Skeptiker wollen Beweise und Beobachtungen, die die Hypothese und die Vorhersagen stützen. Stattdessen, wenn die Beobachtungen mit den Vorhersagen nicht konform gehen, ignoriert das IPCC die Daten und trompetet die Behauptungen und die schrecklichen Katastrophen-Szenarien in die Welt hinaus.

Tatsächlich, sagt McKitrick, ist das IPCC vollständig im „Leugnungs-Zustand”. Obwohl seine eigenen Graphiken grell das Gegenteil zeigen, besteht das IPCC weiterhin darauf, dass es „sehr sicher“ ist [it has „very high confidence“], dass seine Modelle die Auswirkungen des atmosphärischen CO2-Niveaus auf die globalen Temperaturtrends korrekt beschreiben; dass es „extrem wahrscheinlich“ ist, dass „mehr als die Hälfte“ der Erwärmung zwischen 1951 und 2010 auf menschliche Einflüsse zurückzuführen ist und dass sich der Planet „weiterhin“ katastrophal erwärmen wird, es sei denn, man trifft drastische Maßnahmen, um die Treibhausgasemissionen zu reduzieren.

Anders gesagt, angesichts des seit 17 Jahren andauernden Stillstands der Erwärmung ist das elendigliche Scheitern der Modelle und das geringere Vertrauen in andere Ergebnisse im vollständigen IPCC-Bericht mit der zum Ausdruck gebrachten Erhöhung des Vertrauensniveaus hinsichtlich der Modelle und menschlicher Einflüsse „unbegreiflich“, sagt Judith Curry, Vorsitzende an der School of Earth and Atmospheric Sciences am Georgia Institute of Technology.

Die IPCC-Behauptungen sind offensichtlich lächerlich [werden aber mit großem Ernst lang und breit in den deutschen Qualitätsmedien ausgewalzt! A. d. Übers.] Es ist allgemein bekannt, dass die Hälfte der planetarischen Erwärmung während des 20. Jahrhunderts stattfand, also von 1900 bis 1950. Darunter waren auch die dreißiger Jahre und die ‚Dust Bowl Years’ [in den USA], als so viele Temperaturrekorde gesetzt worden waren, bevor der CO2-Gehalt der Atmosphäre wirklich zugenommen hat. Der Zeitraum von 1951 bis 2010 schließt nicht nur zwei Erwärmungsperioden ein, sondern auch eine Periode, in der die mittlere globale Temperatur gefallen ist. Die Wissenschaftler der damaligen Zeit waren sich „nahezu übereinstimmend sicher”, dass der Abkühlungstrend die Ernteerträge im Rest des Jahrhunderts reduzieren würde.

Außerdem kann sich der Planet kaum „weiterhin“ katastrophal erwärmen, wenn es seit 17 Jahren überhaupt keine Erwärmung gegeben hat. Voran gegangen waren eine Dekade der Abkühlung und lediglich etwa 20 Jahre mit einer moderaten Erwärmung.

Es wird sogar noch schlimmer. Konfrontiert mit all diesen wirklich desaströsen Nachrichten sind IPCC, Politiker, Bürokraten und Öko-Aktivisten verzweifelt damit beschäftigt zu ergründen, wie man diese schlechten Nachrichten verstecken könnte. Deutschland will, dass alle Hinweise auf die fehlende Erwärmung aus dem IPCC-Bericht entfernt werden. Während 20 Jahre einer moderaten Erwärmung ausreichten, nach sofortigen drastischen Maßnahmen zu verlangen, um einen Klima-Kataklysmus zu vermeiden, sagt Deutschland jetzt, dass 17 Jahre ohne Erwärmung „zu kurz“ und daher „irreführend“ seien.

Ungarn möchte, dass das IPCC den „Leugnern” keine weitere Munition liefert. Belgien verlangt nach „einer Klimainstitution mit den höchsten Befugnissen der Welt“, um Graphiken und Daten zu manipulieren, indem man unterschiedliche Anfangsjahre nimmt, die auf clevere Art einen deutlicher wahrnehmbaren Temperaturanstieg erzeugen. Die Obama-Administration möchte, dass das IPCC das Fehlen der Erwärmung hinweg erklärt, indem sie sagt, dass die fehlende atmosphärische Wärme irgendwie in den oberen knapp 2000 Metern der Ozeane gespeichert worden ist. Diese haben sich jedoch den aktuellen Daten des ARGO-Bojen-Projektes gar nicht erwärmt. Dann vielleicht in tieferen Ozeanschichten, von wo es keine Daten gibt.

Mit anderen Worten, wenn Modelle und Beweise nicht übereinstimmen, müssen die Beweise falsch sein. Das IPCC ist unfehlbar.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and author of Eco-Imperialism: Green power – Black death.

Link: http://wattsupwiththat.com/2013/09/26/desperate-times-in-climate-alarmism/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers. Der letzte kurze Absatz erinnert fatal an eine Anekdote aus dem Mittelalter. Ein Bischof unterhält sich mit Johannes Kepler:

Bischof: „Die Sonne und alle Gestirne kreisen um die Erde!“

Kepler: „Dem widersprechen die Tatsachen!“

Bischof: „Umso schlimmer für die Tatsachen!“




Globale Erwärmung: die GRÖSSTE LÜGE bloßgestellt

Aber zu guter Letzt ist die Große Lüge der globalen Erwärmung vollständig freigelegt, und wir können uns dafür beim Heartland Institute bedanken, einer Denkfabrik, die seit dem Jahr 2008 inzwischen acht internationale Konferenzen zum Thema Klimaänderung organisiert und durchgeführt hat. Dabei wurden die Lügen hinter der globalen Erwärmung – jetzt „Klimaänderung“ genannt – offengelegt, ist doch inzwischen klar geworden, dass 17 Jahre globaler Abkühlung die Große Lüge so ziemlich eingefroren hat.

Ich vermute, dass das Heartland-Team unter Führung von Joe Bast und zusammen mit einigen bemerkenswerten, engagierten Personen in den Aufzeichnungen eines Historikers der Zukunft nur in ein oder zwei Zeilen auftauchen wird. Alles hatte im Jahre 1988 vor einem Komitee des Kongresses angefangen. Danach wurde der Schwindel um die globale Erwärmung kräftig angeschoben durch den ehemaligen Vizepräsidenten Al Gore, der zusammen mit dem IPCC den Friedensnobelpreis empfangen hat!

Es hilft, sich einen Sinn für Humor zu bewahren, wenn man sich mit Krämerseelen herumschlägt, die über alle Medien der Welt zu ihrer Verteidigung verfügen können. Die Klima-„Skeptiker“ – einige der renommiertesten Meteorologen der Welt – haben ihre Arbeit im Nongovernmental International Panel on Climate Change (NIPCC) gebündelt und vor Kurzem in Zusammenarbeit mit dem Heartland Institute eine neue Ausgabe veröffentlicht mit dem Titel “Climate Change Reconsidered II.”.

Diese erscheint genau zu der Zeit, in der das IPCC seinen 5. Zustandsbericht veröffentlicht. Die Lügen des IPCC werden sehr viel Aufmerksamkeit in den Medien finden. Der NIPCC-Bericht von Heartland wurde glücklicherweise von Fox News thematisiert, wurde aber darüber hinaus von den kompromisslosen US-Nachrichtenmedien ignoriert [Hier in D hat man schon gar nichts davon gehört! A. d. Übers.].

Wie so oft muss man in Zeitungen aus dem Ausland schauen, um die Wahrheit zu erfahren [das gilt natürlich auch bei uns! Deswegen übersetze ich ja laufend! A. d. Übers.]. In der UK-Zeitung The Mail lautete die Schlagzeile am 14 September [übersetzt]: „Globale Erwärmung nur HALB so stark: Top-Klimawissenschaftler der Welt räumen ein, dass die Computer die Auswirkungen von Treibhausgasen falsch eingeschätzt haben“. Eine durchgesickerte Version des IPCC-Berichtes enthüllte: „Wissenschaftliche Vorhersagen des unmittelbar bevorstehenden Untergangs waren drastisch falsch“.

Nun, natürlich waren sie falsch. Die so genannte „Wissenschaft“, auf der sie basierten, war idiotisch. Hauptsächlich wurden das CO2 und andere sog. Treibhausgase in den Mittelpunkt gerückt und behauptet, dass diese Wärme zurückhalten, während sie durch alle Arten menschlicher Aktivitäten bzgl. Energiegewinnung mit Kohle, Öl und Erdgas erzeugt werden.

Dr. Martin Hertzberg, PhD, Mitautor der Studie „Slaying the Sky Dragon—Death of the Greenhouse Gas Theory” fasste es griffig zusammen und wies darauf hin, dass Wasserdampf der hauptsächliche Faktor in der Erdatmosphäre ist, der langfristig das Klima und kurzfristig das Wetter beeinflusst.

„Das bestimmende Element des Wetters ist hauptsächlich Wasser in all seinen Formen”, sagt Dr. Hertzberg, „als Wasserdampf in der Atmosphäre, beim Wärmetransport durch Verdunstung und Kondensation, als die enorme zirkulierende Masse des flüssigen Ozeans, dessen Wärmekapazität und Massen-/Energietransport die Bewegungen in unserer Atmosphäre dominieren und der daraus resultierende Niederschlag, und schließlich als Wolke, Schnee und Eisbedeckung, die die Strahlungsbilanz zwischen Sonne, Erde und freiem Weltraum beeinflussen“.

Wenn Sie jetzt über diese Erklärung nachdenken, bedenken sie auch die Art und Weise, mit der die Erde regelmäßig Jahreszeiten sowie vorhersagbare Zyklen der Erwärmung und Abkühlung durchläuft. Das hat sie seit nunmehr etwa 4,5 Milliarden Jahren getan.

Um „Climate Change Reconsidered” zu lesen, gehe man zu deren Website [vermutlich gibt es in absehbarer Zeit hier bei EIKE eine Übersetzung der Schlüsselpunkte. A. d. Übers.]. Unter den Ergebnissen des Berichtes findet sich auch, dass es „keine enge Korrelation gibt zwischen den Temperaturvariationen der letzten 150 Jahre einerseits und menschlichen CO2-Emissionen andererseits“. Für das Klima oder sogar das Wetter die Menschen verantwortlich zu machen ist geisteskrank. Genauso könnte man die Überschwemmungen in Colorado den Menschen in die Schuhe schieben und nicht den mit den Jahren 1894 und 1969 vergleichbaren Regenfällen.

Im Übrigen gibt es reichlich Beweise in den USA für stark abnehmende, mit dem Wetter zusammen hängende Ereignisse. Während der letzten Jahrzehnte gab es weniger Tornados. Außerdem ist es bereits acht Jahre her, dass ein Hurrikan der Stärke 3 oder höher auf das US-Festland übergetreten ist. Dürren waren kürzer und nicht so extrem wie in den dreißiger und fünfziger Jahren. Und der Meeresspiegel wird Vorhersagen zufolge um höchstens 10 bis 20 cm pro Jahrhundert steigen, und auch diese Schätzung könnte noch zu hoch sein. Es wird weitere dramatische Wetterereignisse geben, aber es gab schon immer dramatische Wetterereignisse.

Der neue Heartland-Bericht ist willkommen, aber sowohl Heartland als auch ich selbst wissen, dass die gleichen betrügerischen Scharlatane immer noch bei den UN, in den USA und in der ganzen Welt tätig sind, diesen größten Schwindel aller Zeiten am Leben zu halten.

Der Schaden, den der Schwindel um die globale Erwärmung bereits angerichtet hat, lässt sich am besten ablesen in den Bemühungen der Environmental Protection Agency, die Kohleindustrie auszulöschen, und zwar basierend auf der Lüge, dass CO2 ein „Verschmutzer“ ist. Auf einer Anhörung des Energy & Commerce Committee des Weißen Hauses zur Klimapolitik der Obama-Administration waren 13 Agenturen zur Aussage geladen, aber die Administration erteilte nur den EPA-Administratoren Gina McCarthy und Energieminister Ernest Moniz das Wort. Letzterer verlas eine vorbereitete Erklärung, die eine einzige lange Lüge über die globale Erwärmung war. Vermutlich stand er unter Eid!

Ms. McCarthy, die Letzte in einer langen Liste von Umweltfanatikern, die die EPA betreiben, musste im Kreuzverhör einräumen, dass die gegenwärtigen und zukünftigen Vorschriften bzgl. Treibhausgase nicht dem Schutz der Öffentlichkeit dienen, sondern „die internationale Gemeinschaft“ beeinflussen sollen, ihre Emissionen von CO2 und anderen vermeintlichen Stoffen zu reduzieren. Nicht nur, dass diese Vorschriften wissenschaftlich keine Grundlage haben, sondern sie bestehen auch, um den Umweltkrieg gegen den Energieverbrauch fortzusetzen und auch, um Druck auf Entwicklungsländer wie China und Indien auszuüben. Im vorigen Monat haben sich die Australier erhoben und die Politiker aus dem Amt gejagt, die ihnen eine „Kohlenstoffsteuer“ aufdrücken wollten. Der neue Premierminister hat sofort das „Klimaministerium“ geschlossen, das nur dazu da gewesen ist, diese Steuer durchzusetzen.

Und als der größte Teil der Welt gerade nicht hingeschaut hat, haben die UN versucht, wieder einmal ein internationales Abkommen zu erzielen ähnlich dem gescheiterten und nutzlosen Kyoto-Protokoll zur Begrenzung von CO2 und anderen Treibhaus-Emissionen – basierend auf der GROSSEN LÜGE! Das 44. Forum der Pazifischen Inseln, abgehalten auf den Marshall-Inseln, hatte „ein ambitioniertes künftiges Klimaregime“ zum Ziel, das im Jahre 2015 abgeschlossen sein soll.

Das muss man jetzt richtig verstehen. Diese Leute werden nicht aufgeben, bis sie keine andere Option mehr haben. Sie werden weiterhin die Ignoranz der Menschen hinsichtlich der aktuellen Wissenschaft ausbeuten und sie bestrafen durch steigende Energiepreise, durch die Schließung von Energieunternehmen und zukunftsweisender Projekte samt den Arbeitsplätzen, die sie schaffen.

Dazu gehört auch der bösartige Äthanol-Betrug, der Motoren zerstört, während ich dies schreibe. Sie stecken auch hinter den Industrien für nutzlose Solarpaneele und Windturbinen, die so wenig wirklichen Strom erzeugen, dass sie für das Netz negative Auswirkungen haben. Sie praktizieren eine Form von Kindesmissbrauch, erzählen sie doch den Kindern, dass die Erde untergehen wird, falls ihre Mutter eine Plastik-Tragetasche zum Einkaufen benutzt.

Die GRÖSSTE LÜGE der Welt ist bloßgestellt, und sie muss wieder und immer wieder bloßgestellt werden, bis ein Pfahl in das böse Herz des Schwindels um die „globale Erwärmung“ getrieben ist. [Vielleicht macht das ja schon die Natur selbst während der nächsten Jahre? A. d. Übers.]

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/09/global-warming-biggest-lie-exposed.html

Übersetzt von Chris Frey EIKE




Über den Frust eines angehenden Wissenschaftlers mit der heutigen Akademia: Eine Resignation

*Siehe Anmerkung des Übersetzers am Schluss!

Zunächst ein paar Dinge zur Klarstellung:

● Ich bin nicht der Autor dieses Textes.

● Ich nenne nicht den Namen des/der Autor/in, da es keine Beweise gibt, ob seine/ihre E-Mail-Adresse gefälscht worden ist.

● Ich glaube nicht, dass sich die beschriebenen Probleme allein auf die EPFL beschränken und auch nicht allein auf irgendeine andere Schweizer Universität: Im Gegenteil, dies ist möglicherweise ein weltweit auftretendes Problem.

● Schließlich möchte ich unmissverständlich klar machen, dass ich in keinem Falle meiner (sehr glücklichen) Tätigkeit an der EPFL diese Erfahrungen gemacht habe. Man ziehe also keine Parallele zu meinem eigenen Werdegang.

● Wie der Autor/die Autorin auch habe ich keine Ahnung, wie man das System in ein Besseres umwandeln kann.

Liebe EPFL,

Ich schreibe dies als Untermauerung, warum ich plane, nach vier Jahren harter, aber Freude bringender Doktor-Arbeit an dieser Schule meine Promotion im Januar abzubrechen, wenige Monate vor dem Abschluss. Eigentlich wollte ich diesen Brief nur an meine Berater und Lehrer schreiben. Allerdings wurde mir beim Verfassen desselben klar, dass er für jeden von Interesse sein könnte, der an der EPFL forscht. Darum habe ich den Verteiler etwas erweitert. Im Besonderen soll dieser Brief an Studenten im Aufbaustudium und solche, die ihre Promotion abgeschlossen haben, sowie an alle leitenden Forscher und Professoren gehen, ebenso wie an die Personen in den obersten Chefetagen des Managements dieser Schule. Bei allen anderen, die nicht in dieser Gruppe sind, entschuldige ich mich für den Spam.

Zwar kann ich eine Vielfalt von Gründen nennen, mein Studium im Stich zu lassen – einige sehr konkret, andere abstrakter – aber die grundlegende Motivation hierfür stammt aus meiner persönlichen Schlussfolgerung, dass ich den Glauben an die heutige Akademia* verloren habe, die eigentlich der Welt, in der wir leben, Vorteile und Verbesserungen bringen soll. Stattdessen sehe ich sie immer mehr als ein großes Geld-Vakuum an, das Zuwendungen einsaugt und im Gegenzug nebulöse Ergebnisse ausspuckt, betrieben von Personen, dessen Hauptsorge nicht darin besteht, das Wissen zu vermehren und eine positive Änderung zu bewirken, obwohl sie von solchen Dingen sprechen mögen, sondern darin, ihren Lebenslauf aufzumotzen und ihre persönlichen Karrieren zu fördern. Aber dazu später mehr.

[*Akademia: Dieses Wort habe ich aus dem Original beibehalten. Mir fiel einfach kein passendes deutsches Wort ein. „Wissenschaft“ trifft es nicht, eher schon „wissenschaftlicher Betrieb“, was ich aber auch irgendwie unbefriedigend finde, weil eher das Establishment gemeint ist. Ich werde dieses Wort im Folgenden weiter verwenden. A. d. Übers.]

Bevor ich fortfahre, möchte ich zwei Dinge sehr klar herausstellen. Erstens, nicht alles, was ich hier schreibe, stammt aus meiner persönlichen Erfahrung aus erster Hand. Vieles basiert auch auf meinen Unterhaltungen mit meinen Kommilitonen, sowohl außerhalb als auch innerhalb dieser Schule. Ich beschreibe hier deren Erfahrungen zusätzlich zu meinen eigenen. Zweitens, irgendwelche negativen Statements in diesem Brief sollten sich nicht alle Leser zu Herzen nehmen. Es ist nicht meine Absicht, irgendjemanden zu dämonisieren, noch irgendjemanden direkt anzusprechen. Ich füge sowohl hier als auch sonst wo hinzu, dass ich einige hervorragende Persönlichkeiten getroffen habe, und ich würde es nie wagen – auch in einhundert Jahren nicht – diese dessen anzuklagen was ich im vorigen Abschnitt geschrieben habe. Allerdings ist es meine Angst und mein Verdacht, dass es nur sehr wenige dieser Persönlichkeiten gibt, und dass alle außer den höchst erfolgreichen durch ein System marginalisiert werden, dass unsere angeborenen Schwächen ausnutzt und immer schneller außer Kontrolle gerät.

Ich weiß nicht, wie viele Doktoranden, die diesen Brief lesen, in ihre Doktorarbeit eingestiegen sind mit dem Wunsch, tatsächlich zu *lernen* und irgendwie in positiver Weise zur Wissenschaft beizutragen. Bei mir persönlich war es jedenfalls so. Falls es bei euch auch so ist, habt ihr möglicherweise zumindest einiges des Frustes selbst erlebt, den ich als Nächstens beschreiben werde.

 (1)Akademia: Es geht nicht um Wissenschaft, sondern um das Geschäft

Beginnen möchte ich mit der Voraussetzung, dass es das „Ziel“ der Wissenschaft ist, nach der Wahrheit zu suchen, unser Verständnis des Universums um uns herum zu verbessern und es uns zu ermöglichen, mit diesem Wissen die Welt in ein besseres Morgen zu führen. Zumindest lautete so die Propaganda, mit der wir in jungen Jahren gefüttert worden waren, und es ist die Propaganda, mit der sich Universitäten, an denen Forschung betrieben wird, auf eine erhabene Grundlage stellen, ihre Websites dekorieren und naive junge Menschen wie ich selbst zu rekrutieren.

Ich setze eigentlich ebenfalls voraus, dass die grundlegende Bedingung zur Wahrheitsfindung ist, dass man als Forscher brutal ehrlich sein muss – zuerst und zuallermeist zu sich selbst und über die Qualität der eigenen Arbeit. Hier begegnet man sofort einem Widerspruch, da solche Ehrlichkeit in der Agenda vieler Menschen nur eine sehr geringe Rolle zu spielen scheint. Sehr schnell nach dem Eintritt in die akademische Welt lernt man, dass es schlecht ist, bezüglich seiner Arbeit „zu ehrlich“ zu sein, und seine Schwächen „zu offen“ anzusprechen ist ein großer Fauxpas. Stattdessen bringt man ihnen bei, ihre Arbeit zu „verkaufen“, sich um sein „Image“ Sorgen zu machen und hinsichtlich Wortwahl strategisch vorzugehen. Eine gute Präsentation ist einem guten Inhalt vorzuziehen – eine Priorität, die, obwohl manchmal verständlich, heute sehr übertrieben wird. Die „böse“ Art, sich zu vernetzen (siehe z. B. hier), scheint offenbar ermutigt zu werden. Bei so vielen besorglichen Wissenschafts-Burlesken ist es erstaunlich, dass überhaupt *irgendwelche* Forschung heutzutage noch betrieben wird. Oder auch nicht, da es genau jene noch neuen naiven Doktoranden sind, die fast alles dieser Forschung durchführen.

(2)Akademia: Arbeite hart, junger Paladin, so dass du eines Tages denen Weg gehen wirst!

Manchmal finde ich es sowohl lustig als auch beängstigend, dass die Mehrheit der weltweiten akademischen Forschung tatsächlich von Menschen wie mir betrieben wird, die noch nicht einmal einen Doktortitel haben. Viele Betreuer, von denen man erwarten würde, dass sie wahrheitsgetreu mit ihrer Jahrzehnte langen Erfahrung die Wissenschaft voran bringen, tun überraschenderweise nur sehr wenig und scheinen sich nur mit den Doktoranden abzugeben, die sich hinsichtlich ihrer Studien zu Sklaven machen, wenn die Betreuer ihren Namen darunter setzen als eine Art „Belohnung“ dafür, dass sie sich die Zeit genommen haben, das Dokument zu lesen (Manchmal versuchen sie, sich die Autorenschaft im Falle großer Verzweiflung widerrechtlich anzueignen). Ich höre nur sehr selten von Betreuern, die wirklich mit ihren Studenten mit vollem Ernst und detailliert durch ihre Arbeit gehen, und oft von solchen, die offensichtlich das Motto übernommen haben „falls es gut aussieht, können wir es zur Veröffentlichung einreichen“.

Unabhängig vom Empfinden der groben Unfairness des Ganzen – die Studenten, die die wirkliche Arbeit machen, bekommen dafür erstaunlich wenig Geld, während diejenigen, die alles verwalten, wenn auch nur oberflächlich, erstaunlich viel Geld bekommen – der Doktoranden bleibt oftmals mit der Frage allein, ob er nur jetzt wissenschaftlich tätig ist und sich später selbst verwalten kann. Am Schlimmsten ist es, wenn ein Promovierter danach in Akademia bleiben will, dies alles akzeptiert und dann auf der anderen Seite des Tisches tätig wird. Jeder Doktorand, der das hier liest, wird unvermeidlich jemanden kennen, der das Unglück hatte, an einen Betreuer zu gelangen, der diese Art des Managements akzeptiert hat und das System jetzt auf seine eigenen Studenten anwendet – und sie zwingt, eine Studie nach der anderen zu schreiben und lächerlich lange Zeiten zu arbeiten, damit der Betreuer/die Betreuerin seine/ihre Karriere voranbringt oder, wie es oft der Fall ist, eine Anstellung auf Lebenszeit findet. Das ist unakzeptabel und muss aufhören. Und doch, während ich dies schreibe, werde ich daran erinnert, wie EPFL sein eigenes Beförderungs-System vor nicht allzu langer Zeit eingerichtet hat.

(3) Akademia: Die Rückwärts-Mentalität

Ein sehr traurig machender Aspekt des ganzen akademischen Systems ist das Ausmaß des stattfindenden Selbstbetrugs, der in der „Kunst“ besteht, dass viele neue Anfänger gezwungen werden, ihren Master sehr schnell zu machen … oder unterzugehen. Da viele Doktoranden sich nicht wirklich ihr Forschungsobjekt selbst aussuchen können, werden sie gezwungen, das zu übernehmen, was ihre Berater tun und „etwas Originelles“ dazu beizutragen, das eines Tages in eine These gegossen werden kann. Das ist alles schön und gut, wenn das Thema allgemein von Interesse ist und viel Potential enthält. Bei mir persönlich war das glücklicherweise so, aber ich kenne auch viele Menschen, die rasch erkannten, dass die Forschungsrichtung nur marginal bedeutsam und längst nicht so interessant war, wie es der Berater dargestellt hatte, nachdem man ihnen erst einmal ein Thema gegeben hatte.

Dies scheint den Doktoranden mit einem üblen Ultimatum zurückzulassen. Ganz klar, es funktioniert nicht, wenn man dem Berater einfach sagt, dass die Forschung nichts Wesentliches bringt – der Berater hat schon zu viel seiner Zeit, seines Rufes und seiner Karriere in dieses Thema gesteckt. So jemand wird sich nicht von jemandem, der halb so alt ist, davon überzeugen lassen, einen Fehler gemacht zu haben. Besteht der Doktorand darauf, wird er/sie als „stur“ apostrophiert und, falls er zu stark darauf besteht, seinen Doktortitel nicht erhalten könnte. Die Alternative, so übel sie für einen ist, lautet, sich selbst zu belügen und Argumente zu finden, die es einem moralisch leichter machen zu überzeugen, dass es von bedeutendem wissenschaftlichen Wert ist, was man macht. Für diejenigen, für den der Erwerb eines Doktortitels ein „Muss“ ist (gewöhnlich aus finanziellen Gründen), ist offensichtlich, für was er sich entscheidet, so tragisch das auch ist.

Das wirkliche Problem besteht darin, dass sich diese Gewohnheit leicht auf die Durchführung von Studien nach der Graduierung übertragen kann, bis der Student selbst wie ein Professor wird und mit der Rückwärts-Mentalität aufwartet nach dem Motto „das ist wichtig, weil ich schon zu viele Jahre lang daran arbeite“.

(4) Akademia: Wenn Originalität dir schadet

Die gute, gesunde Mentalität würde sich natürlich Forschungen zuwenden, von der wir glauben, dass sie wichtig ist. Unglücklicherweise stellt die meiste Forschung eine Herausforderung dar und ist schwierig zu veröffentlichen, und das gegenwärtige ‚veröffentlichen-oder-untergehen-System’ macht es schwierig, irgendetwas zu erreichen, wenn man an Problemen arbeitet, die mindestens zehn Jahre Arbeit erfordern, bevor man mit höchst vorläufigen Ergebnissen aufwarten kann. Noch schlimmer, es kann sein, dass die Ergebnisse nicht verstanden werden, was in einigen Fällen gleichbedeutend ist mit der Ablehnung durch die akademische Gemeinschaft. Ich gebe zu, dass das schwierig ist und kann die Leute nicht ultimativ kritisieren, die sich ausgesucht haben, solchen „riskanten“ Problemen zu folgen.

Idealerweise sollte das akademische System diejenigen ermutigen, die schon jetzt gut in der Lage und anerkannt sind, diese Herausforderungen zu meistern, und ich bin sicher, dass einige das bereits tun. Allerdings kann ich mich des Eindrucks nicht erwehren, dass die Mehrheit von uns einen Bogen um die grundlegenden Dinge macht und stattdessen unwichtigere, einfachere Probleme verfolgt, von denen wir wissen, dass sie gelöst und veröffentlicht werden können. Die Folge hiervon ist eine gigantische Literatur voller marginaler/wiederholender Beiträge. Allerdings muss das nichts Schlechtes sein, wenn man nach einer Verbesserung seines Lebenslaufes strebt.

(5) Akademia: Das schwarze Loch der Mitläufer-Forschung [Bandwagon research]

Tatsächlich scheint das Schreiben einer Menge Studien mit fragwürdigem Wert zu einem vorgegebenen Thema eine sehr gute Möglichkeit zu sein, seine Karriere heutzutage voranzutreiben. Die Vorteile liegen auf der Hand: Man muss niemanden mehr überzeugen, dass das Thema sachdienlich ist und dass die Wahrscheinlichkeit hoch ist, öfter erwähnt zu werden, da immer mehr Menschen gewillt sind, an ähnlichen Themen zu arbeiten. Dies wiederum wird deinen Wichtigkeitsfaktor heben und dabei helfen, dich als glaubwürdigen Forscher zu etablieren, egal ob deine Arbeit nützlich/wichtig ist oder nicht. Es fördert auch eine Art Vetternwirtschaft, wo du anderen (genauso opportunistischen) Forschern auf die Schulter klopfst, während sie dir auf die Schulter klopfen.

Unglücklicherweise führt dies nicht nur zu Quantität höher als Qualität, sondern viele Forscher, die von diesem Mitläufertum abhängig geworden sind, müssen Wege finden, diesen Weg weitergehen zu können, selbst wenn der Forschungsbereich zu stagnieren beginnt. Die Folgen sind gewöhnlich katastrophal. Entweder fangen die Forscher an, über kreative, aber völlig absurde Erweiterungen ihrer Methoden nachzudenken auf Anwendungen, für die sie nicht geeignet sind, oder sie versuchen, andere Forscher zu unterdrücken, die originellere Alternativen einbringen (normalerweise machen sie beides). Dies wiederum entmutigt andere Forscher, originalen Alternativen zu folgen, und ermutigt sie, auf den fahrenden Zug aufzuspringen, der – obwohl ursprünglich von einer guten Idee geleitet – jetzt stagniert und durch nichts als den puren Willen der Gemeinschaft in Fahrt gehalten wird, von dem sie abhängig geworden ist. Es wird zu einem gigantischen, Geld verschwendenden Durcheinander.

(6)Akademia: Statistik im Überfluss!

„Professoren mit Studien sind wie Kinder”, hat mir ein Professor einmal gesagt. Und tatsächlich, es scheint eine ungesunde Besessenheit hinsichtlich der Anzahl ihrer Veröffentlichungen unter den Akademikern zu bestehen, ihres Bedeutungs-Faktors und der Anzahl der Nennungen ihrer Studie. Das führt zu allem möglichen Unsinn, wenn Akademiker „strategische Querverweise“ angeben, „anonyme“ Begutachtungen schreiben, in denen sie die Autoren der begutachteten Studie dazu anhalten, auf die eigene Arbeit zu verweisen. Außerdem versuchen sie auf Konferenzen freundlich, ihren Kollegen von ihrer letzten Arbeit zu erzählen, und manchmal versuchen sie sogar, sich gegenseitig ihre Studien anzuerkennen nach dem Motto „Wenn du meine Arbeit liest, lese ich deine“. Wenn jemand danach gefragt wird, ob er sich um seine Querverweise kümmern würde, wird niemand diese Machenschaften jemals zugeben, und doch kennen diese Leute die Zahlen auswendig. Ich gebe zu, dass ich da mal mitgemacht habe, und dafür hasse ich mich.

An der EPFL sendet uns der Dekan jedes Jahr eine E-Mail, in der er uns mitteilt, welche Rangordnung die Schule einnimmt, und normalerweise sind wir auf einem der oberen Plätze zu finden. Ich frage mich immer, welchen Sinn diese E-Mails haben. Warum sollte es einen Wissenschaftler kümmern, ob seine Institution an zehnter oder elfter Stelle irgendeiner Rangordnung irgendeines Komitees steht? Ist es, um unsere schon jetzt aufgeblähten Egos noch weiter aufzublähen? Wäre es nicht viel schöner, wenn uns der Dekan einen jährlichen Bericht darüber gibt, inwieweit die Arbeit an der EPFL die Welt beeinflusst hat, oder inwieweit die Arbeit zur Lösung eines bestimmten wichtigen Problems beigetragen hat? Stattdessen bekommen wir diese blöden Zahlen, die uns sagen, auf welche Universitäten wir herab schauen können und welchen Universitäten wir nacheifern sollten.

(6) Akademia: Die gewalttätige Landschaft gigantischer Egos

Ich frage mich oft, ob viele Mitarbeiter in Akademia eine unschöne Kindheit hatten, in der sie niemals die stärksten oder die bei ihren Eltern Beliebtesten waren, und die schließlich mehr gelernt haben als ihre Eltern, und jetzt einfach auf Rache aus sind. Ich habe den Verdacht, dass das so ist, weil es die einzige Erklärung ist, warum gewisse Forscher auf üble Weise die Arbeit anderer Forscher angreifen. Vielleicht geht die am weitesten verbreitete Manifestation hiervon über die Begutachtung, bei der diese Leute ihre Anonymität missbrauchen, um Ihnen unverhüllt zu sagen, dass Sie ein Idiot sind und dass Ihre Arbeit auf den Misthaufen gehört. Gelegentlich haben einige sogar die Frechheit, dies während einer Konferenz zu tun, allerdings habe ich persönlich das noch nicht erlebt.

Mehr als einmal habe ich gehört, wie führende Forscher in verschiedenen Fachgebieten andere Methoden als ihre eigenen mit so wunderschönen Bezeichnungen wie „Müll“ oder „Abfall“ belegt haben. Manchmal sogar wurden diese Qualifizierungen auch im weiteren Sinne verwendet, nämlich für Pionier-Methoden, deren einziges Verbrechen es ist, dass sie schon Jahrzehnte alt sind und welche wir als Wissenschaftler eigentlich mit dem gleichen Respekt beachten sollten, den wir den Älteren entgegen bringen. Manchmal machen diese Leute eine Pause, schlimme Dinge über Forscher in ihrem eigenen Fachgebiet zu sagen, und wenden sich anderen Bereichen zu – Ingenieur-Akademien beispielsweise machen sich manchmal lustig über Forschungen im Bereich Geisteswissenschaften, indem sie diese als lächerlich und inkonsequent hinstellen, als ob das, was sie selbst tun, viel wichtiger sei.

(8) Akademia: Der größte Trick der Akademien jemals war es, die Welt davon zu überzeugen, dass ihre Forschung notwendig sei

Die vielleicht grundlegendste und quälendste Frage, die sich die Mitarbeiter in Akademia stellen sollten, lautet: „Werden wir wirklich gebraucht?“ Jahr für Jahr sammelt das System Tonnen von Geld auf allen möglichen Wegen der Zuwendungen ein. Vieles davon geht danach an unterbezahlte und zu wenig beachtete Doktoranden, die mit oder ohne Hilfe ihrer Betreuer ein paar Ergebnisse erzeugen. In vielen Fällen sind diese Ergebnisse unverständlich für alle außer einem kleinen Kreis, was es schwierig macht, den Wert ihrer Arbeiten in irgendwie objektiver Weise zu evaluieren. In einigen seltenen Fällen wird die Unverständlichkeit tatsächlich gerechtfertigt – das Ergebnis könnte sehr bedeutend sein, aber beispielsweise eine Fülle mathematischen Hintergrundwissens erfordern, so dass man einen PhD braucht, um es zu verstehen. In vielen Fällen jedoch ist das Ergebnis trotz einer Menge cooler Mathematik in der Anwendung fast nutzlos.

Das ist schon in Ordnung, weil wirklicher Fortschritt sehr viel Zeit braucht. Nervend ist jedoch, wie lange ein rein theoretisches Ergebnis herhalten kann, um Förderungen zu erhalten, bevor die Forscher sich entschließen, etwas praktisch Nutzbares zu produzieren. Schlimmer, oftmals scheint den Leuten in Akademia jedes Gefühl für die Dringlichkeit zu fehlen, hinzugehen und ihre Ergebnisse auch anzuwenden, selbst wenn dies möglich ist. Dies ist höchstwahrscheinlich der Angst vor dem Fehlschlag geschuldet – man fühlt sich bequem, wenn man an seiner Methode immer weiter arbeitet, solange sie in der Theorie funktioniert, aber nichts wäre schmerzhafter als die Erfahrung, die Methode anzuwenden zu versuchen und dann erfahren zu müssen, dass sie in der Realität nicht funktioniert. Niemand mag gerne Studien veröffentlichen, die zeigen, wie die Methode scheitert (obwohl sie aus wissenschaftlicher Perspektive dazu verpflichtet wären).

Dies sind nur einige Beispiele dessen, die aus meiner bescheidenen Perspektive bei Akademia „falsch“ sind. Andere könnten diesen Beispielen vielleicht noch weitere hinzufügen, und wir könnten hingehen und ein Buch darüber schreiben. Das Problem aus meiner Sicht ist, dass wir nicht sehr viel tun, um diese Dinge anzugehen und dass eine Menge Leute bereits akzeptiert haben, dass „echte Wissenschaft“ einfach ein Ideal ist, das unvermeidlich verschwinden wird, wenn man so weitermacht wie bisher. Und daher, warum sollten wir unsere Karrieren und unseren Ruf aufs Spiel setzen, um aus noblen Gründen gegen etwas zu kämpfen, das Akademia ohnehin niemals würdigen würde?

Ich schließe diesen Brief mit meinem Bekenntnis, dass ich für all das keine Lösung weiß. Mein Doktortitel aufzugeben ist sicher keine Lösung – es wäre lediglich eine persönliche Entscheidung – und ich ermutige niemanden, dergleichen zu tun. Was ich aber ausbringen möchte, ist eine gewisse Beachtung und Verantwortung. Ich glaube, dass viele von uns, jedenfalls sicherlich in meiner Generation, „Akademia“ und „Wissenschaft“ als Synonyme sehen möchten. Ich weiß, dass das bei mir so wäre, aber ich habe den Glauben daran aufgegeben und werde daher echte Wissenschaft auf irgendeinem anderen Weg betreiben.

Zwar gab es einmal eine Zeit, in der ich dachte, stolz auf die Buchstaben „Dr.“ vor meinem Namen zu sein, aber unglücklicherweise ist das jetzt nicht mehr so. Allerdings kann mir niemand das Wissen nehmen, das ich während dieser vier Jahre gewonnen habe, und dafür, liebe EPFL, bleibe ich immer dankbar.

Danke, dass Sie mir bis hier gefolgt sind!

Link: http://crypto.junod.info/2013/09/09/an-aspiring-scientists-frustration-with-modern-day-academia-a-resignation/?utm_content=bufferb7963&utm_source=buffer&utm_medium=twitter&utm_campaign=Buffer

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dieser Artikel hat vordergründig nichts mit Klima zu tun, sondern mit Wissenschaft allgemein. Aber ich denke, dass all das hier Gesagte erst recht in der heutigen Klimawissenschaft gilt. Oder finde ich diesen Text nur deswegen so nachdenkenswert, weil ich eher ein Laie bin?

C. F.




Das amerikanische Biosprit-Debakel

In einem vor Kurzem erschienenen Editorial im Wall Street Journal hieß es: „Ein starker Kandidat für den teuersten Politik-Müll der letzten Jahre wäre zweifellos die Vorschrift, Benzin im ganzen Staat mit Maisdiesel und anderen Biotreibstoffen zu versetzen. Im vorigen Monat hat selbst die EPA im Grundsatz eingeräumt, dass das Programm zunehmend uneffektiv und für die Verbraucher sehr kostspielig ist. Das EPA tut allerdings nichts, um diesem Übelstand abzuhelfen“.

Historiker der Zukunft werden berechnen, wie viele Billionen diese Nation verschwendet hat, als 2007 ein Gesetz verabschiedet worden ist, das dazu gedacht war, Treibhausgasemissionen zu reduzieren, um die Erde vor der globalen Erwärmung zu retten und eine heimische Energiequelle zu erschließen, die im Wettbewerb mit Öl aus den OPEC-Staaten mithalten konnte.

In diese Berechnung müssen auch die Millionen, wenn nicht Milliarden Automobile eingehen, deren Motoren durch das Äthanol zerstört worden sind. Ein weiteres Element dieser Berechnung müssen die Kosten für Nahrungsmittel bei uns und in der Welt sein, wenn etwa 42% der Maisernte in den USA für die Äthanol-Herstellung verwendet werden muss. Das ist mehr als die Menge Mais, mit der man Vieh und Geflügel in der ganzen Nation füttert.

Nur ein Umweltaktivist kann darauf kommen, dass es eine gute Idee ist, Nahrungsmittel als Treibstoff zu verbrennen anstatt zuzulassen, dass der Mais als Teil der heimischen Nahrungskette und für den Export verwendet wird. Als ehemaliges republikanisches Mitglied des Repräsentantenhauses hat Bob Beauprez aus Colorado in einem Kommentar in der Washington Times bemerkt: „Das Äthanol-Gesetz hat die Preise für Mais in den Himmel getrieben, hat Vieh- und Geflügelzüchter geschädigt, hat Raffinierer gezwungen, Geld für Äthanol-Zertifikate zu verschwenden und hat die Preise für Nahrungsmittel weltweit ruckartig steigen lassen“.

Die Äthanol-Vorschrift ist so dumm, dass nicht nur Mais geopfert werden muss, sondern zusätzlich auch „Zellulose“-Äthanol, hergestellt aus Schweizer Gras und Holzchips. Es wird trotz des Gesetzes nicht einmal erzeugt, aber die EPA fährt fort, Strafen gegen Ölunternehmen zu verhängen, weil sie nicht einen Treibstoff kaufen, der gar nicht existiert. Die Kosten hierfür werden natürlich an die Endverbraucher weitergereicht.

Im Januar hat der D.C. Court of Appeals die Forderung der EPA aus dem Jahr 2012 bzgl. Zellulose als unrealistisch hoch zurückgewiesen. Die EPA hat angekündigt, seine Forderung nach Zellulose-Äthanol auf bloße sechs Millionen Gallonen [ca. 24 Millionen Liter] zu reduzieren.

Um der Forderung der Einführung von Äthanol nachzukommen, obwohl die Raffinierer weniger Benzin erzeugen als das Gesetz vorschreibt, wurden die Unternehmen gezwungen, Äthanol-Zertifikate zu kaufen. Man nennt sie Renewable Identification Numbers (RINs). Der Preis dieser RINs ist von sieben Cent im Januar auf 1,43 Dollar im Juli gestiegen. All dies lässt den Benzinpreis an der Pumpe steigen, ohne dass es auch nur einen einzigen stichhaltigen Grund für die Versetzung mit Äthanol gibt.

Beim Zwang, unser Benzin mit Äthanol zu versetzen, hat die EPA eine partielle Freistellung für den Verkauf von E15 verfügt, ein Treibstoff, der 15% Äthanol und 85% Benzin enthält, zugelassen im Jahre 2001 für Autos und Lastwagen. Das Wall Street Journal hat berichtet, dass einer Übersicht der AAA [vergleichbar mit dem ADAC in D] zufolge „nur 5% aller Fahrzeuge für höhere Beimengungen von Äthanol unter der Garantie der Hersteller dafür geeignet sind“.

All diese Verschwendung und Dummheit stammt aus drei Jahrzehnten von Lügen über die globale Erwärmung und der vermeintlichen Notwendigkeit, Treibhausgas-Emissionen zu reduzieren. Der Präsident lügt weiterhin bzgl. der Erwärmungs-/Klimaänderungs-Debatte, trotz der Tatsache, dass die Erde derzeit das 17. Jahr eines Abkühlungszyklus’ durchläuft.

Die EPA fährt fort, die Nahrungsmittelversorgung bei uns und in der Welt zu verzerren, soweit es Mais betrifft. Es fährt fort, die Schäden zu ignorieren, die Äthanol in Autos und anderen Maschinen hervorruft. Sie ignoriert die sinnlosen Kostensteigerungen für Benzin.

Die Amerikaner sind mit einer Regierung geschlagen, die taub gegenüber den Fakten über Äthanol ist, und die EPA besteht weiterhin darauf, die Amerikaner für ihren Benzinverbrauch zu bestrafen.

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/09/the-ethanol-debacle.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Und ich dachte, dieses Problem gäbe es nur in Deutschland. Man scheint aber auch anderswo offiziell der Meinung zu sein, dass Wohlstand schlecht ist.

C. F.




Warum regnet es nach Finsternissen am stärksten? Vortrag von Prof. Walter Fett in Hamburg

Video aufgezeichnet anlässlich des 1. EIKE Hamburger Klima- und Energiegespäches am 14.6.13




An das IPCC: Vergiss das mit den „30 Jahren“

Einige haben darin den Beginn von Machenschaften des IPCC gesehen, den seit 16 Jahren anhaltenden Temperatur-Stillstand auch in Zukunft zu ignorieren. Aber selbst das IPCC muss wissen, dass dies eine Totgeburt ist:

1) Als James Hansen die Angst vor der globalen Erwärmung im Jahre 1988 in den Ring geworfen hat, gab es keine statistisch signifikante Erwärmung während der 30 Jahre zuvor, und der Erwärmungstrend der Jahre 1977 bis 1987 hatte 0,0°C betragen. Auch das IPCC wurden in jenem Jahr ins Leben gerufen.

Quelle: Woodfortrees plot

2) Zur Zeit des 1. IPCC-Zustandsberichtes 1991 (FAR), war der Erwärmungstrend gerade mal 11 Jahre alt.

Quelle: Woodfortrees plot

3) Höchst bedeutsam: der Erdgipfel in Rio im Jahr 1992 übernahm den UNFCCC-Vertrag auf Basis eines 30-jährigen Abkühlungstrends, dem lediglich 12 Jahre mit Erwärmung gefolgt waren. Dieser Vertrag legte dogmatisch fest, dass die „Klimaänderung“ anthropogener Natur war, und verpflichtete über 190 Staaten, die „gefährliche“ Klimaänderung zu bekämpfen.

4) Der jüngste Bericht der WG 1 legt den Schwerpunkt auf den Anstieg des Meeresspiegels und den ozeanischen Wärmegehalt aufgrund von Satellitenbeobachtungen, die erst seit 19 Jahren verfügbar waren, zusammen mit den Werten der ARGO-Bojen für einen Zeitraum kürzer als ein Jahrzehnt. Man entschuldigt sich nicht für die kurzen Zeiträume.

5) Im Jahre 2007 machte der AR 4 großes Gedöns um die Tatsache, dass der Erwärmungstrend der voran gegangenen 15 Jahre größer als 0,2°C pro Dekade gewesen ist. Im Jahre 2013 spielt der AR 5 die Tatsache herunter, dass es während der letzten 15 Jahre überhaupt keine Erwärmung mehr gegeben hat. (Aber der AR 5 nennt 0,05°C pro Dekade ohne die Fehlergrenze von ± 0,14°C zu erwähnen).

6) Falls sich das IPCC auf 30-Jahres-Trends konzentrieren möchte, warum hat es dann nichts zu der Tatsache gesagt, dass der gegenwärtige 30-Jahres-Trend auf 0,174°C pro Dekade gefallen ist, wo doch der Trend von 0,182°C pro Dekade im AR 4 (1992 bis 2006) noch eine so große Rolle gespielt hat? Vor allem, weil die dazwischen liegenden 6 Jahre durch eine Rekord-Zunahme des CO2-Gehaltes gekennzeichnet waren.

7) Dr. Stockers Kritik an kurzzeitigen Trends, die durch die Auswahl des Anfangs- und Endzeitpunktes beeinflusst werden, ignoriert, dass es mit langzeitlichen Trends genauso ist. Er wählte einen Zeitraum von 60 Jahren (1951 bis 2010), um einen Trend von 0,12°C pro Dekade zu erzeugen. Ein Zeitraum von 70 oder 80 Jahren hätte einen deutlich geringeren Trend von 0,07°C gezeigt.

8) Die Wissenschaftler der WG 1 waren sich nicht zu schade, in die SPM des AR 5 die Aussage zu schreiben, dass „die Modelle allgemein nicht den beobachteten Rückgang des Erwärmungstrends während der letzten 10 bis 15 Jahre reproduziert haben“.

Drei Monate später wurde dieser grundlegende Satz in einem geheimen Konklave von Politikern und Bürokraten – nicht von Wissenschaftlern – gestrichen.

9) Dr. Jarraud, Generalsekretär der WMO, hat dem Journalisten David Rose gesagt, dass dessen Frage zum Stillstand „falsch gestellt“ war. Die WMO gibt Schriften mit den besten Ratschlägen für die Klimatologie heraus und sieht sich selbst als die führende Autorität, wenn es um die Messung von Temperaturtrends geht. Der WMO GUIDE TO CLIMATOLOGICAL PRACTICES (3RD EDTN) hat Folgendes über die 30-Jahres-Perioden zu sagen:

Kapitel 4.8.1: Periode der Berechnung: Eine Anzahl von Studien hat ergeben, dass 30 Jahre nicht allgemein optimal zur Bestimmung von Normalwerten sind, die für Vorhersagen verwendet werden. Der optimale Zeitraum für Temperaturen ist oftmals kürzer als 30 Jahre, aber der optimale Zeitraum für Mittelwerte der Niederschlagsmenge ist substantiell größer als 30 Jahre“. Und (auf Seite 102): „Die optimale Länge von Aufzeichnungen für Vorhersagezwecke ist abhängig von Element, Geographie und Langzeittrends. Im Allgemeinen hat die jüngste Periode von 5 bis 10 Jahren Aufzeichnung einen genauso großen Wert für Vorhersagen wie ein Zeitraum von 30 Jahren“.

Vor Veröffentlichung der SPM hat Bloomberg berichtet, dass einige Länder (vor allem Deutschland) den Temperatur-Stillstand komplett ignorieren und so tun wollen, als ob das 20 Jahre alte Paradigma immer noch gültig ist.

Wenige haben erwartet, dass es dazu kommen würde, dass eine stark verringerte beste Schätzung [best estimate] der Sensitivität vorhergesagt werden und dass es zu einem reuevollen Eingeständnis kommen würde, dass natürliche Faktoren unterschätzt worden waren. Die Tatsache, dass die Debatte um diese absurde Falschmeldung über 30-Jahres-Trends mehrere Tage dauerte, ist ein sehr starker Hinweis darauf, wie verzweifelt das Klima-Establishment inzwischen geworden ist.

Link: http://wattsupwiththat.com/2013/09/30/to-the-ipcc-forget-about-30-years/

Übersetzt von Chris Frey EIKE




Wo bleibt denn nur die Arktis-Schmelze ?

Die Fehleinschätzung der etablierten Klima-Forschung im Jahre 2007 bezüglich eine eisfreien Arktis für das Jahr 2013 ist schlichtweg verheerend! Nicht die arktische Eisschmelze ist die Katastrophe, sondern deren Prognose durch die etablierte IPCC-Klimaforschung !

Schlagzeilen in den englischen Medien waren 2007 z.B.:

"Scientists in the US have presented one of the most dramatic forecast yet for the disappearance of Arctic sea ice. … Arctic summers ice-free by 2013" [2]:

Selbst noch im Sommer 2013 titelte "The Guardian" [4] :

"Ice-free Arctic in two years heralds methane catastrophe – scientist Leading Arctic expert Prof Wadhams warns that a summer ice free Arctic in 2 years could trigger dangerous methane release".

Entsprechende Schlagzeilen 2007 in Deutschland waren z.B.:

"Nordpol bereits in fünf Jahren eisfrei" [1], und: "Arktisches Eis-Rekordschmelze alarmiert Forscher" [5], u.w.a.a.O.: "Neueste Schätzungen eines NASA-Klimaforschers geben dem Eis des Arktischen Ozeans gerade noch eine Hand voll Jahre".

Diese "Handvoll Jahre" sind nun rum, und es lohnt sich, einen Blick aus dem Fenster zu werfen :

Die Realität sieht nämlich 2013 so aus:

Die Zunahme der arktischen Eisfläche 2012-2013 beträgt 1,7 Mio. km2 , was etwa dem Fünffachen der Fläche von Deutschland entspricht.

Mit 5,1 Mio. km2 liegt die Eisfläche des sommerlichen Minimums 2013 ziemlich genau im Mittel der vergangenen 10 Jahre (è Abb. 1+2).

Abbildung 1 : Arktische Eisfläche 2002-2013 [6] Pfeile und Textfelder ergänzt

Abbildung 2 : Sommerliches Arktis-Eis 2012 + 2013

nachzitiert nach: [7]

Somit deutet derzeit nichts auf eine eisfreie Arktis hin, von irgend einer fiktiven Arktis-Klima-Katastrophe sind wir weit entfernt.

Angesichts einer sehr heterogenen Situation bei Eisdicke, Eisbedeckung und jährlicher Fluktuation der Großwetterlagen werden auch die Prognosen der Alarmisten vorsichtiger:

"Vor diesem Hintergrund rechnen die Wissenschaftler auch in den nächsten Jahren mit großen Schwankungen der sommerlichen Meereisbedeckung in der Arktis." [3]

Von einer eisfreien Arktis ist da keine Rede mehr.

Auch die Medien haben was gemerkt:

… Sowohl bezüglich der seit 15 Jahren stagnierenden Global-Temperatur als auch hinsichtlich der prognostizierten eisfreien Arktis ist in DailyMail [8] zu lesen:

"Those predictions now appear gravely flawed. THERE WON’T BE ANY ICE AT ALL! HOW THE BBC PREDICTED CHAOS IN 2007. Only six years ago, the BBC reported that the Arctic would be ice-free in summer by 2013, citing a scientist in the US who claimed this was a ‘conservative’ forecast."

…was ja wohl bedeuten sollte, daß eine eisfreie sommerliche Arktis schon vor 2013 für wahrscheinlich gehalten wurde. Angesichts solcher gravierender Fehlprognosen von Klima-Alarmisten ist denn DailyMail auch nicht ohne Häme gegenüber Leuten, die das "geglaubt" hatten [8]:

"Perhaps it was their confidence that led more than 20 yachts to try to sail the Northwest Passage from the Atlantic to  the Pacific this summer. As of last week, all these vessels were stuck in the ice, some at the eastern end of the passage in Prince Regent Inlet, others further west at Cape Bathurst."

Auch die Qualität der Klima- und Eis-Modelle werden von DailyMail karrikiert (a.a.O.):

"The BBC’s 2007 report quoted scientist  Professor Wieslaw Maslowski, who based his views on super-computer models and the fact that ‘we use a high-resolution regional model for the Arctic Ocean and sea ice’."

Bezüglich der "Qualität" der Modellprognosen für die Global-Temperatur zitiert DailyMail (a.a.O.) die Klimaforscherin Judith Curry:

"In its draft report, the IPCC says it is ‘95 per cent confident’ that global warming has been caused by humans – up from 90 per cent in 2007.

This claim is already hotly disputed. US climate expert Professor Judith Curry said last night: ‘In fact, the uncertainty is getting bigger. It’s now clear the models are way too sensitive to carbon dioxide. I cannot see any basis for the IPCC increasing its confidence level.’…"

Und Judith Curry an anderer Stelle [9]  :

"Daß nun das Gegenteil aller Vorraussagungen passiert, lässt die Wissenschaftler ratlos zurück. Klima-Expertin Judith Curry sagt: "Das Einzige, was sicher ist, ist unsere Ungewissheit. All die Berechnungsmodelle der Vergangenheit haben offenbar den Einfluss von Kohlendioxid überschätzt.“

Selbst die Deutschen Medien – bisher freiwillig gleich-geschaltet auf Klima- und Arktis-Katastrophe  –  werden realistischer:

Die BERLINER ZEITUNG BZ [9] titelt:

"Das eiskalte Comeback der Arktis:

Vor sechs Jahren wurde eine komplette Pol-Schmelze vorhergesagt. Nun ist die Frost-Kappe um 60 Prozent gewachsen."

…u.w.a.a.O.:

"Fast die komplette Nord-West-Passage vom Atlantik zum Pazifik ist zugefroren. Mehr als 20 Schiffe mussten von Eisbrechern befreit werden … "

Die FAZ [10]  sieht noch nicht recht durch:

"Das Packeis am Nordpol hat Schonzeit – und weiter Schwindsucht" :

"Jetzt ist plötzlich Eiszeit“, mit dieser Schlagzeile hatte die englische Zei­tung „Daily Mail“ die diesjährige Eis­bilanz-Saison eröffnet und wollte da­mit offenbar die Wissenschaft aufs kli­mapolitische Glatteis führen. Die hat­te anschließend alle Hände voll zu tun, die Fakten dieser Sommerschmel­ze zurechtzurücken"

Dabei hat dann offensichtlich auch die für ihren klima-alarmistischen Tenor bekannte FAZ "..alle Hände voll zu tun…", getreu dem alten und auch hier+da journalistischen Klima-Katastrophen-Motto, daß nicht sein darf, was nicht sein kann, indem FAZ das AWI zitiert:

"So starke Schwankungen von Jahr zu Jahr seien nichts Ungewöhnliches."

Dabei kommt es dann wohl auf ein paar Millionen Quadrat-Kilometer Eis-Zuwachs nicht an.

Der FAZ ist wohl auch nicht bekannt, daß man vom AWI in den letzten Jahren auch schon ganz was anderes gehört hat. So sagte und schrieb AWI-Vizedirektor Prof. Dr. Heinrich Miller [11] : "Wann und ob die Arktis eisfrei sein wird, können wir nicht mit Sicherheit sagen".

Zum gleichen Thema die AWI-Direktorin Prof. Dr. Karin Lochte [12] auf die Frage, ob die Nordpol-Umrundung 2008 von FS POLARSTERN ein Hinweis auf den globalen Klimawandel sei: “Das ist noch nicht klar… Es gibt noch keine Antwort auf die Frage, ob der Rückgang des Meereises anhalten oder ob es wieder eine kältere Phase geben wird.“

Und genau von dieser Möglichkeit, welche die AWI-Chefin hier einräumte, hat die Natur Gebrauch gemacht: Wir haben wieder mehr Eis als 2007, als 2008 und auch als 2012!

Und daher ist und wird es wohl auch mit den arktischen Nord-Passagen der Schiffe vorläufig nichts [13] :

"Arktische Nordwest-Passage: Gefährliche Abkürzung durchs Eis :

Der riesige Frachter "Nordic Orion" hat gerade die berüchtigte Nordwestpassage erfolgreich absolviert, doch viele Freizeitkapitäne und Abenteurer scheiterten kläglich. Die Seeroute durch die kanadische Arktis wird noch lange riskant bleiben.

Allerdings tummelten sich 2013 auf dem Seeweg auch mehr Touristen, Abenteurer und Freizeitkapitäne als je zuvor. In festem Vertrauen darauf, dass die berüchtigte Passage schiffbar sein würde, versuchten mindestens 35 Freizeitskipper ihr Glück. Die meisten drehten bald wieder ab, ein gutes Dutzend brauchte Hilfe.

Wer die Durchfahrt schaffte, so wie der Schweizer Philipp Cottier mit seinem Katamaran "Libelulle", berichtet von Extremen: "Die Inuit erzählten uns, dass es seit 20 bis 30 Jahren nicht mehr so viel Eis gegeben habe. Von der Klimaerwärmung sahen wir keine Spur", so Cottier in der Schweizer Zeitung "Blick". "[14]

…und dazu ist auf dem SPON-Forum ( [13]: Kommt.Nr.5) zu lesen:

"5. Skandal : —Zitat— "Die Inuit erzählten uns, dass es seit 20 bis 30 Jahren nicht mehr so viel Eis gegeben habe. Von der Klimaerwärmung sahen wir keine Spur", so Cottier in der Schweizer Zeitung "Blick". —Zitatende— Auf so eine Meldung haben die "Klimaforscher" ja gerade noch gewartet … *he, he, he* Da bin ich ja gespannt, was unsere "Klimaexperten" mit der Vertiefungsrichtung "Verschwörung und der Mensch ist an allem Schuld" damit anfangen. Wahrscheinlich wird einmal mehr festgestellt, dass die Klimamodelle wohl doch nicht die Realität abbilden und wir Mrd. "for nothing" ausgegeben haben."

Jahrhundert-Zyklen beim Arktis-Eis

Es häufen sich Hinweise in der Literatur, daß es beim Arktis-Eis zyklische Schwankungen gibt, die sich über Jahrzehnte [15] und auch Jahrhunderte [16] [17] erstrecken:

"Und doch gibt es immer mehr Beweise für die zyklische Natur der Menge des arktischen Eises. Von Klimahistorikern gewonnene Daten zeigen, dass es in den zwanziger und dreißiger Jahren des vorigen Jahrhunderts zu einer massiven Eisschmelze gekommen war, gefolgt von einer intensiven Wiedervereisung, die erst im Jahre 1979 zu Ende gegangen ist – dem Jahr, von dem das IPCC behauptet, dass der Rückzug begonnen hat."

Abbildung 3 : Zyklen von Meeres-Strömen und Arktik-Eis [18]

Eine 2013 publizierte Untersuchung belegt Zusammenhänge zwischen Sonnen-Zyklen und arktischen Eis-Zyklen über die vergangenen 800 Jahre [16], woraus hier das Abstract zitiert sei: (Deutsche Übersetzung Chris Frey: [17] )

"Die Eisausdehnung im Nordatlantik variiert mit der Zeit in zeitlichen Größenordnungen, die bis zu Jahrhunderten reichen, und der Grund für diese Variationen ist Gegen­stand dieser Studie. Wir betrachten den Koch-Eisindex, der die Menge des von Island aus gesichteten Eises im Zeitraum 1150 bis 1983 beschreibt. Diese Maßzahl der Eisausdehnung ist eine nicht lineare und verkürzte Maßzahl der Eismenge in der Grönland-See, gibt aber eine Gesamtübersicht auf die Eismengen während über 800 Jahren. Die Länge dieser Reihe ermöglicht Einsichten in die natürliche Variabilität der Eisausdehnung, und das Verständnis hierfür kann man nutzen, um derzeitige Variationen zu evaluieren. Auf diese Weise kommen wir zu dem Ergebnis, dass der jüngste Eisrückzug in der Grönland-See mit dem Ende der so genannten Kleinen Eiszeit Anfang des 20. Jahrhunderts in Beziehung stehen könnte. Wir betrachten auch die etwa 80-jährige Variabilität des Koch-Meereisindex’ und vergleichen ihn mit der ähnlichen Periodizität, die man hinsichtlich der Länge von solaren Zyklen gefunden hat, einem Maß für die Sonnenaktivität. Zwischen beiden findet sich eine enge Korrelation (R = 0,67) hoher Signifikanz (0,5% Wahrscheinlichkeit des Auftretens). Dies deutet auf eine Verbindung zwischen der Sonnenaktivität und dem Klima im Arktischen Ozean hin."

Der Eisbär stirbt zuletzt

Dazu ist zu lesen [19] :

"Seit vielen Jahren wird einer "medien-gläubigen" Bevölkerung das Rührstück vom sterbenden Eisbären aufgetischt: Ein angeblich "mensch-gemachter" Klimawandel rottet dieses hübsche weiße Kuscheltier nun aus. Die Züricher WELTWOCHE  hat kürzlich mit einem fakten-orientierten Übersichts-Artikel diese Behauptung als das entlarvt, was sie ist: Eine Grüne Märchen-Stunde!"

Im Original der Weltwoche [20]  heißt es dazu :

"Erst wurde der Eisbär zur Ikone des Klimawandels hochstilisiert. Dann hiess es, wenn sich die Erde ­weiter erwärme, werde er bald aussterben. Die Warnungen beruhen auf zweifelhaften Hochrechnungen. Fakt ist: So viele Eisbären wie heute gab es seit Jahrzehnten nicht mehr."

…und w.a.a.O.:

"Wie steht es wirklich um den Bären der Polar­region? Noch in den 1950er und 1960er Jahren war der Ursus maritimus tatsächlich vom Aussterben bedroht. Die Jagd auf ihn und seine Beutetiere machte ihm beinahe den Garaus. Vermutlich gab es damals nur noch 5000 bis 10 000 Exemplare. Doch in den Jahrzehnten danach erholten sich die Bestände: 1973 hatten die Anrainerstaaten der Arktis beschlossen, die Jagd auf den Eisbären und seine Beutetiere weitgehend zu verbieten. Darum leben heute gemäss Schätzungen von Wissenschaftlern wieder zwischen 20 000 und 25 000 Eisbären in der Polarregion.

Eine Erfolgsgeschichte."

F a z i t :

Die Klima-Alarmisten sehen sich mit ihrer jahrelangen Weltuntergangs-Prophetie stetig wachsenden Glaubwürdigkeits-Problemen gegenüber, denn die Natur will den IPCC-Prognosen ganz und gar nicht folgen:

Die Global-Temperatur stagniert seit 15 Jahren [21], der Meeresspiegel-Anstieg zeigt keinerlei Beschleunigung [22], der Weltklimarat findet keine signifikanten Extremwetter-Trends [23] und bei der Himalaya-Gletscher-Schmelze gibt es Entwarnung [24]. Als letztes Parade-Pferd verbleibt den Warmisten die Arktis-Schmelze, aber selbst dieser Gaul bekommt kalte Hufe.

Es zeigt sich wieder einmal:

Prognosen sind für politische Entscheidungen riskant, Projektionen aus Modell-Szenarien sind für politische Entscheidungen unbrauchbar.

Q u e l l e n :

[1] http://www.welt.de/wissenschaft/article1456952/Nordpol_bereits_in_fuenf_Jahren_eisfrei.html; 13.12.2007

[2] BBC-News 12.12.2007, 10.40 GMT

[3] Alfred-Wegener-Institut, PRESSEMITTEILUNG, 19. September 2013, Aktuelle Meereis-Entwicklung in der Arktis

[4] http://www.theguardian.com/environment/earth-insight/2013/jul/24/arctic-ice-free-methane-economy-catastrophe ; Wednesday 24 July 2013

[5] http://www.spiegel.de/wissenschaft/natur/0,1518,522976,00.html; 12.12.2007

[6] http://www.ijis.iarc.uaf.edu/en/home/seaice_extent_prev.htm

[7] http://www.eike-klima-energie.eu/news-cache/erholung-des-arktischen-eises-spitzenwissenschaftler-sagen-periode-globaler-abkuehlung-vorher/  12.09.2013

[8] http://www.dailymail.co.uk/news/article-2415191/Global-cooling-Arctic-ice-caps-grows-60-global-warming-predictions.html#socialLinks ; Wednesday, Sep 11 2013

[9] http://www.bz-berlin.de/aktuell/welt/das-eiskalte-comeback-der-arktis-article1733248.html

09. September 2013 : Frost-Sommer: Das eiskalte Comeback der Arktis

[10] FAZ, 25.09.2013: Das Packeis am Nordpol hat Schonzeit – und weiter Schwindsucht

[11] Interview mit Professor Dr. Heinz Miller, Stellvertretender Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007 ;

[12] ElbeWeserAktuell, 29.10.2008, S.6BC<

[13] http://www.spiegel.de/wissenschaft/natur/nordwest-passage-klimawandel-lockt-abenteurer-in-die-arktis-a-924383.html  27.09.2013

[14] http://www.blick.ch/news/schweiz/schweizer-schafft-weltpremiere-id2440434.html ; 13.09.2013

[15]  http://www.thegwpf.org/arctic-ice-rebounds-top-scientists-predict-period-global-cooling/

[16] Knud Lassen and Peter Thejll: Multi-decadal variation of the East Greenland Sea-Ice Extent:  http://wattsupwiththat.com/2013/07/18/remarkable-correlation-of-arctic-sea-ice-to-solar-cycle-length/

[17] : http://www.eike-klima-energie.eu/news-cache/bemerkenswerte-korrelation-des-arktischen-meereises-mit-der-laenge-solarer-zyklen/ ; 25.07.2013)

[18] http://www.eike-klima-energie.eu/climategate-anzeige/die-wirklichkeit-bzgl-des-eises-in-arktis-und-antarktis/ ; 28.09.2012

[19]  http://www.eike-klima-energie.eu/climategate-anzeige/das-ammen-maerchen-vom-eisbaer-sterben-auch-das-als-ein-konstrukt-der-klima-alarmisten-entlarvt/  04.08.2013

[20] http://www.weltwoche.ch/index.php?id=548263

[21] DER SPIEGEL, Nr. 25, 17. Juni 2013, Spiegel-Gespräch mit Hans von STORCH: "Wir stehen vor einem Rätsel; Seit 15 Jahren steigen die Temperaturen nicht mehr an"

[22] http://www.eike-klima-energie.eu/news-cache/die-meeres-spiegel-versteigerung-pik-institut-bietet-jetzt-1-m-und-mehr/ ; 05.12.2012

[23] a) Ist das noch normal? Die extrem schwierige Analyse von Extremwetter; 24. April 2012, http://www.kaltesonne.de/?p=2962

  (b) http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterberichtmehr-extremwetter-fehlanzeige/

  (c) http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-unklimakonferenz-

neuer-ipcc-bericht-zunahme-von-extremwetterlagen/

[24] Himalaya-Schmelzkatastrophe abgeblasen: Das Neueste aus der Welt der Gletscher;22. April 2012,  http://www.kaltesonne.de/?p=2939