1

Neues vom Wissen­schaftlichen Beirat Globale Umwelt: Neue Erbschafts­steuer: denn Oma war Klimasünder

Und deshalb sollen sie jetzt im Rahmen eines großen „Gerechtigkeitsprojekts“ zur Kasse gebeten werden. Denn während andernorts die Menschen in Armut und Unschuld lebten, fuhren unsere Eltern mit dem Volkswagen-Käfer in den Italie-Uurlaub. Oder kauften sich später womöglich einen Daimler.

Da unsere Altvorderen aber nicht mehr da sind, um für ihr frevelhaftes Tun abgestraft zu werden, sollen jetzt die Erben ran. Neun deutsche Professoren, sie bilden den „Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) fordern in ihrem aktuellen Gutachten eine originelle Erbschaftssteuer, so etwas wie eine Klimaschuld-Abgabe auf geerbtes Vermögen. Es es sei „ethisch geboten, Vermögen nicht allein privat an die eigenen Nachkommen zu transferieren, sondern sie zur Gestaltung einer gemeinsamen Zukunft zu nutzen“.

Der (WBGU) ist seit Jahren für steile Thesen und Empfehlungen bekannt. Eines der bekanntesten Mitglieder des Beirates ist Hans Joachim Schellnhuber, Direktor des Potsdam Institutes für Klimafolgen-Forschung, der zeitweise mit dem Titel „Klimaberater der Kanzlerin“ geschmückt wurde. Schon vor 5 Jahren verlangten er und seine Autoritäten nichts weniger als einen „Gesellschaftsvertrag für eine Große Transformation“ und wollten den „fossilnuklearen Metabolismus“ (Stoffwechsel) der Industriegesellschaft beenden und eine „klimaverträgliche Weltgesellschaft“ schaffen. Daraus ist bisher nix geworden.

Dennoch können die Herrschaften nicht davon ablassen, ihre totalitären Vorstellungen der Bundesregierung in Form eines Gutachtens zu überreichen. Im kommenden Sommer findet in Hamburg der G20-Gipfel statt und die deutschen Geistesgrößen empfehlen den teilnehmenden Ländern regulatorische „Top-Down-Strategien“, also eine Art gut gemeinter Verbotskultur von oben herab. Andreas Mihm kommentiert das im Wirtschaftsteil der FAZ: „Autorität und autoritär sind nicht nur sprachlich näher beieinander als man denkt“.

Übernommen von ACHGUT Hier




Die Verstaatlichung der Energiewirtschaft

Beängstigend waren von Anbeginn die vorhersehbaren, zerstörerischen  Auswirkungen auf die Wirtschaft und die privaten Verbraucher., denn die Ruinierung der Energieversorgung eines Industrielandes bedeutet die Vertreibung derjenigen Unternehmen, die dem Bankrott durch Flucht ins Ausland entkommen können, während die übrigen schlicht untergehen.  Die privaten Verbraucher werden zuerst durch immer höher steigende Energiepreise ausgeplündert, bevor sie auch noch ihre Arbeitsplätze verlieren.

Nun muss man sich fragen, ob das so gewollt war. Hat die Regierung im Auftrag einer finsteren Macht beschlossen, ihr Land in den Staatsbankrott zu treiben ?  Zu den Zeiten des Kalten Krieges hätte man sicherlich diese Möglichkeit erwogen, denn der Untergang des Kapitalismus und seiner westlichen Vertreter war schließlich tatsächlich das Ziel des uns nicht wohl gesonnenen Warschauer Paktes.

Heutzutage ist ein solcher Verdacht natürlich absurd. Wenn es aber nicht die Absicht der Regierung war, das Land über die Zerstörung seiner Energieversorgung kaputt zu machen – was war dann der Grund für ihre Handlungsweise ?

Die beiden einzig plausiblen Antworten auf diese Frage sind unendlich peinlich.

Die Regierung:

Der Anlass für diesen krassen Kurswechsel, der zu Recht als „Wende“ bezeichnet wurde, war eine politische strategische Überlegung: Der Opposition, speziell den Grünen , sollten alle Argumente abgenommen werden – indem die Regierung plötzlich selbst deren Linie vertrat.

Sie hat ungeprüft ideologische Konzepte der Grünen übernommen.  Sie hat auf die Zuziehung von externem fachlichem Sachverstand verzichtet; andernfalls wäre das Ausmaß des Unsinns nicht so extrem geworden.  Und in ihren Ministerien fehlte es allem Anschein nach an dem nötigen Sachverstand; insbesondere im Umweltministerium, in dem es direkt nach der Amtsübernahme durch Trittin einen Exodus von Fachleuten und eine Einstellungswelle von grün-ideologisch geprägten Mitarbeitern gab, die bis heute – zwei Regierungen später – immer noch die Arbeit des Hauses bestimmen.

Die Folgen dieser Wende interessierten die Kanzlerin ganz offensichtlich überhaupt nicht.  Es ging nur um den Machterhalt.

Das Parlament:

Man hätte daraufhin erwarten können, dass die Abgeordneten, unter denen sich schließlich eine nicht geringe Anzahl von Fachleuten und Managern befindet, die Regierungspläne zu Konfetti zerreißen würden. Aber es lief völlig anders ab.

Unsere Parlamentarier haben sich – mit wenigen ehrenwerten Ausnahmen –  wie die sprichwörtlichen Lemminge verhalten, als sie sowohl über die Energiewende-Pläne als auch über das Kernkraft-Moratorium und den Kernkraft-Ausstieg abstimmten.  Es war offenbar eine Mischung aus verschiedenen Faktoren, die sie dazu veranlaßten: Die Opposition aus SPD, Grünen und Linken sah erstaunt, wie ihre eigenen Forderungen von der Regierung erfüllt wurden. Die Regierungsfraktionen standen unter dem Druck  ihrer   Fraktionsführungen.  Zudem fehlte der Mehrheit die fachliche Kompetenz zur Beurteilung der Konsequenzen.  Durch Zeitdruck wurde die Zuziehung externen Sachverstands verhindert. Und schließlich herrschte eine große Angst vor den Medien, deren überwiegend grün-rot orientierte Redakteure ihrerseits einen Druck ausübten, den alle Politiker fürchten.

Und so beschloß der gesamte Bundestag fast einstimmig den Einstieg in das „erneuerbare Zeitalter“ (Zitat aus dem Energiekonzept) – und de facto den Untergang ihrer Nation.

Dieser Vorgang dürfte den Historikern noch viel Stoff für Analysen bieten.

Es ist diese praktisch einstimmige Zustimmung des gesamten Parlaments zur Energiewende und zum „Atomausstieg“, die wie eine schwere Hypothek auf den Altparteien und ihren Abgeordneten liegt.  Diese Hypothek liegt auch auf dem nun neu gewählten Bundestag, denn die maßgeblichen Parteien sind immer noch dieselben – mit Ausnahme der FDP – und auch die meisten der neuen Abgeordneten sind die alten, die der energiepolitischen Blamage ihre Zustimmung gegeben hatten.

Jede nur denkbare Regierungskoalition wird aus Parteien bestehen, die alle dafür waren. Und sie müßten nun im Grunde fast alles, was sie vor nicht langer Zeit mitbeschlossen haben, wieder zerschlagen.

Dieses Dilemma in Verbindung mit den unausweichlichen, sehr bald fälligen drastischen energiepolitischen Maßnahmen  eröffnet nun leider ziemlich erschreckende Aussichten. Denn es besteht die Möglichkeit, dass an Stelle einer Rücknahme der falschen Entscheidungen – insbesondere das EEG betreffend – die letzten Hemmungen fallen und der bereits eingeleitete Prozeß der Planwirtschaft direkt in eine Verstaatlichung des Energiesektors führt.

Schließlich bietet ein weitgehend verstaatlichter Energiesektor für eine Regierung, die eine mit Gesichtsverlust verbundene Revision des Zerstörungsprogramms fürchtet, eine Reihe von vorübergehenden Vorteilen:

  • Es geschieht schließlich etwas; man zeigt Handlungsfähigkeit.

  • Immer neue, verschlimmbessernde Reparaturmaßnahmen , die durch die gegenüber wirtschaftlichen Fehlern gnadenlose Marktwirtschaft erzwungen werden, sind nun nicht mehr nötig.  Denn die Marktwirtschaft wird ja in diesem Sektor abgeschafft.
  • Man kann nun mit vielen Milliarden Euro die selbst verschuldeten und immer neuen Probleme vorübergehend „heilen“.
  • Es gibt neue Behörden und viele schöne Pöstchen für verdiente Parteisoldaten.
  • Und man gewinnt Zeit. Nicht sehr viel, denn nach maximal zwei  Jahren dürften alle Verstaatlichungskosten, Firmenaufkäufe – (bevorzugt: notleidende Stadtwerke) -, Subventionen, Investitionszuschüsse, Kapazitätsvorhaltungs-Prämien für stillstehende Kraftwerke  und soziale Hilfsprogramme für Energiekosten-geschädigte Bürger die Finanzkraft des Bundes übersteigen.  Dann steckt der Karren zwar noch viel tiefer im Dreck, aber der Zeitgewinn wäre es der Politik vermutlich wert.

Pläne, Visionen und Gesetze

Wer einen Blick in die Zukunft wagen möchte, tut gut daran, die bisherige Entwicklung genau in Augenschein zu nehmen.  Wir kennen die Programme,  die unsere Regierung seit 2009 auf dem Feld der Energiepolitik beschlossen hat und wir kennen die bisherigen Ergebnisse, heute, gerade einmal 4 Jahre später.

Sie sind überaus aufschlußreich und erlauben eine Beurteilung der Qualität der Regierungsarbeit – und daher gestatten sie auch eine Prognose über die künftigen  Schritte der Regierung  in diesem volkswirtschaftlich extrem wichtigen Sektor. Um eine Bewertung der deutschen Energiepolitik zu erhalten, genügt der Blick auf die Aktionen der Bundesregierung seit dem Sommer des Jahres 2009.

Im August des Jahres 2009  wurde das Gesetz zum Ausbau von Energieleitungen im   380 kV-Höchstspannungs-Übertragungsnetz (EnLAG) verabschiedet.

  • ♦ In der gegenüber 2009 leicht modifizierten Fassung  gilt heute eine Planung von 1.855 km.  Zweck dieses enormen Netzausbaus, der bisher nur das Höchstspannungs-Übertragungsnetz betrifft, ist vor allem der Transport des in Norddeutschland fern von den Verbrauchszentren erzeugten Windstroms nach West- und Süddeutschland. Von dem noch viel gewaltigeren Ausbau der Mittel- und Niederspannungsnetze, der durch die flächendeckend vorhandenen Solarstrom- und Windkraftanlagen mit ihrem gesetzlich garantierten Einspeisevorrang verursacht wird, ist dabei noch gar nicht die Rede.

Am 28. September 2010 beschloss die Regierung dann das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare Energieversorgung“, das nach der wahrlich größenwahnsinnigen Feststellung des Bundesumweltministeriums „die energiepolitische Ausrichtung Deutschlands bis 2050 beschreibt“.

Wesentliche Ziele darin waren:

  • Reduzierung der Treibhausgasemissionen bis 2020 um 40 % gegenüber 1990.
  • Erreichen eines Anteils der „erneuerbaren“ Energien an der Stromerzeugung von 50 % bis 2030; von 65 % bis 2040 und von 80 % bis 2050.
  • Bei diesen Zielen handle es sich um „ehrgeizige Klimaschutzziele“.
  • Zur Kernenergie liest man im Energiekonzept: „Der notwendige Umbau der Stromversorgung hin zum (wörtlich) erneuerbaren Zeitalter mit der Perspektive 2050 wird den traditionellen Energiemix (gemeint sind Kohle und Kernkraft) deutlich verändern.  Ein solcher Prozeß benötigt nicht nur Zeit, sondern muss auch wirtschaftlich vernünftig ausgestaltet werden.“ Dann kommt der entscheidende Satz:                                                                                                                
  • „Um diesen Übergang zu gestalten, brauchen wir noch zeitlich befristet die Kernenergie und werden deshalb die Laufzeiten (der 17 KKW) um durchschnittlich 12 Jahre verlängern“.  Und noch besser: „Darüber hinaus werden die Regelungen über Sicherheitsanforderungen an die deutschen Kernkraftwerke im Rahmen einer 12. Atomgesetz-Novelle erweitert und auf technisch höchstem Niveau fortgeschrieben.“

  • Zum Endlager für Kernkraft-Abfälle: „Dies (Anm.: das Endlager Konrad) wird möglichst zügig errichtet und in Betrieb genommen. Für 90 % der anfallenden radioaktiven Abfälle ist dann ein sicheres Endlager vorhanden.“  Zum Thema hochradioaktive Abfälle steht dort: Die Erkundung (Anm.: des Salzstocks Gorleben) wird ab Oktober 2010 ergebnisoffen wieder aufgenommen. In einer vorläufigen Sicherheitsanalyse werden bis Ende 2012 alle bisherigen Ergebnisse über den Salzstock zusammengetragen und einer internationalen Expertenprüfung unterzogen. Darauf aufbauend können wir die Erkundung zielgerichtet abschließen.“
  • Zur Abtrennung und Speicherung von CO2 (CCS):  „Bis 2020 sollen zwei der 12 EU-weit förderfähigen CCS-Demonstrationsvorhaben gebaut werden.
  • ♦ „Wir wollen mittelfristig die verfügbaren deutschen Potenziale für Pumpspeicherwerke im Rahmen der technischen und wirtschaftlichen Möglichkeiten erschließen.“
  • „Bis 2020 sollen 1 Million Elektrofahrzeuge in Deutschland fahren;  bis 2030 sollen es 6 Millionen sein.“
  • Am Schluß wird ausführlich „die Einbettung (dieser Pläne und Bemühungen) in die europäische Energiepolitik“ versprochen.

Nur 8 Monate später: Ein Grundpfeiler der Stromversorgung wird zerstört

Kurz nach dem durch ein schweres Erdbeben mit  nachfolgendem katastrophalem Tsumani verursachten Reaktorunfall in Fukushima verkündete am 14. März 2011 die Bundeskanzlerin eine auf 3 Monate befristete Aussetzung der gerade beschlossenen Laufzeitverlängerung  – das sog. Moratorium.  Am darauf folgenden Tag teilte sie mit, dass die 7 ältesten deutschen Kernkraftwerke während des Moratoriums abgeschaltet werden sollten. Auch das seit 2009 abgeschaltete KKW Krümmel sollte in dieser Zeit außer Betrieb bleiben.

Weil die fachlich zuständige Reaktorsicherheits-Kommission allen Reaktoren eine sehr hohe Sicherheit bescheinigte,  berief die Regierung eine sogenannte Ethik-Kommission, die dann unbelastet durch Fachkenntnisse und wunschgemäß den Kernkraftausstieg befürwortete.

Am 6. 6. 2011 beschloss die Regierung ein Energiepaket mit dem Titel „Der Weg zur Energie der Zukunft – sicher, bezahlbar und umweltfreundlich“. 

Es war streckenweise eine Neuauflage des Papiers vom September 2010. Aber durch das begleitende 13. Gesetz zur Änderung des Atomgesetzes wurde die Laufzeitverlängerung vom Oktober 2010 am 6.8.2011 zurückgenommen.

Diese sachlich völlig unbegründete und rein politisch-taktische Kehrtwendung bezüglich der Rolle der Kernenergie zerstörte einen Grundpfeiler der deutschen Stromversorgung, denn die zuvor allein durch Kohle- und Kernkraftwerke sichergestellte Grundlast-Stromerzeugung wurde plötzlich allein den Kohlekraftwerken auferlegt. Das war nicht nur ein schwerer Schlag gegen die Versorgungssicherheit der Wirtschaft und der Verbraucher, sondern zugleich auch ein Schlag gegen die hochfliegenden Pläne mit der stufenweisen und weitgehenden Übernahme der Stromversorgung durch die „Erneuerbaren“, die nun auch alle Kernkraftwerke ersetzen sollten.  Diese Vision wurde nun vollkommen illusorisch, weil die wegfallende große Grundlast-Kapazität überhaupt nicht durch „Erneuerbare“ ersetzt werden kann und höchstens ein kleiner Teil der entstehenden Lücke durch neue Braunkohlekraftwerke ausgefüllt werden könnte – falls sich überhaupt noch ein Investor dafür findet (s.u.). 

Weiterhin zerstörte dieser Beschluss die Hauptbegründung der Energiewende,  die Treibhausgase drastisch zu Gunsten eines angeblichen „ehrgeizigen Klimaschutzes“ zu reduzieren.  Wer mit mehr Kohlekraftwerken die CO2-freien Kernkraftwerke ersetzen muß, bekommt unweigerlich mehr CO2-Emissionen – das wusste selbst diese Regierung.

Damit war nach nur 8 Monaten nach seiner Verkündung dem Energiekonzept der Regierung das Hauptziel abhanden gekommen und alle anderen, die Stromversorgung betreffenden Ziele waren endgültig illusorisch geworden.

Damit endete dann auch schon die angeblich 40 Jahre in die Zukunft reichende Energieplanung.

Der Blick auf eine Trümmerlandschaft

Zwei Jahre darauf gleichen das Energiekonzept von 2010 und das „Energiepaket“ von 2011 einer Trümmerlandschaft.:

  • ♦ Die Emissionen des angeblichen Treibhausgases CO2 steigen seit der Abschaltung der 8 Kernkraftwerke unaufhaltsam. Das macht im Grunde nichts, denn die Hypothese vom CO2-angetriebenen Klimawandel zerfällt gerade, weil die reale Temperaturentwicklung im Begriff ist, selbst den Streubereich der IPCC-Horrorprognosen in Richtung Abkühlung zu verlassen.  Das politische Hauptziel „Klimaschutz“ der gesamten Energiepolitik ist damit aufgegeben worden. Darüber spricht man nicht mehr, da zu peinlich. 
  • ♦ Der Ausbau der sogenannten erneuerbaren Energien ist dank großzügigster Subventionierung stärker als geplant erfolgt, allerdings mit unerwünschten Folgen: Ein starker Anstieg des Strompreises; die ruinierte Wirtschaftlichkeit von Gas-, Steinkohle- und Pumpspeicherkraftwerken mit der Folge ihrer drohenden Stilllegung; die Gefährdung der Netzstabilität durch witterungsbedingte Schwankungen von Wind- und Solarstrom; Landschaftsverschandelung, Naturzerstörung und Lärmbelastung durch Windkraftanlagen; riesige Monokulturen durch Mais- und Rapsanbau für Biogasanlagen werden zur Konkurrenz für landwirtschaftlich genutzte Flächen; Anstieg der Pachtkosten für Agrarflächen; Anstieg der Holzpreise; Feinstaubbelastung durch Holzpellet-Heizungen; Belastungen der Stromnetze unserer Nachbarländer durch Überschuß-Strom von Windkraftanlagen; Zuzahlungen für Nachbarländer, damit sie die unerwünschten Leistungsspitzen annehmen. Und dennoch kein Ersatz der konventionellen Stromerzeugung durch Erneuerbare, weil diese auch bei größtem Ausbau niemals eine sichere Versorgung garantieren können. Damit wird die gesamte Stromerzeugung doppelt aufgebaut – die dadurch verursachten Kosten kann keine Wirtschaft verkraften: Die Abwanderung der Grundstoffindustrie ist die Konsequenz.  Womit die Regierung ebenfalls nicht rechnete, war der große Widerstand der Bürger  gegen Windkraftanlagen: Es gibt lt. SPIEGEL-Bericht über 700 Bürgerinitiativen gegen diese Technik. Hinzu kommen Bürgerinitiativen gegen den Bau von Hochspannungsleitungen und gegen den großflächigen Anbau von Energiepflanzen sowie gegen Biogasanlagen.
  • ♦ Der durch die Abschaltung der Kernkraftwerke verursachte Ausfall an Grundlaststrom wird nun teilweise durch Stromimporte ausgeglichen: Dieser Strom kommt aus französischen und tschechischen Kernkraftwerken.
  • ♦ Alle entschlossen im Energiekonzept vom September 2010 verkündeten Pläne zur Endlagerung radioaktiver Abfälle wurden schon 2013 Makulatur. Am 23.7.2013 wurde das von allen Parteien im Bundestag verabschiedete „Standortauswahlgesetz“ veröffentlicht. Das neue zeitliche Ziel ist nicht mehr 2012, sondern 2031 – aber nicht etwa für die Eröffnung des Endlagers, sondern nur für die Entscheidung, wo es denn errichtet werden könnte. Wörtlich im Gesetz: „Das Standortauswahlverfahren soll (!) bis zum Jahr 2031 abgeschlossen sein.“ Woraufhin dann der „Gorleben-Effekt“, also massiver Bürgerwiderstand, an jedem neuen, in Aussicht genommenen Standort eintritt.  Dieses Gesetz ist nichts anderes als eine Totalkapitulation vor einer unangenehmen Entscheidung: Es bedeutet, dass sämtliches hochradioaktive Material für einen unabsehbaren Zeitraum oberirdisch gelagert werden muss.  Ob das die Endlager-Gegner wollten ?
  • Die Pläne für Demonstrationsanlagen zur  CO2-Abtrennung und  unterirdischen Speicherung wurden durch den Ausstieg von Vattenfall sowie die massiven Bürgerproteste in Norddeutschland ebenfalls Makulatur.
  • ♦ Von den wenigen, energiewirtschaftlich bedeutungslosen Projekten zum Bau neuer Pumpspeicherkraftwerke scheiterte das  große Projekt am Rursee; Trianel warf das Handtuch nach sehr großem Widerstand aus der Bevölkerung.
  • ♦ Auch beim Thema Elektrofahrzeuge droht eine Blamage.  Im ersten Halbjahr des Jahres 2013 gab es nicht einmal 2.500 Neuzulassungen.
  • ♦ Der Ausbau des Höchstspannungsnetzes kommt nicht voran: Von den aktuell geplanten 1.855 km sind bislang 268 km und damit knapp 15 % realisiert.  Weitere Fertigstellungen erwarten die Netzbetreiber erst wieder 2014.  Inzwischen werden die genannten Zahlen als viel zu niedrig angezweifelt: Minister Rösler erklärte, dass  nach dem Netzentwicklungsplan 2.900 km optimiert und weitere 2.800 km neu gebaut werden müßten.
  • Und die von der Regierung zugesagte „Einbettung in die europäische Energiepolitik“  fand nicht nur nicht statt, vielmehr vollzog sie ihren extremen Schritt mit der überstürzten Abschaltung von 8 Kernkraftwerken von immerhin 8422 Megawatt Leistung ohne jede Vorwarnung oder gar Konsultation mit den Nachbarländern, die mit ihren Stromnetzen mit Deutschland verbunden sind.  Auch der extreme Ausbau der Windkraft und der Photovoltaik hat durch die dadurch verursachten starken Leistungsschwankungen erhebliche Auswirkungen auf benachbarte Länder.  Die Regierung hat diese einseitige Politik niemals mit ihren in Bezug auf die Auswirkungen auf den Strompreis und die Netzstabilität direkt betroffenen Nachbarn abgestimmt. Jetzt planen Nachbarländer – insbesondere Polen – den Bau technischer  Sperreinrichtungen gegen unerwünschte deutsche Stromexporte in ihr Netz. Abwehr anstelle von Integration ist nun die Richtung.

Energie-Planwirtschaft als Folge von Hilflosigkeit

In der Wirtschaftspresse ist bereits harsche Kritik daran geübt worden, dass im Energiesektor immer mehr marktwirtschaftliche Grundprinzipien von der Regierung missachtet und durch politisch motivierte Verletzungen dieser Prinzipien ersetzt werden.

Zahlreiche durch diese Politik hervorgerufenen Probleme zwangen die Regierung bereits zu „Reparaturmaßnahmen“, die allerdings niemals den Grundübeln zu Leibe rückten, sondern im Gegenteil stets so eingerichtet wurden, dass die gefährlich gewordenen primären Schadwirkungen durch neue kostspielige Investitionen, Subventionen und Kostenüberwälzungen auf die Verbraucher zugekleistert wurden – womit sie selbst zu neuen Schädigungen von Bürgern und Wirtschaft führen.

Die Methode ist: Fehlentscheidungen nicht rückgängig machen, sondern neue Fehler einführen, um die dahinter stehende planwirtschaftliche Ideologie zu schützen.

Folgendes geschah bereits:

1.     Das Erneuerbare Energien-Gesetz (EEG), also die Zwangssubventionierung unwirtschaftlicher und auch technisch ungeeigneter Methoden der Stromerzeugung – verbunden mit dem Zwang, den so erzeugten Strom vorrangig ins Netz einzuspeisen und seinen Weiterverkauf notfalls noch zusätzlich zu bezahlen

2.     Entschädigungs-Verpflichtung für die Nicht-Produktion eines Wirtschaftsgutes – s. §12 EEG.

3.     Die mit Angstszenarien begründete Stilllegung einer großen Grundlast-Stromerzeugung (Kernkraft) mit der Folge von Preissteigerungen,  Versorgungsengpässen und abnehmender Netzstabilität.

4.     Gewaltiger  Ausbau der Stromnetze, der ohne die Fehlentscheidung der erzwungenen Bevorzugung unrentabler Erzeugungstechniken – s. Punkt 1 – überhaupt nicht notwendig wäre.

5.     Die Übernahme der Kosten, die den Windparkbetreibern durch einen  verzögerten Anschluss  der Offshore-Windparks an das Land-Stromnetz entstehen, durch die Stromverbraucher – eine staatswirtschaftliche Maßnahme, die das vormals FDP-geführte Wirtschaftsministerium erfunden und durchgesetzt hatte.

6.     Die Entlastung von energieintensiven Produktionen von den durch das EEG verursachten Strompreiserhöhungen – und deren Überwälzung auf die übrigen Verbraucher. Hier besteht die Möglichkeit eines Eingriffs der EU wegen Wettbewerbsverletzung.

7.     Neue Subventionen, um weitere Folgen der Fehlsteuerung durch das EEG und den Kernkraftausstieg zu bekämpfen: Die Vorrangseinspeisung von Wind- und Solarstrom drückt den Börsenpreis speziell in den Mittagsstunden und macht Kohle- und Gaskraftwerke und auch Pumpspeicherkraftwerke unrentabel: Die Betreiber planen Stilllegungen.  Damit zerstört das EEG sogar die Rentabilität der einzigen Kraftwerke, die zu einer Stützung und Stabilisierung des vom stark schwankenden EEG-Strom gefährdeten Stromnetzes imstande sind. Die verzweifelte Regierung hilft sich mit: Neuen Subventionen. Das Stichwort heißt „Kapazitätsmanagement“. Im Klartext:  Zur Stilllegung vorgesehene Kraftwerke werden zur „Kaltreserve“ ernannt und deren Betreiber erhalten Geld, um die stillstehende Anlage bei Engpässen hochzufahren.  Bereits erfolgt beim bayerischen modernen Gaskraftwerk Irsching, dessen Normalbetrieb durch das EEG ruiniert wurde. Der Staat hält sich also auf eigene Kosten eine Kaltreserve.  Für die von niemand mehr geplanten Kraftwerksneubauten kommt Entsprechendes: Siehe unten.

8.     Stromspeicher werden im Ausland gesucht – so die per Seekabel teuer  anzuschließenden Pumpspeicherwerke Norwegens – weil nicht benötigter, überschüssiger Windstrom zwischengespeichert werden muss.  Die Seeekabelverbindung Nord.Link ist geplant.

9.     Durch die Energieeinsparverordnung werden Hausbesitzer zur energetischen Sanierung und Nachrüstung gezwungen. Auch wenn sie das nicht wünschen. Sie dürfen die Kosten auf die Mieter umlegen.

10. Für Neubauten ist bereits die Installierung der sog. intelligenten Stromzähler vorgeschrieben. Ein Zwang für alle Verbraucher, diese Geräte anzuschaffen, ist angesichts der die Bürger bevormundenden Energiepolitik zu erwarten.

11. In Baden-Württemberg wurden Hausbesitzer bereits gesetzlich verpflichtet, bei einer Modernisierung ihrer Heizungsanlage eine anteilige Versorgung durch „Erneuerbare Energie“ sicherzustellen.

12. Durch die wetterabhängige, bei Bewölkung rasch schwankende  Stromeinspeisung der Photovoltaikanlagen geraten die Verteilnetze in Stabilitätsprobleme. Weil ein durch zu große Einspeisung hervorgerufenes Überschreiten der Netzfrequenz von 50,2    Hertz vermieden werden muss,  wurde den Betreibern der Solarstromanlagen die Anschaffung eines Regelgerätes vorgeschrieben.  Die Kosten dafür wurden – unbemerkt – wieder den Stromverbrauchern auferlegt, obwohl sie für diese Störung des Netzes nicht verantwortlich sind. 

Die Verstaatlichung  des Energiesektors in der Zukunft

Der bereits eingeschlagene Weg in die Verstaatlichung der Stromerzeugung und -verteilung führt folgerichtig zu folgenden Schritten – und bei einer großen Koalition erst recht:

1.    Die von den EVU geplante Stilllegung von konventionellen Kraftwerken hat nicht nur den Einbruch des Börsenpreises durch hochsubventionierten und mit gesetzlichem Einspeise-Vorrang versehenen EEG-Strom als Ursache: Es geht ebenfalls um alte, unmoderne und mit schlechten Wirkungsgraden arbeitende  Anlagen, die demnächst das Ende ihrer Betriebsdauer erreichen.  Auch das fürchtet die Regierung, denn sie braucht alle existierenden Kraftwerke, weil keine neuen mehr gebaut werden – s.u.

Die staatswirtschaftliche und anti-marktwirtschaftliche Konsequenz: Bezuschussung auch dieser Altanlagen; d.h. Finanzierung umfassender Modernisierungsmaßnahmen und Subventionierung des Betriebes.

2.  Die Bevorzugung von Wind- und Solarstrom macht nicht nur die bestehenden konventionellen Kraftwerke unrentabel. Insbesondere Kraftwerksneubauten werden von der Regierung dringend gefordert, weil die durch den Kernkraftausstieg entstandene Lücke mit neuen Kohlekraftwerken ausgefüllt werden muss.  Von CO2-Emissionen spricht ohnehin niemand mehr.  Die privaten  Investoren denken jedoch angesichts dieser Energiepolitik verständlicherweise nicht mehr an  Neubaupläne. Das bekannte Heilmittel: Geld vom Staat – hier Investitionkostenszuschüsse. Das diskutiert auch schon der BDEW und auch die Bundesnetzagentur empfiehlt, über Subventionen für den Kraftwerksneubau „nachzudenken“ Deshalb hat bereits die alte Bundesregierung derartige   Investitionskostenzuschüsse für neue fossile Kraftwerke im Zeitraum 2013-2016 in Aussicht gestellt und nahm hierzu Verhandlungen mit der EU auf.  Dies wird mit Sicherheit kommen, weil auch weiterhin angesichts der sprunghaften und unberechenbaren Energiepolitik niemand derartige Investitionen tätigen wird, was sich schon heute abzeichnet. Sollte das dann auch nicht helfen, wird der Staat selbst als Kraftwerksbauer auftreten müssen – vielleicht auch gerne wollen.

3. Der staatliche Geldregen für Energiewende-Reparaturmaßnahmen lockt nun auch weitere Interessenten hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein Einspeisegesetz  á la EEG auch für Energiespeicher, die das Netz stabilisieren sollen, gefordert. Auch Investitionszuschüsse seien geeignet. Abermals heißt das vom Staat – also von den Verbrauchern –  bezahlte  „Kapazitätsbereitstellung“; hier eben für Speicher.      

4. Die schon heute erheblichen Probleme, die viele Haushalte mit ihren Stromrechnungen haben – die Verbraucherschützer sprechen von 600.000 Haushalten, denen der Strom abgestellt wurde – könnten in der Logik der Staatswirtschaft dazu führen, dass es einen Eingriff in die Tarifgestaltung der  Netzbetreiber gibt: Sozialtarife für Bedürftige, also höhere Preise für die Übrigen.                                          

5. Die bereits bei den PKW erprobte Idee der Verschrottungsprämie erlebt gegenwärtig bei den Ideenproduzenten eine Neuauflage für die „weiße Ware“, speziell alte Kühlschränke und Heizkessel.  Vorbild ist Mexiko: Dort wurde das seit 2009 praktiziert; 1,5 Millionen Haushalte ersetzten dadurch ihre Kühlschränke und  7 % weniger Stromverbrauch pro Haushalt  war das Ergebnis.

Dieser finanzielle Anreiz kann auch noch mit der Verpflichtung zur Installation von Photovoltaikanlagen oder Wärmepumpen verknüpft werden.

6. Ebenso kann es zu staatlichen Zuschüssen beim Kauf eines Elektroautos kommen, wie es die Autoindustrie, die fast nichts derartiges verkaufen kann,  vehement fordert.  Nicht einmal 2.500 Neuzulassungen gab es in Deutschland im 1. Halbjahr 2013.  Die Autofahrer sind eben nicht so dumm,  ein überteuertes Fahrzeug zu kaufen, das  auch noch ausschließlich Nachteile bringt: Geringe Reichweite,  lange Ladezeiten, fehlende Lade-Infrastruktur,  Unbrauchbarkeit im Winter, Sicherheitsbedenken bei den Li-Ionenbatterien,  Zweifel an der Batterielebensdauer.  Dazu kommt noch die Konkurrenz moderner Dieselmotoren, die kaum weniger energieeffizient, aber voll gebrauchstüchtig sind.  Die Regierung hat jedoch aus nicht nachvollziehbaren Gründen das E-Auto zum Klimaretter ernannt und es ist zu befürchten, dass neue staatliche Maßnahmen erfunden werden, um diese noch ca. 20 Jahre von ihrer  Brauchbarkeit entfernte Technik jetzt in den Markt zu bringen, koste es was es wolle. 

7. Es ist davon auszugehen, dass die sog. Smart Meter,  also „intelligente Stromzähler“ ,  durch staatliche Zwangsmaßnahmen in den Haushalten auch von Altbauten eingebaut werden müssen.  Versuche haben zwar gezeigt, dass die damit verbundenen Kosten deutlich über den sehr geringen Einsparungen im Stromverbruch liegen, doch das dürfte nach allen Erfahrungen die Ministerialbürokratie nicht daran hindern.  Es geht schließlich nicht nur um Stromeinsparungen, sondern vielmehr um die Kontrolle der Energieverbraucher sowie um deren Erziehung zum Energiesparen. Es sind deshalb Proteste zu erwarten, weil mit diesen Zählern das Verbrauchsverhalten der Bürger überwacht werden kann – mit Ermahnungen des Versorgers bei kritikwürdigem, nicht klimagerechten Verhalten.  Der Schnüffelstaat läßt grüßen.

8. Kurz vor der Bundestagswahl hat das bis dahin FDP-geführte Wirtschaftsministerium 1000 Energieberatungs-Gutscheine á 250 Euro an Haus- und Wohnungsbesitzer verteilt.  Ziel sei „ein weitgehender klimaneutraler Gebäudebestand bis 2050“.  Dieser dreifache Unfug – die Unnötigkeit der Aktion, weil das Klimaargument passé ist,  die größenwahnsinnige Perspektive 2050 und die faktische Unbezahlbarkeit trotz Gutschein – erklärt zumindest zu einem kleinen Teil den Totalabsturz der FDP. Aber die Idee zur Energieberatung der Haushalte hatte zuvor schon Minister  Altmaier und es ist anzunehmen, dass die staatlich geförderte Ermunterung der Bürger zum Energiesparen noch weiter getrieben wird.  Bezeichnend ist dabei, dass es mit dem Strom-Schlaraffenland der Erneuerbaren nicht so weit her sein kann, wenn geradezu verzweifelt das Stromsparen propagiert wird.  Ob die Ergebnisse dieser Beratungen von staatlichen Stellen ausgewertet werden, um uneinsichtigen Bürgern „erneuerbare“ Energien nahe zu bringen, ist offen, aber keineswegs ausgeschlossen.

9. Weil mit zunehmendem Anteil von extremen Spitzen und ebenso abrupt eintretenden Versorgungslücken des Windstroms gerechnet werden muss, steigt auch die Gefahr von Netzzusammenbrüchen – neudeutsch Blackouts.  Weil es  nicht annähernd ausreichende Stromspeicher zum Ausgleich  dieser Schwankungen gibt – und auch für die kommenden 20 Jahre nicht geben wird – werden staatliche Stellen verstärkt Großverbraucher zwingen,  zeitweise Stromabschaltungen hinzunehmen.  Diese Unternehmen sehen sich dadurch gezwungen, eigene größere Notstromgeneratoren zu installieren, was ihre Kosten in die Höhe treibt.

10. Weil die Lebensdauer auch von Photovoltaikanlagen und Windkraftanlagen begrenzt ist, stellt sich irgendwann die Frage der Verschrottung.  Nach dem bislang eisern durchgehaltenen Prinzip der Energiewende, alle Kosten auf die Verbraucher abzuwälzen, ist zu befürchten, dass  das auch bei diesen Kosten nicht anders sein wird.

11. Die Schnüffelei, die bei den intelligenten Zählern und der Energieberatung möglich ist,  kann auch noch auf einer anderen, buchstäblich höheren Ebene erfolgen: Der Umweltreferent der Stadt Bonn, der über die geringe Anzahl von Photovoltaikanlagen auf den Dächern, die er aus seinem Büro sah, sehr traurig war, verbreitete sich über die Idee, aus Luftbildaufnahmen alle für eine Solarzellen-Installation geeigneten Dächer der Stadt zu bestimmen – um dann den betreffenden Hausbesitzern die Anschaffung einer Solarstromanlage ans Herz legen zu können. Hier können sich staatliche Stellen noch Meriten erwerben; vielleicht hilft auch die Luftwaffe.

13. Die Mischung aus Hilflosigkeit und Verzweiflung produziert bereits Vorschläge, die die Älteren an die letzten Jahre des Krieges erinnern. Damals wurde zum Beispiel in der Wochenschau im Kino regelmäßig der Kohlenklau vorgeführt , den man durch das Schließen der Fenster am Energiediebstahl hindern sollte.  Jetzt ist das Energiesparen wieder nationale Pflicht geworden.  Mit Plakaten wurde im Krieg auf die Wichtigkeit der Verdunkelung hingewiesen – damals gegen die Bomber, heute vielleicht wieder aktuell gegen den auch nicht angenehmen totalen Blackout im Winter.  Minister Altmaier gab bereits Tips zum Energiesparen im Haushalt: So sollte man möglichst den Deckel auf dem Kochtopf lassen.  Wenn es so weiter geht, werden auch noch unsere Kabarettisten arbeitslos.

Eine sehr ernste Warnung

Auf dem Debattenabend „Energiewende: Plan- vs. Marktwirtschaft“ der Stiftung Energie & Klimaschutz am 5.6.2013 in Stuttgart hat der Leiter des renommierten Instituts für Energiewirtschaft und Rationelle Energieanwendung (IER) der Universität Stuttgart, Prof. Dr. Alfred Voß, die Gefahr eines weiteren Ausbaus der sog. Erneuerbaren mit sehr deutlichen Worten beschrieben.

Zitat: „Die Technologieziele der Energiewende sind mit einem marktwirtschaftlichen Ordnungsrahmen nicht zu erreichen“. Trotz großer Fortschritte der erneuerbaren Energien glaube er nicht, dass diese auf einem freien Markt mit der konventionellen Stromerzeugung konkurrieren können.  Deshalb werde die Energiewende „nur mit einem planwirtschaftlichen Ordnungsrahmen und mit erheblich höheren Kosten umzusetzen sein“.  Voß weiter: „Alles was wir machen, wenn wir den Ausbau der Erneuerbaren so fortführen, wird dazu beitragen, dass wir ein Energieversorgungssystem haben, das ein zentrales Kriterium nicht erfüllt, nämlich einen wettbewerbsfähigen Strompreis für die Bürger und die Industrie.“

Zur Erinnerung: Im September 2010 beschloss die Regierung das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare (!) Energieversorgung“.  Wird dieses Konzept weiter verfolgt, werden alle diese Hauptziele völlig verfehlt und dieses Experiment wird in einer teuren Planwirtschaft enden.

Prognosen sind schwierig……,

insbesondere, wenn sie die Zukunft betreffen. Dieser von Mark Twain stammende Satz gilt weiterhin und ganz besonders für die deutsche Energiepolitik.  Dennoch sei hier eine Voraussage gewagt.  Genau so, wie neuerdings in Wetterberichten regelmäßig die ziemlich seltsame  Aussage über die Regenwahrscheinlichkeit zu hören ist (als ob man dann mit 60-prozentiger Wahrscheinlichkeit seinen Schirm mitnimmt), kann man auch in diesem Politikfeld, gegen das unser Wetter – obwohl ein chaotisches System – zumindest für zwei Tage und damit besser als die gleichfalls chaotische Politik recht gut prognostizierbar ist,  nur noch mit Wahrscheinlichkeiten rechnen.

Und die oben angestellten Betrachtungen ergeben mit einer höheren Wahrscheinlichkeit als alle anderen Möglichkeiten für den Energiesektor das Ergebnis Plan- und Staatswirtschaft. Sollte es anders kommen, wäre es ein guter Grund zur vorübergehenden Erleichterung.

Dr.-Ing. Günter Keil,  Sankt Augustin

Den Beitrag können Sie unten als pdf herunterladen

Related Files




Keine Versicherung von Kernkraftwerken? Einfach nur falsche Propaganda!

Neuerdings erscheint — besonders in deutschen "Qualitätsmedien" — eine etwas geschicktere Variante: Man behauptet, das Risiko sei nur zu 0,0….x Prozent versichert. Die Angabe einer Zahl, soll wohl die Überprüfbarkeit erschweren und ein Hintertürchen offen lassen. Fragt man nach, bekommt man völlig absurde Schadenshöhen genannt. Es ist der alte Wein von "Millionen Tote und für zehntausende Jahre unbewohnbar" in neuen Schläuchen. Fragt man nach den entstandenen Kosten von Harrisburg, Tschernobyl und Fukushima, wird einem zumeist im Brustton der Überzeugung entgegengehalten, daß diese erst in zig Generationen (Krebs und genetische Schäden) meßbar werden. Was soll man da noch sagen? Es empfiehlt sich, spätestens hier die Diskussion abzubrechen, denn man berührt zentrale Fragen des Glaubens. Es ist so, als ob man mit einem tiefgläubigem Katholiken die unbefleckte Empfängnis der Jungfrau Maria auf der Ebene biologischer Tatsachen diskutieren wollte.

Zur Geschichte

Video passend zur Abschaltung der Kernkraftwerken: Will Deutschland wieder mit Holz heizen?

Im Gegensatz zur Behauptung, hat man vom Anbeginn der zivilen Nutzung der Kerntechnik, eine Versicherungspflicht eingeführt. Bereits 1957 wurde in USA der Price-Anderson Act verabschiedet. Er ist bis heute gültig und dient als internationales Vorbild. Er machte das damals große Risiko durch eine mehrstufige Aufteilung handhabbar. Das Risiko war damals nur schwer erfaßbar, weil es sich um eine neue Technologie handelte. Man war vollständig auf theoretische Abschätzungen angewiesen und es gab bei den Versicherungen noch kein Fachpersonal. Man führte eine erst- und zweitrangige Versicherungspflicht ein. Jedes Kraftwerk muß eine eigene Haftpflicht über aktuell 300 Millionen Dollar (Anpassung alle 5 Jahre vorgeschrieben) nachweisen. Wird in einem Schadensfall diese Summe überschritten, tritt die zweitrangige Versicherung in Haftung. Sie wird aus der Gruppe aller Kraftwerke gebildet und haftet aktuell mit über $10 Milliarden Dollar. Finanziert wird sie durch zusätzliche Zwangsbeiträge aller Kraftwerke. Diese Zweiteilung macht Sinn, da es sich um unterschiedliche Energieversorger, mit unterschiedlichen Reaktortypen handelt. Das unterschiedliche "Gefährdungspotential" kann durch unterschiedliche Prämien für die erstrangige Versicherung nachgebildet werden. Sollte dieser Betrag immer noch nicht reichen, beschließt der Kongress über die weitere Vorgehensweise zur Finanzierung des restlichen Schadens. Damit ist keineswegs eine Kostenübernahme gemeint, wie dies von "Atomkraftgegnern" immer wieder behauptet wird, sondern lediglich ein Vorschuß. Wie das Geld wieder von den Verursachern eingetrieben wird (einmalige Sonderumlage, erhöhte Prämien etc.), bleibt bewußt offen und soll gegebenenfalls von der Politik diskutiert und entschieden werden. Diese zeitlich gestaffelte Vorgehensweise, bewährt sich gerade beim Unglück von Fukushima. Sie erlaubt sogar die Abwicklung eines Großschadens mit mehreren Reaktoren gleichzeitig und davon allein vier Reaktoren mit Totalschaden an einem Standort.

Wie eine Versicherung funktioniert

Eine Versicherung haftet für den finanziellen Schaden eines definierten Risikos. Von entscheidender Bedeutung ist der Begriff Risiko: Risiko ist Schaden mal Eintrittswahrscheinlichkeit. Bei häufig auftretenden Ereignissen (Auto-, Lebens-, Krankenversicherungen etc.) sind die entsprechenden Werte einfach und zuverlässig durch Statistiken zu ermitteln. Je seltener die Versicherungsfälle sind (z. B. Beine eines Filmstars), je aufwendiger gestaltet sich die Abschätzung des Risikos. Die "Versicherung" kommt einer Wette im umgangssprachlichen Sinne immer näher. Sowohl für die Bemessung der Prämie, wie auch für die erforderlichen Sicherheiten, ist diese Bandbreite von ausschlaggebender Bedeutung.

Das Risiko ist per Definition ein Produkt aus Schaden und Eintrittswahrscheinlichkeit. Es kann sich also durchaus das gleiche Risiko ergeben, wenn ein großer Schaden selten eintrifft (Kernkraftwerk) oder viele kleine Schäden häufiger (Kfz-Versicherung). Im ersten Fall, muß man die Versicherungssumme über längere Zeit "ansparen" und vorhalten, während man im zweiten Fall einen Großteil der (laufenden) Schäden aus den jährlich zufließenden Prämien direkt abdecken kann. Es ist (statistisch) nur für die Schwankungen ein Puffer anzulegen.

Eine Versicherung, die im Schadensfall nicht zahlen kann, ist völlig wertlos. Deshalb werden alle Versicherungsgesellschaften streng überwacht. Sie dürfen nur bestimmte Risiken im Verhältnis zu ihrem Vermögen eingehen. Hierdurch ergibt sich eine grundsätzliche Schwierigkeit des "Versicherungswesens": Die volkswirtschaftliche Bereitstellung von Sicherheiten. Beispielsweise haben allein die deutschen Versicherungen ein "sicherheitstechnisch gebundenes" Vermögen von fast 1400 Milliarden Euro. Dieses Vermögen muß nicht nur sicher sein, sondern im Ernstfall auch kurzfristig "verflüssigbar". Aus diesem Grunde besteht es zu über 80% aus Rentenpapieren. Ganz neben bei, liegt hierin auch eine Antwort auf die oft gestellte Frage, wer eigentlich von der "Staatsverschuldung" profitiert. Andersherum würden bei einem Staatsbankrott weniger "die Reichen", als wir alle haften. Schließlich ist jeder von uns durch zahlreiche Zwangsversicherungen zumindest indirekt (z.B. Gebäudeversicherung => Miete) beteiligt.

Letztendlich kann man Großschäden nur durch die Verteilung auf viele Versicherungen und international gestreut absichern.

Versicherung versus Staatshaftung

Grundsätzlich kann man Risiken sowohl privatwirtschaftlich (z. B. Autohaftpflicht) wie auch ausschließlich öffentlich (z. B. Eigenversicherung einer Schule) abdecken. Eine privatwirtschaftliche Lösung ist immer zu bevorzugen, wenn eine maximale Kostentransparenz gewünscht ist. Die Eigenversicherung ist hingegen stets billiger: Die Schule wird gar nicht versichert und wenn sie abbrennt, wird sie aus Steuermitteln wieder aufgebaut. Volkswirtschaftlich sind beide Ansätze durch die Bereitstellung von Sicherheiten gar nicht so weit auseinander. Letztendlich haftet immer die gesamte Gesellschaft: Entweder nachher (Kosten im Schadensfall) oder ständig über höhere Preise (Kosten der Versicherungsprämie). Ein Mischsystem aus erstrangiger Privathaftpflicht und nachrangiger Staatshaftung ist oft optimal. Aus diesem Gedanken ergibt sich die maximale Begrenzung der Haftung bei vielen Versicherungen (Auto, Flugzeug etc.). Dies hat erstmal nichts mit der Abwälzung von Kosten auf die Allgemeinheit zu tun, denn die zumeist uneingeschränkte Haftung des Schadensverursachers ist dadurch nicht berührt. Jedenfalls, so lange der Haftende über genügend verwertbares Vermögen verfügt. Abschreckendes Beispiel hierfür, ist die "Asbest-Geschichte", die sogar zum Konkurs ganzer Konzerne (Combustion Engineering etc.) geführt hat. Ein ähnliches Schicksal dürfte den japanischen Energieversorger TEPCO — und damit seine Aktionäre — ereilen. Im Gegensatz hierzu, steht lediglich das sozialistische Gesellschaftssystem, in dem Verantwortungslosigkeit und nicht vorhandenes Eigentum die Grundprinzipien sind: Für den Schaden in Tschernobyl müssen alle Betroffenen selbst aufkommen, da ja der Staat per Definition "nur gut" ist und ein solches Unglück deshalb wie eine Naturkatastrophe hereinbricht. Schadensersatzansprüche lassen sich mangels vorhandenem Eigentum auch nicht einklagen. Der Reaktor ist kaputt und der Staat sorgt im "üblichen Rahmen" für die Geschädigten. Außerdem gibt es im Sozialismus auch gar nichts zu entschädigen, weil es ja kein Eigentum gibt (z. B. vertriebene Bauern). Wahrscheinlich ist hierin die wesentliche Ursache für den laxen Umgang mit Arbeits- und Umweltschutz in den einschlägigen Ländern zu suchen.

Nuklearversicherung als Politikum

Kerntechnische Anlagen sind die einzigen Energieerzeugungsanlagen, für die eine umfassende Versicherungspflicht besteht. Sonst geht die Bandbreite von gar keine Versicherung (Öffentliche Staudämme), über die Minimalbegrenzung von Umweltschäden (Ölverseuchung des Meeres durch Bohrunglücke) zu ewigen Lasten des Bergbaues (das Ruhrgebiet als See). Entscheidend hierbei ist die Wettbewerbsverzerrung. Würde man die fossilen Energieträger durch adäquate Versicherungen (laufend) belasten, wären sie noch weniger konkurrenzfähig. Wenn "Atomkraftgegner" diese Tatsache in das Gegenteil verdrehen, ist das zwar dreist, aber offensichtlich erfolgreich.

Das Kernenergie die kostengünstigste Form der Erzeugung elektrischer Energie in der Grundlast ist, ist heute Allgemeinwissen. Nach Fukushima kann man das durch die unmittelbar gestiegenen Strompreise sogar sehr genau beziffern. In Japan haben durch die zeitweilige Abschaltung der Kernkraftwerke die zusätzlichen Importkosten für Brennstoffe zweistellige Milliardenbeträge jährlich erreicht. In Deutschland verursacht die "Energiewende" inzwischen höhere Abgaben für die Subventionierungen des Abfallstromes, als der Strom in den meisten Ländern überhaupt kostet. Bei der Erfindung fiktiver Kosten, stoßen die "Atomkraftgegner" immer mehr an die Grenzen der Glaubwürdigkeit. Die Vorgehensweise folgt immer der gleichen, simplen Masche: Man erfindet Kosten, damit die Stromerzeugung aus Kernenergie mindestens so teuer, wie der geliebte "Sonnenstrom" wird (obwohl die Sonne doch gar keine Rechnung schickt!). Alles sehr widersprüchlich und nur für schlichte Gemüter geeignet.

Hat sich eigentlich mal jemand überlegt, was geschehen würde, wenn man mehrere Cent Versicherungsprämie auf die erzeugten Kilowattstunden aufschlagen würde? Es würde sich binnen weniger Jahre ein Kapitalstock gigantischen Ausmaßes bilden. In welche Sicherheiten sollte der denn angelegt werden? Er würde sich vielmehr, wie Krebs über die Finanzmärkte ausbreiten. Vielleicht ist das aber bereits ein neuer Plan von Schwarz-Rot-Grün die Staatsverschuldung wieder "finanzierbar" zu machen. Eine Versicherung, in die immer nur einbezahlt wird, erscheint wie das Ei des Kolumbus der Staatswirtschaft. Fast so genial, wie eine Rentenversicherung als "Generationenvertrag".

Die praktischen Erfahrungen

Die private Versicherungswirtschaft hat inzwischen rund 60 Jahre Erfahrung mit der Versicherung kerntechnischer Anlagen. Seit 1956 (UK) auch mit der Bildung von nationalen und internationalen Pools. Es hat sich zu einem sehr lukrativen Geschäft entwickelt. Zu der Haftpflicht kommen heute noch Versicherungen gegen Produktionsausfall, Dekontaminierung nach Störfällen, Kosten zur Beschaffung von Ersatzstrom etc. Solche Versicherungen für interne Schäden, belaufen sich üblicherweise auf mehr als 2 Milliarden Euro pro Reaktor.

Der größte Schadensfall ist bisher das Unglück in Harrisburg (über Fukushima liegen noch keine belastbaren Zahlen vor) mit über 200 Millionen Dollar. Bereits drei Tage nach dem Störfall wurde von der Versicherung vor Ort ein Büro eröffnet, in dem täglich bis zu 160.000 Dollar in bar für Unterbringungskosten, Verdienstausfall etc. ausgezahlt wurden. Letztendlich wurden über 25 Millionen Dollar für die Entschädigung wirtschaftlicher Einbußen an Betroffene ausgezahlt und 70 Millionen Dollar für erlittene medizinische Behandlungen etc. Eine so hohe Summe, für einen Versicherungsfall, bei dem zumindest keiner getötet wurde, ist schon außergewöhnlich. Dies liegt an dem extrem eng gefassten Begriff der Haftung im Gesetz, der einer Umkehrung der Beweislast gleichkommt. Alles Tatsachen, die "Atomkraftgegner" und die einschlägige Angstindustrie gerne leugnen.

Dr. Ing. Klaus Dieter Humpich. Der Beitrag erschien zuerst am 14.8.13 bei NukeKlaus 




Strahlungswirkung: Eine falsche Theorie bestimmt die Atom-Politik

Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das "nicht vertreten sein" von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei "We the people, your voice in our government" (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem "Randthema" eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte "Gesunde Menschenverstand" plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das LNT – Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel — im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, dass man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut — ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: "Auf der Baustelle besteht Helmpflicht". Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hundert Meter durch einfache Addition  berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar — jedenfalls spätestens nach dem ersten "Muskelkater". Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, dass sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, dass, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. "tausende Tote" durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, dass es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, dass energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war — und ist heute eigentlich noch immer — der Meinung, dass bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen "Qualitätsmedien" zur "Reaktorkatastrophe in Fukushima".

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, dass unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar, wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil, ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das "Klein gedruckte" des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

 "…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose…

Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities".

Soll wohl heißen, wir wissen selbst, dass das Blödsinn ist, was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, dass es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte "Atomkraftgegner" wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger "Atomexperten" mögen öffentlich an ihre Prophezeiungen über "Millionen von zusätzliche Krebstoten in ganz Europa" infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur "Atomkraftgegner", sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine "Chemiefabrik" in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden —  in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Kerbs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, dass die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem, bricht auch in den USA eine erneute Diskussion zur "Atommüllfrage" los. Interessant ist hierbei, dass die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr (0,15 mSv/a) (für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem pro Jahr (1 mSv/a) gefordert.

Eine jährliche Strahlenbelastung von 0,15 mSv (15 mrem) entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht, in die durch unsere Sinne unmittelbar erfahrene Alltagswelt, übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der "Schutzzone" evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die "Wohnumstände". Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I-131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs-137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von "freigemessenen" Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in "Greenpeace-Sprech" gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, dass dadurch etwa 100 "virtuelle Leben" gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach "billiger" Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, dass es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu "As High As Reasonably Safe (AHARS)" (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute "soziale Schäden" bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, dass der oberste Wunsch bei den "Vertriebenen", die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, dass der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser ist, als der, der zwangsweise Umgesiedelten. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem "verseuchten" Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Karriereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen "Ausstieg aus der Kernenergie" verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.

Dr. Klaus-Dieter Humpich

Dieser Artikel ist zuerst im Blog „www.nukeklaus.de“ erschienen.




Gesundheitliche Wirkung radioaktiver Strahlung – Teil 1:

Vor über 100 Jahren wurde die radioaktive Strahlung einzelner Elemente erstmalig experimentell nachgewiesen. Tatsächlich leben Menschen aufgrund der Beschaffenheit der Erdkruste und der durch kosmische Quellen verursachten Höhenstrahlung immer schon in einem radioaktiv strahlenden Umfeld, dessen Stärke im Wesentlichen von der geographischen Lage abhängt. Wegen der (glücklicherweise) sehr geringen Wirkung natürlich auftretender Dosen können statistische Aussagen nur dann getroffen werden, wenn eine genügend große Zahl exponierter Personen und eine nichtexponierte Vergleichsgruppe vorliegen.

Mit Sicherheit lässt sich sagen, dass eine über einen kurzen Zeitraum (wenige Minuten) aufgenommene extrem hohe Dosis (mehrere Sievert) äußerlich zu verbrennungsartigen Erscheinungen, begleitet von Nekrose und Organversagen führt. Bei einer deterministischen Wirkung wie in diesem Fall ist der Zusammenhang zwischen Ursache und Wirkung offensichtlich, ähnlich einem Autounfall. Schwieriger ist die Beurteilung statistischer Langzeitrisiken, also der Frage, wie stark sich das Risiko gesundheitlicher Beeinträchtigungen (z.B. Tumorbildung) über die gesamte Lebensspanne erhöht, wenn eine Person einer bestimmten Strahlendosis ausgesetzt wurde.

Blitzdosis und Langzeitdosis

Dosis ist nicht gleich Dosis. Obwohl in der Summe identisch, hat eine hohe Einzeldosis eine ganz andere Wirkung als die gleiche Dosis verteilt über einen langen Zeitraum. Zur Unterscheidung werden wir den ersten Fall als Blitzdosisbezeichnen, den zweiten dagegen als Langzeitdosis. Beide Arten der Dosis haben wiederum die oben genannten statistischen Langzeitwirkungen. Deterministische Kurzzeitwirkungen kann es naturgemäß nur bei einer Blitzdosis geben.

Der Unterschied zwischen Blitzdosis und Langzeitdosis ist vergleichbar mit der Aufnahme von Wärmeenergie: Wenige Minuten in loderndem Feuer führen unweigerlich zum Tod. Dagegen wird die gleiche Energie, verteilt über einen längeren Zeitraum, als angenehme Wärme empfunden. Allgemein gilt für jede Art Energiefreisetzung: Eine explosionsartige Freisetzung führt immer zu Zerstörung, eine langsame Freisetzung derselben Energiemenge dagegen kann einen erwünschten Nutzen erfüllen.

Als Zeitmaß einer Blitzdosis nehmen wir die biologische Reaktionszeit des Körpers an. Nach neueren Erkenntnissen gibt es mehrere Reparaturmechanismen, die die biologisch negative Wirkung sogar überkompensieren können. Diese arbeiten auf unterschiedlichen Zeitskalen, so dass die Grenze zwischen Blitzdosis und Langzeitdosis bei einigen Stunden bis einigen Wochen liegen kann.

Bei der Ermittlung gesundheitlicher Auswirkungen radioaktiver Emissionen z.B. auf die Bevölkerung im Umkreis des verunfallten Kernkraftwerks Tschernobyl aber auch auf Nukleararbeiter als Grundlage für den Strahlenschutz geht es im Allgemeinen um die Langzeitfolgen einer Langzeitdosis. Grundlage dieser Schätzungen sind dagegen die Überlebenden der Atombombenabwürfe über Hiroshima und Nagasaki, also die Studie der Langzeitfolgen einer Blitzdosis. Dieser offensichtliche Widerspruch wird im Strahlenschutz hingenommen, vor allem weil in der "Gründerzeit" des Strahlenschutzes die Hiroshima- und Nagasakiüberlebenden mit 90 000 Personen die einzige größere exponierte Gruppe bildeten, bei der Langzeitwirkungen beobachtet werden konnten.

Inzwischen existieren aber zahlreiche Studien von großen Personengruppen, die einer erhöhten Langzeitdosis ausgesetzt waren. Das prominenteste Beispiel ist die Kontamination mehrerer Wohngebäude mit radioaktivem Kobalt in Taipei, Taiwan, im Jahre 1983, mit 10.000 betroffenen Personen. Studien dazu sind erst wenige Jahre alt, so dass die neuen Erkenntnisse noch nicht den Weg durch die internationalen Strahlenschutzinstanzen gefunden haben.

Obwohl aus den o.g. Gründen als Vorlage für den allgemeinen Strahlenschutz nur sehr beschränkt geeignet, bilden die Hiroshima- und Nagasakibeobachtungen immer noch die Grundlage gesundheitlicher Risikoabschätzungen. Nicht nur die Tatsache, dass die Wirkung einer Blitzdosis sich von der einer Langzeitdosis dramatisch unterscheidet, sondern auch das abgeleitete Risikomodell der Blitzdosis selbst ist kritisch zu betrachten, wie in den folgenden Abschnitten gezeigt wird.

Die Hiroshima- und Nagasakiüberlebenden

Seit den Abwürfen der Atombomben über Hiroshima und Nagasaki am 6. und 9. August 1945, bei denen unmittelbar rund 200.000 Menschen vorwiegend durch die Folgen der Hitze- und Druckwelle starben, wurden statistische Daten der Überlebenden gesammelt mit dem Ziel, einen biologischen Dosis-Wirkung-Zusammenhang für die Spätfolgen radioaktiver Bestrahlung zu etablieren.

Bis zu jenem Zeitpunkt kannte man nur die deterministischen Schäden, also die Sofortwirkung radioaktiver Strahlung, während es über statistische Langzeitschäden nur Vermutungen gab. Rund 90.000 Überlebende der Atombombenangriffe auf Hiroshima und Nagasaki wurden einer lebenslangen Beobachtung (Life Span Study) unterzogen. Mit Berechnungen und Simulationen, die auch heute noch verfeinert werden, wird die in Sekundenbruchteilen empfangene individuelle radioaktive Dosis abgeschätzt. Die Erhebungen werden von der Radiation Effects Research Foundation (RERF)durchgeführt, finanziert vom  japanischen Gesundheitsministerium (MHLW) und dem US-amerikanischen Energieministerium (DoE). Beginnend im Oktober 1950 fand die letzte Aktualisierung mit dem Ende des Jahres 2000 statt. Zu diesem Zeitpunkt waren 55% der untersuchten Überlebenden verstorben. (Es gibt eine weitere Aktualisierung, die bis Ende 2003 reicht, seitdem wurden aber keine neuen Daten veröffentlicht.)

In der vom RERF erstellten Datenbank werden die Personen in Gruppen nach Alter, Geschlecht und geschätzter Strahlendosis eingeteilt. Alle 5 Jahre wird erfasst, wie viele Personen einer Gruppe noch leben. Aus diesen Daten ist ein Zusammenhang zwischen Dosis und Sterberate klar zu erkennen, man muss sich aber dennoch klar machen, wie hoch die Dosis sein muss, um tatsächlich gefährliche Auswirkungen zu haben. Um dies deutlich zu machen, präsentieren wir hier eine vereinfachte Analyse.

Zur besseren Veranschaulichung haben wir hier nur die Mitglieder der Altersgruppe berücksichtigt, die zum Zeitpunkt der Detonation vor 66 Jahren zwischen 30-45 Jahre alt waren und demnach heute fast alle verstorben sind. Im Jahr 1951 lebten 100% der Personen, weil hier die Erhebungen beginnen. In den Jahren davor, zwischen 1945 und 1951 sind natürlich auch Personen gestorben, die von der Statistik nicht erfasst werden. Diese vermutlich den Nachkriegswirren geschuldete Lücke ist für eine ca. 80 Jahre dauernde Langzeitstudie aber vertretbar. In der Grafik wird zwischen zwei Dosisgruppen unterschieden. Diejenigen, die einer Dosis unter 1,5 Sievert ausgesetzt waren (im Durchschnitt 0,1 Sievert) sind grün gekennzeichnet; die rötlich gefärbten Daten beziehen sich auf eine mit über 1,5 Sievert stark exponierte Gruppe (Durchschnitt 2,0 Sievert).

Hiroshima- und Nagasaki-Überlebende, die zum Zeitpunkt der Bombenabwürfe 30 bis 45 Jahre alt waren. Die Gruppe mit starker Strahlendosis lebt 18% kürzer. (Quelle: IFK)

Man sieht, wie die Anzahl der Personen über die Jahre abnimmt, was zunächst der normalen Sterberate entspricht. Es gibt aber auch einen erkennbaren Unterschied zwischen beiden Gruppen: Personen aus der grünen Gruppe lebten nach dem Jahr 1950 durchschnittlich noch weitere 34,5 Jahre, die Mitglieder der roten, stärker exponierten Gruppe hingegen durchschnittlich nur 28,4 Jahre, also 18% weniger. Das Fazit dieser einfachen Analyse wäre also: Eine Strahlendosis von 2 Sievert verringert die Lebenserwartung um 18%.

Die Einteilung in nur zwei Gruppen ist für die Herleitung eines Risikomodells natürlich zu ungenau. Sie eignet sich aber für eine anschauliche Darstellung der Wirkung um eine Vorstellung der Größe zu entwickeln. 1-2 Sievert ist eine Blitzdosis, die – neben den Bombenopfern – in der Geschichte nur einige wenige Personen in nuklearen Einrichtungen als Folge von Unfällen ertragen mussten. In der Bevölkerung sind derartige Dosen sonst nie auch nur näherungsweise aufgetreten. Anders verhält es sich bei der Langzeitdosis; hier kann allein die natürliche Radioaktivität in Deutschland eine Lebensdosis von 1-2 Sievert verursachen.

Das lineare Modell ohne Schwellenwert (LNT-Modell)

Wie verhält es sich nun mit Dosen kleiner als 2 Sievert? Ist die Annahme, dass 1 Sievert die Lebenserwartung um 9% verringert oder 0,1 Sievert um 0,9%, zulässig? Sie entspräche dem linearen Modell ohne Schwellenwert (Linear No-Threshold = LNT). Mithilfe des LNT-Modells lässt sich das Risiko leicht abschätzen. Es bleibt jedoch zu überprüfen, ob eine derartige Abschätzung mit den Beobachtungen übereinstimmt.

Um das LNT-Modell zu überprüfen, verfeinern wir die obige Dosiseinteilung. Das folgende Diagramm zeigt die verringerte Restlebenserwartung relativ zu der der nichtexponierten Gruppe (Dosis 0 Sievert) in Abhängigkeit von der Dosis.

Erhöhtes Todesrisiko der Hiroshima/Nagasaki-Überlebenden in Abhängigkeit von der Strahlendosis. Zwischen 0 und 0,3 Sievert ist die Skala gestreckt. Die vertikalen Balken sind Unsicherheiten. Bis 1,5 Sievert ist keine Risikoerhöhung innerhalb der Unsicherheiten erkennbar. Anmerkung für Statistiker: Die Unsicherheiten beruhen auf der Annahme einer Poisson-Verteilung. Die Schwankungen sind aber offensichtlich kleiner als die Unsicherheiten. (Quelle: IFK)

Da die Anzahl der untersuchten Personen mit zunehmender Dosis immer kleiner wird, vergrößert sich die statistische Ungenauigkeit. Dies wird in dem Diagramm durch die vertikalen Fehlerbalken dargestellt. Grün unterlegt sind wieder jene Gruppen, deren Mitglieder einer Strahlung von maximal 1,5 Sv ausgesetzt waren, im Schnitt 0,1 Sv. Im rötlichen Bereich liegen die Gruppen zwischen 1,5 und 3,0 Sv, im Schnitt 2 Sv. Die Darstellung unterhalb 0,3 Sievert ist horizontal gestreckt worden, um einzelnen Punkte noch unterscheiden zu können.

Das Diagramm zeigt, dass das Risiko bei einer Blitzdosis von bis zu 0,3 Sievert um Null schwankt, also nicht erhöht ist. Zwischen 0,3 und 1 Sievert scheint es leicht anzusteigen und oberhalb 1 Sievert zunächst wieder abzufallen. Diese Änderungen spielen sich aber innerhalb der Unsicherheiten ab, sind also nicht signifikant. Erst ab 1,5 Sievert wird ein sprunghafter Anstieg der Daten deutlich sichtbar. Wie im vorherigen Abschnitt bereits festgestellt liegt die Risikoerhöhung um 2 Sievert bei 18%.

Das folgende Diagramm zeigt die gleichen Daten noch einmal auf einer durchgehenden Dosisskala ohne die Streckung unterhalb 0,3 Sievert. In magenta und grün sind mögliche Modellkurven (grüne Kurve flacher) dargestellt.

Das erhöhte Sterberisiko der Hiroshima- und Nagasaki-Überlebenden, die zum Zeitpunkt der Bombenabwürfe 30-45 Jahre alt waren, dargestellt in Abhängigkeit von der Strahlendosis. Zusätzlich sind 2 Modellfunktionen eingezeichnet. Die LNT-Modellfunktion beschreibt die Beobachtungen nur unzureichend. (Quelle: IFK)

Würde man das LNT-Modell (magenta) nutzen, ergäbe sich eine lineare Risikozunahme von 7% pro Sievert. Die LNT-Gerade läuft aber nur schlecht durch die tatsächlichen Datenpunkte. Sie liegt bei kleinen Dosen über den Daten, bei hohen Dosen jedoch unterhalb der tatsächlichen Beobachtungen. Mit anderen Worten: Das LNT-Modell überschätzt das Risiko geringer Strahlendosen auf Kosten einer Unterschätzung bei hohen Dosen. Wichtiger ist aber die Feststellung, dass unterhalb einer Schwelle gar keine Risikozunahme zu beobachten ist. Dies schließt nicht aus, dass es ein Risiko gibt, nur ist dieses so klein, dass selbst unter Zehntausenden von bestrahlten Personen keine Auffälligkeiten sichtbar sind.

Das LNT-Modell in den wissenschaftlichen und politischen Instanzen

Trotz der erwähnten offensichtlichen Unzulänglichkeiten wurde in den ersten Jahrzehnten nach den Bombenabwürfen das LNT-Modell zur Grundlage für den Strahlenschutz, um wenigstens einen theoretischen Ansatz für den Umgang mit geringer radioaktiver Strahlung zu haben. Dabei war den Strahlenschutzexperten implizit bewusst, dass für Dosen unterhalb einiger hundert Millisievert keine gesundheitlichen Auswirkungen bekannt sind.

Es sei noch einmal ausdrücklich darauf hingewiesen, dass das LNT-Modell doppelt unzulänglich ist:

  • Das LNT-Modell basiert nur auf den Beobachtungen einer Blitzdosis, die sich nicht auf Langzeitdosen übertragen lassen.
  • Selbst die Beobachtungen der Blitzdosis deuten klar auf einen Schwellenwert hin, im Widerspruch zum LNT-Modell.

Das 1955 gegründete "United Nations Scientific Committee on the Effects of Atomic Radiation", UNSCEAR, gab 1958 einen ersten Bericht heraus, in dem verschiedene Modelle zur Abschätzung der Gesundheitsrisiken durch radioaktive Strahlung vorgestellt wurden. Die Diskussion ist auch im Zusammenhang mit den gesundheitlichen Auswirkungen der damaligen Kernwaffentests zu sehen. So kommt UNSCEAR zu dem Schluss, dass weltweit 60.000 Leukämiefälle oder kein einziger als eine Folge der nuklearen Waffentests gewertet werden müssen, je nachdem ob die Daten mit einem Modell ohne Schwelle oder mit einer Schwelle von 60 Millisievert pro Jahr (über eine Lebensspanne von 70 Jahren) ausgewertet wurden. Auch in den neueren UNSCEAR-Reports werden Schwellenwerte im Hundert-Millisievert-Bereich diskutiert, neuerdings auch auf mikrobiologischer Basis.

Bezugnehmend auf die von UNSCEAR diskutierten Probleme mit einem Modell ohne Schwellenwert gibt die Internationale Strahlenschutzkommission ICRP in ihren Empfehlungen (zuletzt Report 103) ein erhöhtes Krebserkrankungsrisiko von 4% pro Sievert vor. Dieses Risiko, so ICRP, skaliere unterhalb 100 Millisievert linear mit der Dosis. wobei ein Gewichtungsfaktor ausdrücklich zugelassen wird (Report 103, Abs. 65). Schon im folgenden Absatz 66 wird darauf hingewiesen, dass das LNT nur als praktische Anleitung für den Strahlenschutz, nicht aber zur Schätzung des Gesundheitszustands einer großen Bevölkerung mit geringer Langzeitdosis anzuwenden sei. Diese umständlichen Formulierungen rühren von der nicht sauberen Unterscheidung zwischen Blitzdosis und Langzeitdosis her.

Zusammenfassung

Die hier gezeigte Dosis-Wirkungsbeziehung für eine exemplarische Auswahl der Hiroshima- und Nagasakiüberlebenden lässt einen Schwellenwert bei mindestens einigen hundert Millisievert vermuten. Überdies lässt sich das Modell einer Blitzdosis nicht auf eine Langzeitdosis übertragen.

Dennoch empfiehlt die Internationale Strahlenschutzkommission ICRP basierend auf den Hiroshima- und Nagasakidaten für den Strahlenschutz ein lineares Modell ohne Schwelle, schließt die Anwendung auf eine größere Bevölkerung aber gleichzeitig aus. Diese letzte Aussage wird oft übersehen; der oft zitierte Satz "Jede Strahlendosis ist gefährlich" hat seinen Ursprung diesem falschen Verständnis des LNT-Modells.

Die Blitzdosis-Gruppe der 90.000 Hiroshima- und Nagasakiüberlebenden war lange Zeit die einzige Quelle zur Erfassung statistischer Langzeitwirkungen. Inzwischen gibt es aber statistisch gut gesicherte Untersuchungen, bei denen eine große Gruppe einer überhöhten Langzeitdosis ausgesetzt war. Diese Studien sind noch nicht oder nur zu einem geringen Teil in die ICRP- und UNSCEAR-Berichte eingeflossen.

von Götz Ruprecht, Institut für Festkörper-Kernphysik Berlin Den Originalartikel gibt es hier.

Quellen




Große Momente gescheiterter Prognosen

Bild rechts: Cover via Amazon

Erschöpfung der Ressourcen

„Tatsächlich ist es sicher und klar zu erkennen, dass die Erde derzeit kultivierter und entwickelter ist als früher. Alle Orte sind jetzt erreichbar, alles ist dokumentiert, überall gibt es Geschäftsleben. Die blühendsten Bauernhöfe beseitigen leere Flächen, man pflügte Felder und bezwang den Wald, Viehherden vertreiben Wildtiere, sandige Stellen werden beackert, Steine werden befestigt, Sümpfe trocken gelegt, und es gibt auch viele große Städte dort, wo vorher kaum eine Hütte gestanden hatte… überall gibt es Unterkünfte, überall eine Regierung, überall Leben. Der stärkste Beweis der großen Anzahl von Menschen: Wir sind eine Belastung für die Welt, die Ressourcen reichen kaum für uns alle, und unsere Erfordernisse schränken uns ein, Klagen gibt es überall, weil die Natur uns schon jetzt nicht unterstützt“.

● Im Jahr 1865 hat Stanley Joves (einer der anerkanntesten Ökonomen im 19. Jahrhundert) vorausgesagt, dass in England zum Jahr 1900 die Kohle aus gehen würde, und dass Englands Fabriken dadurch still stehen würden.

● Im Jahr 1885 hat der US Geological Survey bekannt gegeben, dass es „nur geringe oder gar keine Chance“ gebe, dass in Kalifornien Öl entdeckt wird.

● Im Jahr 1891 machten sie die gleiche Vorhersage für Kansas und Texas (siehe Osterfeld, David. Prosperity Versus Planning : How Government Stifles Economic Growth. New York : Oxford University Press, 1992.)

● Im Jahr 1939 hat das US-Innenministerium [Department of the Interior] gesagt, dass die Ölvorräte in Amerika höchstens nur noch 13 Jahre reichen würden.

● 1944 gab es eine Vorhersage in einem Bericht der [US-]Bundesregierung, der zufolge die USA 21 seiner 41 heimischen Rohstoffe ausgebeutet haben würde, darunter Zinn, Nickel, Zink, Blei und Magnesium.

● Im Jahr 1949 sagte der [US-]Innenminister, dass das Ende von in den USA vorhandenem Öl abzusehen sei.

Behauptung: Im Jahr 1952 kam die Materials Policy Commission des US-Präsidenten zu dem Ergebnis, dass bis Mitte der siebziger Jahre die Kupferproduktion in den USA nicht über 800000 Tonnen steigen könne und das die Bleiproduktion höchstens 300000 Tonnen pro Jahr betragen werde.

Daten: Aber im Jahr 1952 wurden 1,6 Millionen Tonnen Kupfer hergestellt, und bis 1974 erreichte die Herstellung von Blei 614000 Tonnen – 100% mehr als vorhergesagt.

Behauptungen: Im Jahr 1968 schrieb Paul R. Ehrlich The Population Bomb und erklärte, dass der Kampf, die Menschheit zu ernähren, verloren worden ist und dass es eine erhebliche Verknappung der Nahrungsmittel in den USA geben würde. „In den siebziger Jahren … werden hunderte Millionen den Hungertod sterben“, und in den achtziger Jahren wären die meisten der wichtigen Ressourcen der Welt ausgebeutet. Er sagte voraus, dass 65 Millionen Amerikaner zwischen 1980 und 1989 wegen Hungers sterben würden und dass die US-Bevölkerung bis zum Jahr 1999 auf 22,6 Millionen zurückgehen werde. Die Probleme in den USA wären dabei noch relativ gering, verglichen mit der übrigen Welt. (Ehrlich, Paul R. The Population Bomb. New York, Ballantine Books, 1968.) Das Magazin New Scientist hat diese Rede in einem Editorial mit dem Titel „In Praise of Prophets“ noch unterstrichen.

Behauptung: Bis zum Jahr 2000 werden die Britischen Inseln lediglich noch aus einer kleinen Gruppe verarmter Inseln bestehen, bewohnt von etwa 70 Millionen hungernden Menschen… Wenn ich ein Spieler wäre, würde ich sogar Geld darauf wetten, dass England im Jahr 2000 gar nicht mehr existieren wird“. Paul Ehrlich, Speech at British Institute For Biology, September 1971.

Behauptung: 1968 hat Ehrlich geschrieben: „Ich bin noch auf der Suche nach jemandem, der sich mit der Lage auskennt, der glaubt, dass Indien sich bis 1971 selbst versorgen könne, falls jemals überhaupt“.

Daten: Und doch hat Indien innerhalb weniger Jahre Nahrungsmittel exportiert und seine Kapazität zur Erzeugung von Nahrungsmitteln erheblich verändert. Das muss Ehrlich bemerkt haben, denn in der Version seines Buches aus dem Jahr 1971 ist dieser Kommentar entfernt worden (Julian Simon, The Ultimate Resource, Princeton: Princeton Univesity Press, 1981, p. 64).

The Limits to Growth [Die Grenzen des Wachstums] 1972 projizierte, dass die Goldvorräte der Erde bis zum Jahr 1981 aufgebraucht sein würden, Quecksilber und Silber bis 1985, Zinn bis 1987, Zink bis 1990, Petroleum bis 1992 und Kupfer, Blei und Erdgas bis 1993. Es wurde darin auch festgestellt, dass es nur noch für 33 bis 49 Jahre Aluminium-Vorräte geben würde, was bedeutet, dass es irgendwann zwischen 2005 und 2021 alle wäre (siehe Donella Meadows et al., The Limits to Growth: A Report for the Club of Rome’s Project on the Predicament of Mankind. New York: New American Library, 1972).

Behauptung: Im Jahr 1974 verkündete der US Geological Service, dass sich die USA „mit der Technologie und den Preisen von 1974“ nur noch 10 Jahre lang versorgen könnten.

Daten: Die American Gas Association sagt, dass es noch für die nächsten 1000 bis 2500 Jahre Gasvorräte geben werde (Julian Simon, Population Matters. New Jersey: Transaction Publications, 1990): p. 90.

Bevölkerung und Armut

Mitte der siebziger Jahre hat die US-Regierung eine Reisemesse für Schulkinder gesponsert, Titel: „Population: The Problem is Us.” [etwa: „Bevölkerung: das Problem sind wir“] (Jacqueline Kasun, The War Against Population, San Francisco: CA, Ignatius, 1988, p. 21.)

Im Jahr 1973 wurde das Urteil des Richters am obersten Gerichtshof der USA Potter Stewart im Fall Roe v. Wade von diesem Gedanken beeinflusst, jedenfalls Bob Woodward und Scott Armstrong zufolge: „Als Stewart das gesehen hat, wurde Abtreibung zu einer vernünftigen Lösung der Bevölkerungskontrolle“ (zitiert in Newsweek am 14. September 1987, S. 33).

Im Jahr 1989 während Gerichtsverhandlung über den Fall Webster am obersten US-Gerichtshof goss die Richterin Sandra Day O’Connor den Gedanken der Überbevölkerung in eine Frage, die sie Charles Fried, dem ehemaligen General-Staatsanwalt stellte: „Glauben Sie, dass der Staat das Recht hat, falls wir in einem kommenden Jahrhundert ein ernstes Überbevölkerungs-Problem haben, dass der Staat das Recht hat, von Frauen Abtreibungen zu verlangen, nachdem sie so viele Kinder geboren hatten?“

Weltbank-Präsident Barber Conable verlangt nach einer Bevölkerungskontrolle, weil „Armut und rasches Bevölkerungswachstum einander befeuern“ (Washington Post, July 16, 1990, p. A13).

Prinz Philipp gibt uns den Rat, dass „es offensichtlich sein muss, dass weiteres Bevölkerungswachstum egal in welchem Land unerwünscht ist“ (Washington Post, May 8, 1990, p. A26)

37 Senatoren versicherten Präsident Bush in einem Schreiben ihre Unterstützung für Bevölkerungskontrolle (Washington Post, April 1, 1990, p. H1)

Die Trilateral Commission [?] und die American Assembly verlangen eine Reduktion des Bevölkerungswachstums (U. S. News and World Report, May 7, 1990)

Die Cover-Story von Newsweek zum Jahresende kommt zu der Schlussfolgerung, dass „an erster Stelle der neuen Realitäten das Bevölkerungsproblem der Welt steht“ (25. Dezember 1990, p.44)

Die Präsidentin der NOW [NOW = National Organisation of Women] warnt, dass ein fortgesetztes Bevölkerungswachstum eine „Katastrophe“ wäre (Nat Henthoff in der Washington Post, 29. Juli 1989, p. A17)

Ted Turner (Atlanta Journal Constitution, Mittwoch, 2. Dezember 1998) machte in einer Rede vor der Society of Environmental Journalists [etwa: Gesellschaft von Umweltjournalisten] in Chattanooga die Christenheit für die Überbevölkerung und die Umweltzerstörung verantwortlich und fügte hinzu, dass Leute, die anderer Ansicht sind als er, „Dummies“ sind. Zitat aus seiner Rede: „Die jüdisch-christliche Religion sagt, dass dem Menschen die Herrschaft über alles gegeben sei, und für die Erlösung soll er hinausgehen und sich vermehren. Nun, das haben wir getan… bis zu einem Punkt wie Kalkutta, dass ein Höllenloch ist. Es handelt sich also nicht um eine umweltfreundliche Religion“.

Ellen Goodman beklagt sich über die „Menschen-Verschmutzung“ (Washington Post, 3. März 1990, p. A25)

Ein Herblock-Cartoon zeigt, dass die USA die „Weltbevölkerungs-Explosion“ vernachlässigen (Washington Post, 19. Juli 1990, p. A22)

Hobart Rowen vergleicht das Bevölkerungswachstum mit “dem Seetang, welcher in riesigen Sprüngen wächst“ (Washington Post, 1. April 1990, p. H8).

Ein Newsweek „My Turn” [?] schlägt vor, jedem Teenager-Mädchen einen Scheck bis zu jeweils 1200 Dollar zu überreichen, damit sie kein Baby bekommen, „um die unerbittliche Zunahme der Menschen zu stoppen“ (Noel Perrin. “A Nonbearing Account”, 2. April 1990, p. 9).

Klimaänderung

Behauptung im Januar 1970: Bis zum Jahr 1985 wird die Luftverschmutzung dafür gesorgt haben, das auf die Erde einfallende Sonnenlicht zu halbieren” Life Magazine, Januar 1970. Life Magazine merkte auch an, dass einige Menschen anderer Ansicht sind, „aber die Wissenschaftler haben solide und historische Beweise, die jede der Vorhersagen stützen“.

Daten: Die Luftgüte hat in Wirklichkeit seit 1970 zugenommen. Studien zufolge ist das die Erde erreichende Sonnenlicht in der fraglichen Zeit um 3% bis 5% zurück gegangen.

Behauptung im April 1970: “Falls sich die gegenwärtigen Trends fortsetzen, wird die Welt … bis zum Jahr 2000 um 11 Grad kälter sein. Das ist etwa doppelt so viel, wie nötig wäre, um uns in eine Eiszeit zu werfen“. Kenneth E.F. Watt, in Earth Day, 1970.

Daten: der NASA zufolge hat die Temperatur seit 1970 um etwa 1°F zugenommen.

Behauptung 1970: „In zehn Jahren wird das gesamte wichtige Tierleben im Ozean aussterben. Große Gebiete an der Küste werden evakuiert werden müssen wegen des Gestanks der toten Fische“. Paul Ehrlich, Rede während Earth Day 1970.

Behauptung 1972: „Arktisexperte Bernt Balchen sagt, dass ein allgemeiner Erwärmungstrend am Nordpol die polare Eiskappe schmelzen werde und bis zum Jahr 2000 zu einem eisfreien Arktischen Ozean führen könne“ Christian Science Monitor 8. Juni 1972.

Daten: Die Eisbedeckung ist zurück gegangen, doch waren im vorigen Monat 3,82 Millionen Quadratmeilen [ca. 9,9 km²] des Arktischen Ozeans mit Eis bedeckt – ein Gebiet, das größer ist als die kontinentalen USA. Quelle:  The National Snow and Ice Data Center.

Behauptungen 1974: „…wenn Meteorologen einen Mittelwert der globalen Temperatur bilden, haben sie entdeckt, dass die Atmosphäre während der letzten drei Jahrzehnte graduell immer kühler geworden ist. Der Trend zeigt keine Anzeichen, sich umzukehren. Klimatologische Kassandra-Rufe werden immer besorgter, weil die von ihnen untersuchten Wetteranomalien Vorboten einer weiteren Eiszeit sein können. Anzeichen dafür finden sich überall – von der unerwarteten Persistenz und Dicke von Packeis in den Gewässern um Island bis zur Migration wärmeliebender Tiere wie dem Gürteltier aus dem Mittleren Westen nach Süden. Der Klimatologe George J. Kukla vom Lamont-Doherty Geological Observatory an der Columbia University und seine Frau Helena haben Wetter-Satellitendaten der Nordhemisphäre untersucht. Dabei fanden sie heraus, dass sich das mit Eis und Schnee bedeckte Gebiet im Jahr 1971 plötzlich um 12% ausgedehnt hat und die Ausdehnung seitdem unverändert anhält. Gebiete der Baffin-Insel in der kanadischen Arktis beispielsweise waren einst im Sommer völlig frei von Schnee, während der Schnee jetzt das ganze Jahr über liegt“.

Weiter unten in dem Artikel heißt es: „Was auch immer die Ursache dieses Abkühlungstrends ist, seine Auswirkungen können extrem gefährlich, wenn nicht katastrophal sein. Wissenschaftler haben errechnet, dass ein Rückgang von lediglich 1% des auf die Erde treffenden Sonnenlichts die Klimabalance kippen und den Planeten abkühlen lassen kann. Damit könnte sich die Erde auf dem Weg zu einer weiteren Eiszeit innerhalb von nur wenigen hundert Jahren befinden“. Quelle: Another Ice Age, Time Magazine, 24. Juni 1974.

Behauptung 1989: „Aus Computermodellen haben Forscher den Schluss gezogen, dass die globale Erwärmung die jährlichen Temperaturen landesweit [in den USA] um 2 Grad bis zum Jahr 2010 steigen lassen kann”. Associated Press, 15. Mai 1989.

Daten: der NASA zufolge ist die Temperatur weltweit seit 1989 um 0,7° Fahrenheit gestiegen. Und die Temperatur der USA ist im gleichen Zeitraum sogar noch weniger gestiegen.

Behauptungen: „Der britische Winter endet morgen mit weiteren Anzeichen einer außerordentlichen [striking] Umweltveränderung: Schnee beginnt, aus unserem Leben zu verschwinden“.

„Schlitten, Schneemänner, Schneebälle und … sind allesamt ein rasch schwindender Anteil der britischen Kultur, da wärmere Winter – welche Klimawissenschaftler der globalen Erwärmung zuschreiben – nicht nur weniger Weiße Weihnachten, sondern auch weniger weiße Monate Januar und Februar bringen“.

„Der letzte große Schneefall in London ereignete sich im Februar 1991“. – „Die globale Erwärmung, das Aufheizen der Atmosphäre durch zunehmende Mengen industrieller Gase, wird jetzt als Wahrheit von der internationalen Gemeinschaft akzeptiert“.

Dr. David Viner zufolge, einem leitenden Forschungswissenschaftler an der Climate Research Unit (CRU) der University of East Anglia, „werden Kinder einfach nicht mehr wissen, was Schnee ist“, und Schneefall im Winter wird „ein sehr seltenes und aufregendes Ereignis“ werden. Er sagte dies in einem Interview des UK-Magazins Independent am 20. März 2000.

„David Parker am Hadley Centre for Climate Prediction and Research in Berkshire sagt definitiv, dass britische Kinder nur noch virtuell die Erfahrung von Schnee machen könnten“. Quelle all dieser Behauptungen: Snowfalls are now just a thing of the past. The Independent. 20. März 2000.

Daten: “Der kälteste Dezember seit Beginn von Aufzeichnungen, in dem die Temperaturen unter minus 10°C gesunken sind, stürzt das britische Reiseleben ins Chaos“ [hier]. Mailonline, 18. Dezember 2010

Behauptung: „Bis 1995 würde der Treibhauseffekt die zentralen Gebiete von Nordamerika und Eurasien mit schrecklichen Dürren und in der Folge Missernten und Revolten um Nahrungsmittel verwüsten … bis 1996 würde der Platte River in Nebraska austrocknen, während ein kontinentweiter schwarzer Blizzard von Prärie-Boden den Verkehr auf Autobahnen stoppen, die Farbe von Häusern schmirgeln und Computer zum Abschalten bringen wird“. Quelle: Michel Oppenheimer and Robert H. Boyle, Dead Heat, St. Martin’s Press, 1990.

Oppenheimer ist Albert G. Milbank-Professor [?] der Geowissenschaften und internationaler Angelegenheiten in der Woodrow Wilson School und dem Department für Geowissenschaften an der Princeton University. Er ist Direktor des Programms für Wissenschaft, Technologie und Umweltpolitik an der Wilson School. Er war früher leitender Wissenschaftler beim Environmental Defense Fund, der größten Nicht-Regierungs-Organisation in den USA, die Probleme und Lösungen bzgl. Treibhausgase untersucht.

Daten: Konfrontiert mit diesen seinen früheren Vorhersagen stellte Oppenheimer fest: „Im Großen und Ganzen würde ich bei diesen Prognosen bleiben – Entschuldigung, nicht Prognosen, sondern Szenarien – die zumindest allgemein eingetroffen sind“, sagte er. „Es gab extensive Dürren, verheerende Dürren in wichtigen Teilen der Welt. Der unter Dürren leidende Anteil der Welt hat während dieser Zeitspanne zugenommen“.

Allerdings ist diese Behauptung offensichtlich unwahr. Daten des NASA Goddard Space Flight Center zeigen, dass Niederschläge – Regen und Schnee – im Laufe des Jahrhunderts leicht zugenommen haben.

Wie können Wissenschaftler so abwegige Behauptungen aufstellen? Dr. Paul Ehrlich, Autor von „The Population Bomb“ und Präsident des Center for Conservation Biology an der Stanford University sagte FoxNews.com, dass sich das Denken über Klimawissenschaft in den siebziger und achtziger Jahren erheblich verändert habe.

Ehrlich hat FoxNews.com erzählt, dass die Konsequenzen einer zukünftigen Erwärmung grässlich sein können.

Anthony Watts

=============================================================

Quelle: University of Georgia, Terry College of Business. Economics 2200, Economic Development of the US, David B. Mustard

http://www.terry.uga.edu/~mustard/courses/e2200/pop.htm

UPDATE: reader Dennis Wingo writes in with this table:

Aktualisierung: Der Leser Dennis Wingo bringt die folgende Tabelle ins Spiel:

„Hervorragender Artikel! Ich habe selbst in meinem Buch „Moonrush“ dazu Stellung genommen. Ich habe alle Vorhersagen hinsichtlich der Erschöpfung von Ressourcen aus dem Buch entnommen und rot die bereits verstrichenen Ultimaten gekennzeichnet. Alle Vorhersagen waren falsch!

Link: http://wattsupwiththat.com/2013/01/19/great-moments-in-failed-predictions/#more-77832

Übersetzt von Chris Frey EIKE




NASA Klimainstitut GISS macht Klimavergangenheit nachträglich künstlich kühler – Ziel: Gegenwart wirkt wärmer!

NASA-GISS-Temperaturdaten  wurden geändert – warum ?

Im Frühjahr 2012 entdeckte einer der Autoren zufällig in einer Internetveröffentlichung unerklärliche Abweichungen in einigen NASA-GISS-Temperaturreihen. Bei einer ersten Nachprüfung im März 2012 stellte sich heraus, dass die Temperaturganglinien und die dazugehörigen Temperaturdaten gegenüber denen der Version aus dem Jahre 2010 maßgebende, z.T. einschneidende Veränderungen aufweisen. Es entstand der Eindruck, dass die geänderten Temperaturreihen eine größere Erwärmung anzeigen. Die Autoren gingen dieser Entdeckung nach um zu prüfen, ob es sich bei diesen Änderungen um Einzelfälle handelt oder ob eine Vielzahl von Temperaturreihen betroffen sein könnte. Letzteres schien sich zu bestätigen, denn die Auswertung der Daten von etwa 60 Stationen ergab, dass sie alle verändert worden waren.

Im August wurden die Daten von weiteren 60 Stationen analysiert, so dass man inzwischen 120 NASA-Reihen der 2010-Version mit denen der 2012-Version vergleichen kann. In allen wurden massive Abweichungen gefunden, und zumeist dominierte die Tendenz zu einer wesentlich stärkeren Erwärmung, die in der Vergangenheit statt gefunden haben soll.

Wer beispielsweise im März 2010 wissen wollte, wie sich im 20. Jahrhundert die Temperatur in Palma de Mallorca entwickelte hatte, dem teilten die Datenreihe und die zugehörige Ganglinie mit, dass zwischen 1881 und 2010 eine Abkühlung registriert worden war.

Wer sich dafür erst 2012 interessierte, erfuhr aus den im März 2012 angebotenen Daten und der darauf basierenden Ganglinie das Gegenteil: im letzten Jahrhundert war es wärmer geworden. Im August 2012 hätten Neulinge lernen können, dass die Erwärmung in der Vergangenheit doch nicht ganz so groß war. Im Dezember 2012 bewiesen jedoch die Daten und die Ganglinie, dass der Anstieg der Temperaturen im 20. Jahrhundert nun doppelt so groß war. Die folgenden vier Diagramme illustrieren diese Änderungen. Dass es weitere geben wird, ist nicht auszuschließen..

Die Änderungen werden fallweise mit unterschiedlichen Methoden erreicht. Bei der Station Palma de Mallorca wurde die Beobachtungszeit beibehalten; es wurden jedoch die Temperaturreihen durch das abschnittsweise Löschen von Daten gekürzt, wenn der erhalten gebliebene Rest die gewünschte Änderung hat. Gängige Praxis ist auch, Jahresmittelwerte abschnittsweise zu senken oder anzuheben; damit lässt sich die ursprünglich angezeigte Erwärmung oder Abkühlung verstärken, je nachdem, welchen Abschnitt man auswählt. Die folgenden Ganglinien zeigen Beispiele für beide Methoden.

 

 

Darwin ist ein Beispiel für die zwischenzeitliche Kürzung der Reihe und für die Absenkung  der Werte im Anfangs- und Mittelabschnitt. Letzteres zeigen exemplarisch die Ganglinien der Stationen Faraday und Cape Hatteras: die 2010-Werte ergeben die blauen Ganglinien, die 2012-Werte die roten, die nun eine stärkere Erwärmung vortäuschen.

Die Datenreihen von 120 Stationen wurden analysiert, um die Art, die Anzahl und den Anteil der Änderungen festzustellen. Das Ergebnis wird in den beigefügten pdf–Dateien vorgestellt. Der Bericht versucht eine Antwort auf die eingangs gestellte Frage zu finden: Warum? Denn mit dieser Erfahrung darf man es für sehr wahrscheinlich halten, dass nicht nur die 120 untersuchten Temperaturreihen sondern auch die der anderen Stationen verändert worden sind. 

Karl-Friedrich Ewert; EIKE

[1] H.-J. Lüdecke, R. Link, and F.-K. Ewert, How Natural is the Recehnt Centennial Warming? An Analysis of 2249 Surface Temperature Records, International Journal of Modern Physics C, 22, No. 10 (2011)

[2] Siehe Anhang.

Siehe auch bei WUWT: Hansen’s NASA GISS – cooling the past, warming the present

Related Files




Brisante IPCC Unterlagen jetzt öffentlich zugänglich: Das geheime Nikolaus-Leck

Bild rechts: Siehe Postscript 2 am Ende des Beitrags

Eine Woche vor Weihnachten gelangte ich in den Besitz von drei USB-Sticks mit 661 Files, zusammen etwa 1 Gigabyte Material. Sie wurden vom IPCC erstellt, einer UN-Organisation, die gegenwärtig an einem hoch profilierten Bericht arbeitet.

Mit der geplanten abschnittsweisen Veröffentlichung im September wird dieser Bericht auf Pressekonferenzen der Regierungen über die ganze Welt verbreitet werden. Funktionäre werden auf die Ergebnisse deuten und weiterhin Milliarden für Maßnahmen gegen die Klimaänderung ausgeben.

Das IPCC besteht aus drei Arbeitsgruppen. Sie untersuchen jeweils die wissenschaftlichen Beweise in Bezug zur Klimaänderung, die Auswirkung auf Mensch und Natur sowie mögliche Reaktionen.

Diese Sticks wurden an das Personal der Arbeitsgruppe 2 ausgegeben – die über die Auswirkungen des Klimawandels schreiben. Der blaue Stick trägt die Bezeichnung „Working Group II AR5 LAM1“ und bezieht sich auf das erste Treffen ihrer Leitautoren im Januar 2011 in Japan. Der goldene Stick steht im Zusammenhang mit einem zweiten Treffen fast ein Jahr später in San Franzisko. Der grüne Stick stammt von ihrem dritten Treffen vor 10 Wochen in Buenos Aires.

Das IPCC hat die Authentizität der beispielhaften Dokumente auf diesen Sticks bestätigt. Heute bin ich dabei, diese massive Datensammlung (mit Kommentaren der Begutachter), die ich „Das geheime Nikolaus-leck“ nenne, zu veröffentlichen. Einige dieser Dokumente stehen bereits online. Viele andere wären vom IPCC wohl erst in Jahren veröffentlicht worden. Noch andere hat das IPCC dauerhaft zu verstecken beabsichtigt.

Es ist sehr viel Information darin, und bislang habe ich nur einen kleinen Teil davon untersucht. Erstens enthält dieses Leck – zusammen mit  demjenigen des vorigen Monats – Entwürfe des bevor stehenden IPCC-Berichtes, und zwar solche, die mehrheitlich öffentlich zugänglich gemacht werden sollen. 44 von 60 Kapiteln – 73% – stehen jetzt für eine Untersuchung zur Verfügung. Die Behauptung des IPCC-Vorsitzenden, dass das IPCC eine „absolut transparente” Organisation sei, und das alles, was das IPCC tut, „in jedem Stadium für genaueste Überprüfungen zur Verfügung steht“, ist näher an der Wahrheit als jemals zuvor.

Zweitens, das IPCC hat nicht ein bisschen aus dem Skandal um die Himalaya-Gletscher gelernt. Unter dem Deckmantel „wissenschaftlicher Experten-Begutachtung“ hat es kürzlich bei seinen Autoren aggressive Lobbyarbeit hinter den Kulissen durch WWF-Beschäftigte und andere Aktivisten zugelassen. Die Entwurfs-Version der Arbeitsgruppe 2 listet in den Referenzen am Ende des Kapitels derzeit Veröffentlichungen, die von WWF und Greenpeace erstellt worden sind.

Ich habe ein .zip-File des Inhalts jedes Sticks erstellt. Am Ende dieses Artikels stehen Torrent-Info und andere Optionen zum Herunterladen.

Blue data stick zipped, 26 mb – here or here
Gold data stick zipped, 140 mb –  here or here
Green data stick zipped, 675 mb – here or here

Mein 2011 erschienenes Buch The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert [es liegt inzwischen auch auf Deutsch vor mit dem Titel „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde: Ein IPCC-Exposé“. A. d. Übers.] dokumentiert die zahlreichen Glaubwürdigkeitsprobleme des IPCC. Darunter ist der verstörende Einfluss grüner Aktivisten darauf, was ein rigoroser wissenschaftlicher Körper sein sollte.

Der Abschnitt der Arbeitsgruppe 2 des bevorstehenden IPCC-Berichtes enthält 30 Kapitel. Der dritte Entwurf dieser Kapitel (intern konfus als der zweite Entwurf) ist noch nicht geschrieben worden, aber zwei frühere Versionen befinden sich auf diesen Sticks. Der als erster Entwurf bekannte Abschnitt besteht aus 2465 Seiten und kann hier vollständig heruntergeladen werden oder getrennt nach Kapiteln (unten).

Als Teil der Erstellung dieses Berichtes lädt das IPCC Externe zum Feedback ein, die es als „wissenschaftliche Experten-Begutachter“ beschreibt. Die Namen dieser von der Arbeitsgruppe 2 auserwählten Personen sind hier gelistet. Deren Kommentare finden sich auf dem grünen Stick. Der Pfad lautet: Buenos Aires Documentaion>c_ExpertReviewFiles>Review Editor FOD Reports.

Die meisten dieser Kommentare scheinen konstruktiv zu sein und werden wahrscheinlich die Qualität des endgültigen Berichtes verbessern. Aber einige der Personen, die daran teilhatten, sind Aktivisten. Viele ihrer Vorschläge sind unverhohlene Versuche, aktivistisches Quellenmaterial – und aktivistische Perspektiven – in einem wissenschaftlichen Dokument unterzubringen.

Mit anderen Worten, unter dem Deckmantel „wissenschaftlicher Experten-Begutachtung“ hat das IPCC hinter den Kulissen aggressive Lobbyisten-Bemühungen gefördert.

WWF-Personal drängt das IPCC, sich auf Veröffentlichungen des WWF zu beziehen

Der letzte große IPCC-Bericht aus dem Jahr 2007 enthielt einen blamablen Fehler über die erwartete Abschmelzrate der Gletscher des Himalaya. Dieser Fehler war Anfang 2010 Gegen­stand weit verbreiteter Berichterstattung in den Medien, was in vielen prominenten  Zeitungen den Ruf nach dem Rücktritt des IPCC-Vorsitzenden laut werden ließ.

Es gibt nichts, das hinsichtlich des Himalaya-Debakels kompliziert wäre. Die damals verantwortlichen Autoren für das Kapitel 10 der Arbeitsgruppe 2 haben weniger alarmistische Schlussfolgerungen, die in begutachteten Fachzeitschriften veröffentlicht worden waren, missachtet und sich stattdessen entschlossen, sich auf Statements zu verlassen, die sich in der Veröffentlichung einer grünen Lobbygruppe fanden (siehe Seite 10 hier).

Die fragliche Gruppe war der WWF. In Nordamerika immer noch unter dem Originalnamen World Wildlife Fund bekannt, hat er sich anderswo umbenannt in World Wildlife Fund for Nature. Er ist wohl kaum eine kleine Anhängsel-Organisation, denn  der der WWF unterhält Büros in mehr als 60 Ländern und beschäftigt 5000 Personen.

Der WWF ist die Organisation, die uns jedes Jahr im März die Earth Hour beschert. Seit vier Jahrzehnten durch Zuwendungen von der Industrie fossiler Energie gefördert (die  erste Firmen-Sponsor war Shell Oil) glaubt der WWF jetzt, verarmte Nationen dazu bringen zu müssen, ihr fossiles Öl lieber in der Erde zu lassen, anstatt es zu nutzen für Licht, Wärme und Krankenhäuser für ihre Völker.

Mein Buch enthüllt, wie der WWF in der Vergangenheit den Prozess der Erstellung der IPCC-Berichte infiltriert hat. Zwei Drittel der Kapitel im Bericht 2007 wurde unter Teilnahme von mindestens einer Person erstellt, die mit dem WWF verbunden war. Ein Drittel der Kapitel wurde von einem mit dem WWF verbundenen Autor geleitet.

Weder das IPCC noch der WWF scheinen seitdem etwas über Umsicht gelernt zu haben.

Susan Evans arbeitet bei WWF Kanada. Sie hat einen Masterdiplom in Zoologie, aber viele der von ihr dem IPCC eingereichten Kommentare sind frei von wissenschaftlichen Inhalten. Zum Beispiel betrachtet sie diesen Bericht als eine Gelegenheit, „einen Sinn für Verwaltung und Verantwortung für das Ökosystem zu fördern“ (Kapitel 00/Kommentar 44).

Bei vier einzelnen Gelegenheiten rät Evans dem IPCC, ein 72 Seiten starkes Handbuch zu Rate zu ziehen, das vom Global Arctic Programme des WWF veröffentlicht worden ist (Kapitel 00/Kommentar 45, 2/727, 14/577, 15/367).

In einem anderen Fall drängt sie das IPCC dazu, ein 246 Seiten starkes WWF-Dokument mit dem Titel Buying Time in Betracht zu ziehen. Im Vorwort werden Leser dazu ermutigt, politische Aktivisten zu werden (14/406).

Bei drei Gelegenheiten hat Evans die Aufmerksamkeit des IPCC auf ein drittes WWF-Dokument gelenkt über die Pacific marine ecosystems (13/300, 26/260, 26/417). In drei weiteren Beispielen verweist sie auf einen vierten Bericht über Klimaänderung in Westkanada, bei dessen Erstellung der WWF geholfen hat (15/367, 15/370, 26/316). An anderen Stellen drängt sie das IPCC, ein fünftes WWF-Dokument zu konsultieren, und zwar eine 69-seitige Publikation über die Verwaltung der Wasserversorgung (15/455).

In einem längeren Kommentar zu Kapitel 20 lässt sich Evans über die Notwendigkeit aus, „unsere gegenwärtige Rate von Entwicklungs- und Verbrauchsverhalten signifikant zu reduzieren“. Dabei drängt sie das IPCC, den jüngsten Living Planet-Bericht des WWF zu konsultieren (20/16.1 und 16.2).

Über genau dieses Dokument habe ich unmittelbar nach dessen Veröffentlichung etwas geschrieben und darauf hingewiesen, dass die Ausdrücke Gleichheit und Ungleichheit (equality and inequality) 28 mal vorkommen. Mit anderen Worten, es handelt sich um ein politisches Traktat.

Evans Bemühungen, die WWF-Perspektiven im IPCC-Bericht unterzubringen, wurden von ihrer Kollegin Cassandra Brooke weiter vorangetrieben – laut IPCC leitet sie das WWF-Büro in der Schweiz. Eine formelle Biographie zu erhalten ist schwierig, aber laut einer solchen aus dem Jahr 2008 hält sie einen PhD in Geographie.

In ihrer Eigenschaft als Experten-Begutachterin glaubt Brooke, dass das IPCC dem gleichen Arktis-Handbuch Aufmerksamkeit schenken sollte, dass schon Evans zu vier Gelegenheiten empfohlen hatte (4/943).

Sie drängt die IPCC-Wissenschaftler, ihre Informationen über Mangroven und Klimaänderung von einer WWF-Website zu beziehen, und ist enttäuscht darüber, dass der IPCC-Bericht „nicht erkennt, dass kulturelle und spirituelle Werte eine Form des Ökosystem-Service“ sind (4/1011, 5/1204).

Aber es sind ihre Bemerkungen über das Aussterben bestimmter Spezies, die besonders entlarvend sind. Kapitel 19 ist ein Synthese-Kapitel. Sein Ziel ist es, die Ergebnisse der anderen 29 Kapitel der Arbeitsgruppe 2 zusammenzufassen. Der Job jener Autoren ist es also folglich, akkurat zu reflektieren, was anderswo geschrieben worden ist.

Brooke macht es in ihrem Kommentaren zu Kapitel 19 umgekehrt. Sie beobachtet, dass die Sprache in Kapitel 4 „sehr vage“ und „inkonsistent im Tonfall“ mit dem ist, was Kapitel 19 sagt. Ganz klar, sie glaubt, dass die Wortwahl in Kapitel 4 eher verschärft werden sollte als der abgeschwächte Tonfall in der Zusammenfassung.

Brooke ist bekümmert, weil Kapitel 4 „sich selbst von starken Statements distanziert“ hinsichtlich Klimaänderung und dem Aussterben von Spezies, was im IPCC-Bericht aus dem Jahr 2007 erschienen ist (4/664, 19/428). Aber dieser Rückzug ist eine gute Nachricht. Wie ich schon anderswo diskutiert habe, verlässt sich das IPCC auf eine einzige Studie, die bereits von anderen Wissenschaftlern verurteilt worden ist [demolished]. (Ein berühmter Biologe nannte sie „die schlimmste Studie, die ich je in einem wissenschaftlichen Magazin gesehen habe“). Das IPCC hat diese heftigen Zurückweisungen nicht nur nicht beachtet, sondern es sogar abgelehnt, die Leser davon in Kenntnis zu setzen, dass sie überhaupt existieren.

Man würde erwarten, dass wissenschaftliche Experten-Begutachter erfreut sein würden, dass sich das IPCC jetzt verantwortlicher verhält. Man würde erwarten, dass sie dem IPCC ob dessen Hinwendung zu mehr soliden Beweisen applaudieren würden.

Aber Brooke ist keine wirkliche Experten-Begutachterin. Sie ist Mitarbeiterin des WWF. Und das WWF mag Übertreibungen. Wie er auf seiner Haupt-Website erklärt: „Es ist fast unmöglich, die Bedrohung durch den Klimawandel zu überschätzen“.

Andere Aktivisten als „Experten-Begutachter“

Unter den anderen Organisationen, die versuchen, den wissenschaftlichen IPCC-Bericht via Experten-Begutachtung zu beeinflussen, finden wir die Alliance of Small Island States. Deren Website bekennt freimütig, dass es sich dabei um „eine ad-hoc-Lobby handelt und es eine Verhandlungs-Stimme sei“ für bestimmte politische Interessen. Hier sind noch ein paar andere:

Angela Andrade, eine bei Conservation International beschäftigte Anthropologin, drängt IPCC-Wissenschaftler gleich zweimal, ein von einem Dutzend Aktivistengruppen gemeinsam veröffentlichtes Diskussionspapier zu konsultieren (15/172, 16/120).

Bei zwei anderen Gelegenheiten weist sie sie auf ein Dokument mit dem Titel Building Resilience to Climate Change hin [etwa: Resistenzbildung gegen Klimawandel] (15/430, 16/123). Dieses war von der International Union for Conservation of Nature veröffentlicht worden, deren Website von „einer gerechten Welt“ spricht.

Aber Gerechtigkeit ist ein politisches Konzept. Vernünftige Leute stimmen nicht damit überein, wie Gerechtigkeit aussieht. Ist eine grüne Gruppe, die sich Gerechtigkeit auf die Fahnen geschrieben hat, eine verlässliche Informationsquelle? Das IPCC glaubt das offenbar. Der jetzige Entwurf der Arbeitsgruppe 2 erwähnt schon jetzt die Building Resilience-Veröffentlichung in den Kapiteln 5 und 9 (siehe Seiten 379, 402 und 813 des 2465-seitigen Entwurfs).

Ganz ähnlich macht sich die Aktivistengruppe Germanwatch Sorgen über die „globale Gleichheit“ und vertritt bevorzugt gewisse politische und ökonomische Gedanken. Sven Harmeling, der bei ihnen als Teamlader Klimapolitik fungiert, hat die IPCC-Autoren zweimal gedrängt, ein Diskussionspapier von WWF-Germanwatch zu Rate zu ziehen (14/555, 15/224).

Anderswo lenkt er die Aufmerksamkeit des IPCC auf ein zweites, zusammen mit dem WWF veröffentlichtes Dokument mit dem Titel Institutions for Adaptation (15/418). Um alles komplett zu machen, verweist er auf ein drittes Dokument, diesmal ein kurzes Informationspapier von seinem Arbeitgeber und zwei weiteren Organisationen (15/343).

Noch ein weiteres Beispiel ist das International Rivers-Netzwerk. Die Leute, die dort arbeiten, sehen sich selbst als „das Herz der globalen Anstrengungen, Flüsse zu schützen“. Eine Beschäftigte von ihnen, Katy Yan, beschreibt sich selbst auf Twitter als eine „Klima-Kämpferin“. Sie ist ebenfalls eine Experten-Begutachterin des IPCC.

Ähnlich wie die zuvor erwähnten Individuen glaubt Yan, dass die Veröffentlichungen ihrer eigenen Organisation es verdienen, in einem wissenschaftlichen Bericht erwähnt zu werden. Sie verlangt dies zweimal von einem Dokument mit dem Titel Before the Deluge [etwa: Vor der Sintflut]. Es wurde geschrieben vom geschäftsführenden Direktor von International Rivers – mit anderen Worten, von ihrem Chef (3/752, 3/766).

Zusätzlich verlangt Yan nach zwei NachrichtenBerichten, die auf der Website ihrer Organisation veröffentlicht worden sind, eine Online-Bibliographie von „wissenschaftlichen Schlüssel-Artikeln“, die von ihren Mit-Aktivisten ausgewählt worden sind, nämlich ein 90-seitiger Bericht über alternative Energie in Guatemala sowie zwei andere Dokumente über erneuerbare Energie in Chile. All dieses Material wurde von der Organisation erzeugt (3/869, 3/891, 27/339, 27/345).

Alles das ist also von Aktivisten erstellte graue Literatur – genau die Art von Geschehnissen, die den Kummer des IPCC in der Vergangenheit verursacht haben.

Was denkt das IPCC? Warum rollt es den roten Teppich für Aktivisten aus und erlaubt ihnen, direkt auf die IPCC-Autoren Einfluss zu nehmen?

Das ist nicht geeignet, ein weiteres Himalaya-Debakel zu vermeiden.

Literatur vom WWF und von Greenpeace

Schon vor dieser Lobbyisten-Parade listete der Entwurf der Arbeitsgruppe 2 schon die folgenden neun WWF- und zwei Greenpeace-Veröffentlichungen unter den Referenzen am Ende des Kapitels. (Die Seitenzahlen in Klammern beziehen sich auf diesen 2465-seitigen Entwurf):

  1. IUCN 2008: Ecosystem-based adaptation: An approach for building resilience and reducing risk for local communities and ecosystems. A submission by IUCN, The Nature Conservancy, WWF, Conservation International, BirdLife International, Indigenous Peoples of Africa Co-ordinating Committee, Practical Action, WILD Foundation, Wildlife Conservation Society, Fauna and Flora International and Wetlands International. Gland, Switzerland: IUNC. [p. 371]
  2. Fish, M.R. and C. Drews, 2009: Adaptation to Climate Change: Options for Marine Turtles. WWF. San Jose, CA, USA, 20 pp. [p. 514]
  3. Fish, M.R., A. Lombana and C. Drews, 2009: Climate Change and Marine Turtles in the Wider Caribbean: Regional Climate Projections. WWF, San Jose, CA, USA, 20 pp. [p. 514]
  4. Kollmuss, A., H. Zink, and C. Polycarp, 2008: Making sense of the voluntary carbon market: A comparison of carbon offset standards. WWF Germany. [p. 1067]
  5. Harmeling, S., S. Kreft, and S.C. Rai (2011) Institutions for adaptation: Towards an effective multi-level interplay. Germanwatch and WWF International, available at http://www.germanwatch.org/klima/ad-inst.htm [p. 1726]
  6. Sattler, P., M. Taylor, 2008: Building Australia’s Safety Net 2008: Progress on the directions for the National Reserve System. WWF-Australia, Sydney. [p. 2007; actual title is Building Nature’s Safety Net]
  7. Allianz and WWF, 2006: Climate Change and Insurance: An Agenda for Action in the United States, Allianz and WWF. [p. 2071]
  8. Constable, A.J. and S. Doust, 2009: Southern ocean sentinel  – an international program to assess climate change impacts on marine ecosystems: Report of an international workshop, Hobart, April 2009. ACE CRC, Commonwealth of Australia & WWF-Australia, pp. 81. [p. 2287]
  9. Experts Workshop on Bioregionalisation of the Southern Ocean (September 2006: Hobart), S. Grant Antarctic Climate, Ecosystems Cooperative Research Centre, WWF-Australia, Peregrin, S. Grant, A. Constable, B. Raymond, and S. Doust, 2006: Bioregionalisation of the southern ocean:  Report of the experts workshop (Hobart, September 2006), [report prepared by: Susie grant … [et al.]] Sydney: WWF-Australia Head Office. [pp. 2289-90]
  10. Richter, C., S. Teske, and R. Short, 2009: Concentrating solar power: global outlook 2009. SolarPaces, Greenpeace and ESTELA. [p. 879]
  11. Anisimov, O.A., M.A. Belolutskaya, M.N. Grigor’ev, A. Instanes, V.A. Kokorev, N.G. Oberman, S.A. Reneva, Y.G. Strelchenko, D. Streletsky, and N.I. Shiklomanov, 2010: Assessment Report: The Main Natural and Socioeconomic Consequences of Climate change in Permafrost Areas: A forecast Based upon a Synthesis of Observations and Modelling. Greenpeace, Russia. 40 pp. [p. 1892]

Wenn die den wissenschaftlichen IPCC-Bericht schreibenden Wissenschaftler keine Argumentationskette aufbauen können, ohne sich auf Aktivisten-Literatur zu beziehen, sollten sie diese Argumentation schon von Anfang an gar nicht übernehmen. Sollte man denken.

Deshalb handelt es sich hier um eine Organisation, die nicht ein bisschen aus seiner Erfahrung mit den Himalaya-Gletschern gelernt hat.

Das IPCC & Vertraulichkeit

Alle drei Daten-Sticks enthalten eine Kopie eines IPCC-Dokuments zur Vertraulichkeit (hier auch im Netz zugänglich). Obwohl es mit einer feierlichen Beteuerung beginnt, dass das „IPCC Vorbild für Offenheit“ ist, macht der Rest des Textes klar, dass diese Organisation das gleiche Verhältnis zu Transparenz hat wie Vampire zum Sonnenlicht.

Das IPCC sagt, dass Geheimniskrämerei zu einem „Produkt höchster Qualität“ führt. Es sagt, dass Beratungen hinter verschlossenen Türen einem effektiven Prozess gleichen. Es sagt, dass das IPCC von Vertraulichkeit abhängig ist, während der Bericht geschrieben wird.

Dies ist auf törichte Weise kurzsichtig. Das IPCC muss offen und ehrlich über jeden einzelnen Schritt Auskunft geben, mit denen es zu seinen Schlussfolgerungen kommt. Das Letzte, mit dem man gebildete Leute im 21. Jahrhundert überzeugen kann, ist eine Gruppe von Schatten-Experten, die uns lächelnd sagen, dass wir ihnen vertrauen sollen.

Geheimniskrämerei hat nichts mit Wissenschaft zu tun. Sie wird allerdings von jenen bewertet, die darauf brennen, die Botschaft zu durchleuchten. Geheimniskrämerei erlaubt es dem IPCC, seine Berichte konzertiert zu veröffentlichen, um große Medien-Fanfaren hervorzurufen. Sie erlaubt auch das Durchsickern weiterer Ausgaben an wohlwollende Journalisten.

Angesichts der Tatsache, dass eine Untersuchung „in jedem Schritt des Erstellungsprozesses signifikante Schwächen ans Licht gebracht hat“, ist es jetzt an der Zeit, Licht auf diese Organisation zu werfen.

Die Öffentlichkeit hat ein Recht darauf, jedes jemals von dieser UN-Organisation erstellte Papier genau zu untersuchen. Dies ist nicht nur in der Gegenwart wichtig, sondern auch für Wissenschaftler späterer Zeiten.

Wenn bei Lobbygruppen beschäftigte Aktivisten Entwürfe dieses Berichtes lesen können, kann die Öffentlichkeit das auch. Wir haben auch ein Recht darauf zu erfahren, und zwar in so kurzer Zeit wie möglich, welche Art Rückmeldungen diese Entwürfe erhalten – und zu beurteilen, wie gut oder schlecht das IPCC darauf reagiert.

Das Vertraulichkeits-Dokument enthält diese pathetische Feststellung:

Der Erstellungs-Prozess kann nicht effektiv sein, wenn während der Vorbereitung (des jetzigen Berichtes) Material der Entwürfe bekannt oder öffentlich diskutiert wird.

Aber das IPCC glaubt das nicht wirklich, und zwar aus folgenden Gründen:

Mitte Dezember sind Entwürfe der 14 Kapitel durchgesickert, die den Teil der Arbeitsgruppe 1 im kommenden IPCC-Bericht umfassen. Diese geheimen Nikolaus-Datensticks enthalten Entwürfe von weiteren 30 Kapiteln.

Dies bedeutet, dass inzwischen Entwürfe einer Mehrheit von Kapiteln im kommenden Bericht (44 von 60, oder 73%) in öffentlichem Besitz sind.

Wenn das Vertraulichkeits-Dokument das Papier wert ist, auf dem es geschrieben steht, müsste das IPCC die Arbeit an dem bevorstehenden Bericht sofort suspendieren. Es wird ankündigen, dass die extensive Natur dieser Lecks es unmöglicht macht weiterzuarbeiten.

Aber das Handtuch zu werfen ist das Letzte, was ich von dieser Bürokratie erwarte.

Postscripts:

1. Wir wissen noch nicht, wie viele mit dem WWF verbundene Leute gegenwärtig an diesem IPCC-Bericht arbeiten, weil die Namen aller beitragenden Autoren noch nicht bekannt gemacht worden sind. Aber wir wissen, dass Jennifer Morgan involviert ist, die sonst die Klima-Chef-Sprecherin beim WWF ist.

2. Eine hoch aufgelöste Version des Bildes oben rechts befindet sich hier. Medien und Blogger können alle Versionen dieses Bildes frei verwenden. Photo: Donna Laframboise

3. Falls irgendjemand die technischen Fähigkeiten hat, dass geheime Nikolaus-Leck zugänglich zu machen, wäre das wunderbar.

4. Die Personen der Arbeitsgruppen 1 und 2 werden hiermit herzlich eingeladen, dabei zu helfen, die Öffentlichkeit darüber zu informieren, was hinter verschlossenen Türen vor sich geht. Kontaktinfo hier.

5. Dieser Blog verfügt nicht über ein regelmäßiges Trinkgeld-Konto. … Wenn Sie glauben, dass es wichtig ist, wenn Journalisten das IPCC durchleuchten, bitte überlegen Sie sich eine kleine Spende.

2. Teil: Sind ein Drittel der IPCC-Begutachter MIA?

[MIA = Missing in Action]

Die Begutachter des IPCC sollten im September einen Bericht anfertigen. Ein Drittel von ihnen hat sich offensichtlich gar nicht damit befasst.

Das IPCC arbeitet derzeit an einem Bericht, der so wichtig ist, dass er als Klimabibel bekannt ist. Der IPCC-Vorsitzende Rajendra Pachauri hat immer behauptet, dass der Prozess, mit dem seine Organisation diese Berichte schreibt, ein offenes Buch sei.

In einem Interview für eine Zeitschrift im Jahr 2009 hätte er nicht deutlicher sein können: „Was immer wir tun, steht immer und bei jedem Schritt für eine genaue Untersuchung zur Verfügung“.

Aber ein Dokument unter den über 600 Files in der öffentlichen Domäne als Ergebnis des geheimen Nikolaus-Lecks erzählt eine andere Geschichte. Tatsächlich wird darin gewissen Mitarbeitern des IPCC versichert, dass manche Berichte, die sie schreiben, niemals ans Tageslicht kommen werden:

Alle diese Berichte sind nur für interne Zwecke bestimmt und werden nicht veröffentlicht… Den IPCC-Regeln und Prozeduren zufolge bekommen nur (Experten-Begutachter) und den Autoren Verantwortliche diese Berichte zu Gesicht (siehe hier).

Die fraglichen Berichte können auf dem grünen Stick gefunden werden. Der Pfad ist: Buenos Aires Documentaion>c_ExpertReviewFiles>Review Editor FOD Reports. Es ist unklar, warum das IPCC beabsichtigt hatte, sie für immer unter den Teppich zu kehren. Aufzeichnungen von US-Präsidenten beispielsweise werden der Öffentlichkeit 5 bis 12 Jahre nach dem Ende der Administration bekannt gemacht.

Die wichtigste Nachricht ist jedoch, dass ein Drittel des IPCC-Personals, das aufgefordert wurde, solche Berichte zu schreiben, dies offenbar nicht getan hat.

Das geheime Nikolaus-Leck berührt den Abschnitt der Arbeitsgruppe 2 des bevorstehenden IPCC-Berichtes. Jedes der 30 Kapitel hat eine Gruppe von Autoren, plus zwei oder drei Leute, die als Begutachtungs-Herausgeber [Review Editors, RE] fungieren.

Die Aufgabe der REs ist es sicherzustellen, dass Rückmeldungen von externen Begutachtern von den IPCC-Autoren beachtet und nicht missachtet werden. Ein RE muss nicht unbedingt gut Freund mit dem Autorenteam sein. Er oder sie sollte ein Vorgesetzter sein.

Die Rolle der REs ist einer der wenigen Übersichts-Mechanismen innerhalb des IPCC-Prozesses. Wenn ein Drittel der Übersichtler Missing in Action ist, dann ist irgendetwas ganz furchtbar schief gelaufen.

Das gleiche Dokument, in dem den REs die Geheimhaltung versichert wird, sagt ihnen auch, dass erwartet wird, dass sie ihren ersten Interimsbericht bis zum 24. September 2012 einreichen. Ihnen wird geraten, einen zweiseitigen Beispielbericht zu konsultieren. Und ihnen wird gesagt, dass es Ok für die REs ist, ein gemeinsames Dokument einzureichen, wenn sie am gleichen Kapitel arbeiten.

Von insgesamt 66 REs haben 29 Berichte selbst eingereicht, 16 einen gemeinsamen Bericht, und 21 scheinen überhaupt keinen Bericht geschrieben zu haben.

Diese Berichte waren dazu ausersehen, die „wesentlichen Sorgenbereiche“ zu beleuchten sowie „umstrittene und kontroverse Angelegenheiten“ zu identifizieren, und zwar vor einem Treffen der Leitautoren, das einen Monat später geplant war. Aber die Autoren mancher Kapitel waren offenbar mit ihren Werken allein gelassen worden.

In Kapitel 3 geht es um Frischwasser-Reserven. 950 einzelne Kommentare waren von Begutachtern eingereicht worden. Aber Berichte von REs dieses Kapitels befinden sich nicht auf dem Daten-Stick. Es scheint, dass weder Pavel Kabat (der beim IPCC die Niederlande repräsentiert) noch Zbigniew Kundzewicz (der polnische Vertreter) ihrer Pflicht nachgekommen sind.

In Kapitel 5, in dem es um Küstengebiete und tief liegende Gebiete geht, ist es ähnlich. Das IPCC hat fast 1400 Kommentare zum Entwurf dieses Kapitels erhalten. Aber weder Robert Nicholls (UK) noch Filipe Santos (Portugal) scheinen ihren Kapitel-Autoren irgendeinen Bericht abgeliefert zu haben.

Die Berichte folgender REs fehlen auch noch:

Mit anderen Worten, nur 13 von 30 Kapiteln erhalten die Überwachung, die sie erhalten sollten.

Ob die REs ihren Pflichten nachkommen oder nicht ist kein neues Problem. Ich habe schon früher von einem herbei phantasierten IPCC-RE namens Bubu Jallow  berichtet. Er repräsentierte Gambia während der Erstellung des letzten IPCC-Berichtes 2007.

Im November 2006 setzte Jallow seinen Namen unter ein bemerkenswertes Statement. „Ich kann bestätigen“, sagt er, dass das gesamte Feedback an die Autoren von Kapitel 3 „geeignete Beachtung geschenkt worden ist… in Übereinstimmung mit den IPCC-Prozeduren“.

Aber Jallow hatte gar keine Kenntnis von diesem Vorgang aus erster Hand. Einer der Leiter des Kapitels, Kevin Trenberth, machte dies unmissverständlich klar, als er in einer e-mail an IPCC-Funktionäre geschrieben hat:

Ich schreibe dies, um gegen die Nennung von Bubu Pateh Jallow als Review Editor unseres Kapitels zu protestieren. Er spielte keine wie auch immer geartete Rolle in unserem Kapitel. Er nahm an keinem Treffen teil, er hat keine E-Mail beantwortet und sollte NICHT aufgeführt werden (Hervorhebung hinzugefügt).

Das IPCC hat beschlossen, dass Jallow offiziell ohnehin ein Review Editor war. Sein Name findet sich am Ende der Seite der Online-Version von Kapitel 3 der Arbeitsgruppe 1 im Bericht von 2007. Sechs Jahre später wird der Öffentlichkeit immer noch weisgemacht, dass drei Review Editoren in diesem Beispiel verpflichtet worden waren.

Warum ist das so? Das IPCC ist eine UN-Organisation. Daher kümmert es sich intensiv um Dinge wie Diversität und regionale Präsenz. Die anderen beiden REs stammen aus UK und den USA – entwickelten Ländern. Jallows Name lässt das Kapitel mehr multi-regional und multikulturell erscheinen.

Es scheint, dass es den IPCC-Funktionären weitgehend egal ist, ob die REs ihrer Pflicht nachkommen oder nicht.

Postcripts:

1. Eine Untersuchung im Jahr 2010 im IPCC, durchgeführt vom InterAcademy Council-Komitee, kam zu der Schlussfolgerung, dass die REs eigentlich keine formelle Autorität haben. Wie es auf Seite 3 oben heißt: „Die Leitautoren haben das letzte Wort zum Inhalt ihres Kapitels“ – egal was ein RE dabei fühlen könnte. Mit anderen Worten, REs sind ein schwacher Begutachtungs-Mechanismus. Aber selbst dieser Mechanismus scheint bei den meisten Kapiteln der Arbeitsgruppe 2 nicht voll zu funktionieren.

2. Das Statement von Jallow ebenso wie die E-Mail von Trenberth sind Teil eines 7 mb .zip-files, der mir im November 2011 von David Holland zugesandt worden ist. Seinen Worten zufolge enthält der File Material, das von David Hoskins, einem weiteren RE zum Jallow-Kapitel, „nach Klimagate auf Druck vom Information Commissioner von UK“ veröffentlicht worden ist. Es kann hier oder hier heruntergeladen werden.

3. Bubu Jallow arbeitet jetzt bei den UN.

Donna Laframboise is a Canadian investigative journalist. She is the author of The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert, an IPCC exposé. Recently translated into German, it is available in a variety of formats. Donna can be reached at NOconsensus.org AT gmail.com.

[Hervorhebung durch Fettdruck durch den Übersetzer im Original! Es ist schön, dass Donna selbst auf die Übersetzung ins Deutsche hinweist! A. d. Übers.]

http://nofrakkingconsensus.com/2013/01/08/the-secret-santa-leak/

Übersetzt von Chris Frey EIKE

Es folgen DOWNLOAD OPTIONS
Blue data stick zipped, 26 mb – here or here
Gold data stick zipped, 140 mb –  here or here
Green data stick zipped, 675 mb – here or here

Blue torrent: magnet:?xt=urn:btih:FE53DEE7870921017E63678647B78281F56F45A2&dn=blue.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

Gold torrent: magnet:?xt=urn:btih:A30CCD2FFEF70C354073D082938894B122870888&dn=gold.zip&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce

Green torrent: magnet:?xt=urn:btih:35BCE4E514069B62D39CFECD26F799E7C36BDA84&dn=green.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

First Order Draft torrent: magnet:?xt=urn:btih:FEABA896B40807B21E34138183CFE28C2962B248&dn=WGIIAR5_FODall.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

please leave your client open for a few hours to help speed up other downloads

First Order Draft, 2,465 pages – 125 mb here or here

Chapter 1: Point of Departurehere or here
Chapter 2: Foundations for Decisionmakinghere or here
Chapter 3: Freshwater Resourceshere or here

Chapter 4: Terrestrial and Inland Water Systemshere or here
Chapter 5: Coastal Systems and Low-lying Areashere or here
Chapter 6: Ocean Systemshere or here

Chapter 7: Food Production Systems and Food Securityhere or here
Chapter 8: Urban Areashere or here
Chapter 9: Rural Areashere or here

Chapter 10: Key Economic Sectors and Serviceshere or here
Chapter 11: Human Healthhere or here
Chapter 12: Human Societyhere or here

Chapter 13: Livelihoods and Povertyhere or here
Chapter 14: Adaptation: Needs and Optionshere or here
Chapter 15 – Adaptation Planning and Implementationhere or here

Chapter 16: Adaptation Opportunities, Constrains, and Limitshere or here
Chapter 17: Economics of Adaptation – here or here
Chapter 18: Detection and Attribution of Observed Impactshere or here

Chapter 19: Emergent Risks and Key Vulnerabilitieshere or here
Chapter 20: Climate-resilient Pathways: Adaption, Mitigation, and Sustainable Developmenthere or here
Chapter 21: Regional Contexthere or here

Chapter 22: Africahere or here
Chapter 23: Europehere or here
Chapter 24: Asiahere or here

Chapter 25: Australasiahere or here
Chapter 26: North Americahere or here
Chapter 27: Central and South Americahere or here

Chapter 28: Polar Regions here or here
Chapter 29: Small Islandshere or here
Chapter 30: Open Oceanshere or here




Klimawandel und Energiewende – wie man mit Mythen Billionen verbrennen kann

…Als Entscheidungshilfe für die politische Klasse bringen wir deshalb – kurz zusammengefasst- die Gründe warum  "Klimaschutz & Energiewende" auf Mythen beruhen, die aber geeignet sind mit Hochdruck Billionen zu verbrennen.

"Eine Hypothese ist immer der Wahrheit vorzuziehen, weil wir eine Hypothese zuschneidern, um unsere Meinung von der Wahrheit anzupassen, wohingegen die Wahrheit nur sein eigenes, ungeschicktes Selbst ist. Ergo enthülle daher nie die Wahrheit, wenn es eine Hypothese auch tun wird."

— Niccolo Machiavelli, Der Fürst (1513).

Der Mensch ist am Klimawandel schuld! Dieser ist zudem für die Welt mit Mensch und Tier gefährlich und außerdem droht in Kürze eine extreme Energie-Knappheit, weil wir die wenigen Öl und Gas-Ressourcen nur unsinnig verschwenden, statt sparsam, aber vor allem nachhaltig, mit ihnen umzugehen. Außerdem soll es noch ein paar, bestenfalls spinnerte, i.A. aber böse sog. Klimaleugner geben, die nicht nur hartnäckig leugnen, dass sich das Klima wandelt, sondern dies auch noch im Solde der Öl- und Kohleindustrie tun. Bei manchem soll ja sogar die böse, böse Tabakindustrie Geld gegeben habe.  All das lässt sich vielleicht noch verhindern, aber nur, wenn man nur sofort auf „Erneuerbare“ Energien umsteigt, weitgehend auf Fleischkonsum verzichtet und brav mit dem Fahrrad fährt.

Mit diesen wenigen Sätzen lässt sich der Kenntnisstand des größten Teiles der Medienschaffenden, fast aller Politiker und weiter Teile der Bevölkerung umreißen, und wir könnten wieder zur Tagesordnung übergehen, indem wir uns weiter um die Welt aufs höchste sorgen. 

Wenn nicht, ja wenn nicht, alle oben genannten Sätzen falsch wären. Um es kurz zu machen, jede Behauptung wie oben  über den Klimwandel und die künftige Energieknappheit ist so grottenfalsch, wie der „Lehrsatz“ früherer Mütter und Großmütter, die glaubten dass ihre Kinder Spinat essen müssten, weil dieser blutbildend wirke. Die Behauptung vom menschengemachten Klimawandel und dem baldigen Ende fossiler wie Kernbrennstoffen gehört von Anfang an ins Reich der Mythen. Mythen, die benutzt werden, den Menschen Angst einzujagen, um sie zu veranlassen, Dinge zu tun, die sie ohne diese Angst nie und nimmer tun würden.  Aber auch Mythen, mit dem es die Urheber schaffen den Menschen Billionen abzunehmen und sie zum größten Teil in die eigenen Taschen zu leiten.

Die Richtung  dazu gab die berühmte Anthropologin Frau Margareth Mead (1) vor. Im Jahre 1970 hielt sie dazu in Bethesda USA einen wegweisenden Vortrag   mit der Quintessenz:  "Wir stehen vor einer Periode, in der die Gesellschaft Entscheidungen im globalen Rahmen treffen muss .., Was wir von Wissenschaftlern brauchen, sind plausible, möglichst widerspruchsfreie Abschätzungen, die Politiker nutzen können, ein System künstlicher, aber wirkungsvoller Warnungen aufzubauen, Warnungen, die den Instinkten entsprechen, die Tiere vor den Hurrikan fliehen lassen.., Es geht darum, dass die notwendige Fähigkeit, Opfer zu erbringen, stimuliert wird, Es ist deswegen wichtig, unsere Aufmerksamkeit auf die Betonung großer möglicher Gefahren für die Menschheit zu konzentrieren.« 

Begierig wurden diese praktische Anleitung zum Massenbetrug von der Politik mit voller Unterstützung der Medien aufgegriffen. Man schuf mit Hilfe williger Wissenschaftler fleißig Mythen, wie dem vom „Waldsterben“, dem Ozonloch, dem Rinderwahnsinn bis zu  den verschiedensten weltweiten Vogel- Schweinegrippen und anderen Epidemien, incl. der Ächtung des Pflanzenschutzmittels DDT, das der Malaria – die durch den Einsatz von DDT Ende der siebziger Jahre fast ausgerottet war- zu neuer makabrer tödlicher Blüte verhalf. Millionen von Opfern hat dieser Mythos inzwischen gefordert, obwohl nirgends die Schädlichkeit des DDT nachgewiesen werden konnte. 

Den Gipfel der Mythenbildung, und das weltweit, bildete aber der Mythos vom menschengemachten Klimawandel. Der durch hartnäckigste Wiederholung in allen Bereichen der Zivilisation inzwischen zum Wissen aller, auch der ungebildetsten Schichten gehört. Und dies obwohl es noch niemandem gelungen ist, selbst den tausenden von Forschern, die dem Weltklimarat (IPCC steht für Intergovernmental Panel on Climate Change), also einem Rat der nationalen Regierungen, zuarbeiten, auch nur im Ansatz bewiesen werden konnte. Nicht ein einziger realer Beweis wurde bisher von den Verantwortlichen vorgelegt, trotz hunderter von Milliarden von Forschungsgeldern, die seit mehr als 20 Jahren in die Klimaforschung gesteckt wurde. Allerdings gibt es tausende  von Forschungsarbeiten, die darlegen, dass sich unser Klima in Nichts von dem unserer Vorfahren unterscheidet, wenn man von der angenehmen Kleinigkeit (2) absieht, dass wir seit dem Ende der allseits bekannten „kleinen Eiszeit“, etwa ab 1850 eine mäßige Erwärmung zu verzeichnen haben, wie sie übrigens in den letzten 10.000 Jahren in ca. 60% der Zeit geherrscht hat. Ja, das ist richtig: Die letzten 10.000 Jahre waren überwiegend wärmer als heute . 

Doch beginnen wir mit dem Anfang. Der Klimawandel ist real. Das wissen wir, seit Geschichte geschrieben wird. Klima ist ständig im Wandel, und das seit die Welt eine Atmosphäre trägt. Eroberten nicht die Römer ihr Weltreich in kurzen Röckchen und Sandalen? Und besiedelten die Wikinger nicht die Küsten der Insel Grün(Grön)land und betrieben dort über 350 Jahre Ackerbau und Viehzucht? Klima ändert sich immer, manchmal sogar sehr abrupt innerhalb von zehn Jahren um 1 bis 2 Grad Celsius, wie uns frühe Aufzeichnungen berichten.

Auch heute wandelt sich das Klima moderat, in den letzten Jahrzehnten stieg die Durchschnittstemperatur ein wenig an. Doch warum glauben viele auf den jetzt erfahrbaren Klimawandel voller Angst hinweisen zu müssen? Ein wichtiges Detail in der Diskussion ist unstrittig: Die Welt ist in den vergangenen 150 Jahren im Durchschnitt um ein paar Zehntel Grad wärmer geworden. Der größte Teil dieses Temperaturanstiegs geschah mit ca. +0,5°C von 1900 bis 1940, dem folgte eine Absenkung um -0,2 bis -0,3° C von 1940 bis 1976 und dann wieder ein Anstieg um etwa 0,3 bis 0,4°C von 1976 bis 1998. Für diesen Gesamtanstieg -um insgesamt ca. 0,7 °C- gibt es eine einfache Erklärung: gegen 1860 ging die letzte kleine Eiszeit zu Ende. Seitdem stiegen die Temperaturen glücklicherweise wieder ein wenig an. Warme Zeiten sind seit je her gute Zeiten für Mensch und Tier.

Das IPCC (Intergovernmental Panel on Climate Change; von vielen Medien fälschlich zum „Weltklimarat“ hochstilisiert) behauptet nun die Ursache für diesen Anstieg sei der „menschgemachten“ Treibhauseffekt, im Wesentlichen hervorgerufen durch die Emission des Spuren-„Treibhausgases“ CO2. Und so das IPCC weiter, dass der Anstieg der extrem geringen CO2 Konzentration von 0,028 % um 1860 auf jetzt 0,039 % in der Luft überwiegend menschengemacht sei und direkt die beobachtete Erwärmung herbeigeführt hat. Dieses Gas –geruchlos, ungiftig, geschmacklos und unsichtbar und chemisch äußerst inaktiv (inert)- entsteht -wie alle wissen- bei der Zellatmung aller Pflanzen, bei der Atmung von Menschen und Tieren, aber auch bei allen Verbrennungsprozessen von Energie für Transport, Heizung und Produktion. Seit dem Ende 2. Weltkriegs, sind weltweit die CO2- Emissionen stark angestiegen, und mit ihnen – wenn auch viel gemächlicher- die CO2-Konzentration in der Atmosphäre. Mehr CO2 = mehr Erwärmung! Auf diese Kurzformel lässt sich die IPCC-Behauptung bringen. Dies ist im 4. Sachstandbericht des IPCC (AR4 2007) von einigen wenigen Wissenschaftler (3), die als Leitautoren am IPCC- Bericht mitwirkten, so beschrieben: 

Der Temperaturanstieg sei „sehr wahrscheinlich“ überwiegend auf den Menschen zurückzuführen bzw. auf das von ihm erzeugte CO2 . 

Als Begründung wird dazu allen Ernstes angeführt, dass man keine andere Erklärung für den Temperaturanstieg würde finden könne. Das erinnert sehr an die Menschen im Mittelalter, die für die realen Ereignisse in ihrer Umwelt bestenfalls Gott als Ursache ansahen, i.A. aber diese dem Einfluss von Göttern, Feen, Hexen und Dämonen zuschrieben. Nur denen konnte man ihre Unkenntnis nicht vorwerfen, den Wissenschaftlern schon. Denn einen Beweis aus der realen Welt konnten sie nicht liefern (4), sie berechneten dies allein aus ihren Modellen. Diese wurden jedoch nur für den Zweck entworfen, den Einfluss des menchengemachten CO2 zu beweisen. Ein Zirkelschluss mithin. Die Sonne, als Haupttreiber jedweden Klimas auf der Erde, sparte man bis auf ein paar marginale Reste tunlichst aus. Doch zum Pech für diese Leute schert sich die reale Welt nicht um diese Modelle, denn seit 1998 steigen die Temperaturen nicht mehr weiter an, sondern sinken sogar leicht, wie die eingezeichnete Regressiongerade (glatte Linie) anzeigt, obwohl in der gleichen Zeit die CO2-Konzentration in der Atmosphäre weiter stetig anstieg (gepunktete Linie). Dies zeigen die genauesten Messungen der Globaltemperaturen mittels Satelliten (mit 60.000 Messungen am Tag), dies zeigen die Messungen mittels Radiosonden, die mittels Wetterballons aufgelassen werden, und dies zeigen die Bodenmessungen (s. Abb.1) ebenfalls. 

 

Bild 1: Verlauf der globalen Mitteltemperatur nach METOFFICE UK Daten. Grafik Daily Mail UK.

Bei der Auswertung von Eisbohrkernen aus der Antarktis und auch aus anderen Gebieten, die als Klimaarchiv gelten können, zeigte sich aber etwas ganz anderes. Nämlich, wann immer die Temperatur anstieg, stieg anschließend die CO2 -Konzentration (5)  ebenfalls an, wenn auch mit erheblichem Zeitversatz. Aber, und das ist sehr wichtig: Nur in dieser Reihenfolge und nicht umgekehrt: Erst die Temperaturänderung, dann mit deutlichem Versatz die CO2 Änderung. Diese klare und sehr enge Korrelation zeigt sich immer; im Schnitt mit einer Verzögerung von ca. 800 ± 400 Jahren gegenüber der Temperaturänderung. Das ist auch gut begründet. Warmes Wasser kann weniger CO2 speichern als kaltes. Die riesige träge Masse der Ozeane  bewirkt diesen Effekt und die Verzögerung. Und weil sie 70 x mehr CO2 enthält als die Luft der Atmosphäre, wirken sie als gigantischer Puffer, der den CO2 Gehalt der Atmosphäre steuert.

CO2 ist, außerdem, das sollte man wissen, – neben Sauerstoff – das Gas des Lebens schlechthin. Ohne das CO2 der Atmosphäre gäbe es keine Pflanzen, ohne Pflanzen keine Tiere, ohne beides keine Menschen. CO2 ist geruchlos, geschmacklos und unsichtbar. Es geht kaum chemische Bindungen ein, und ist in Konzentrationen unter 8 % für Mensch und Tier völlig ungefährlich und für Pflanzen ein natürliches Düngemittel erster Güte. Es ist auf keinen Fall ein Schadstoff, den es zu vermeiden gilt.

Wenn es also das CO2 nicht ist, was bewirkt dann die Klimaänderungen? Nun, es ist – irgendwie sehr einleuchtend – die Sonne, die durch ihre Aktivität im Zusammenwirken mit dem Sonnenwind, der kosmischen Höhenstrahlung, und noch einer Reihe weitere kosmischer Prozesse unser Klima steuert. Im Gegensatz zu der falschen CO2 Hypothese lässt sich dieser Zusammenhang auch messen, so im berühmten Kopenhagener SKY-Experiment von 2002 und dem berühmten CLOUD Experiment 2011/2012 im Großlabor CERN.

Trotz der fehlenden Beweise wird nun immer wieder behauptet, dass, wenn man nur auf die CO2 – Emissionen verzichten würde, die Temperaturerhöhung – die man als gefährlich erachtet – zu verringern sei. Die Wissenschaft und mit ihr die deutsche Bundesregierung fordert deshalb allen Ernstes eine Reduktion der Emission um 80% des Niveaus von 1990. Sie gibt als Staatsziel erst einmal minus 40 % bis 2020 für Deutschland vor. Und dann weiter bis minus 80% bis 2050. Diese Reduktion bedeutet für den Bundesbürger, seine Emissionen von jetzt 11t/Kopf und Jahr auf 2,2 t/Kopf zurückzuführen. Das wäre für uns alle der direkte Weg zurück in Armut und Mittelalter. Denn allein 2t/Kopf werden für die Erzeugung unserer Nahrung benötigt. Der Rest durch Transport, Heizung, Düngemittelproduktion und andere überlebenswichtige Prozesse erzeugt. Auf dies alles müssen wir verzichten, wenn es nicht gelingt, die mit großem Tam-Tam ins Leben gerufene Energiewende umzusetzen. Doch diesem Unterfangen stehen einige Naturgesetze und die der Öknomie diametral entgegen! Die kann auch die Politk trotz vieler Versuche nicht aufheben. Denn die sehr geringe Energiedichte dieser Energieträger, ihre hohe angebotsabhängige Volatilität (Wind & Sonne), die dauerhaft fehlenden Stromspeicher und Leitungen machen die Erzeugung dieser Energien auf immer extrem teuer und damit höchst unwirtschaftlich

Doch mit der Botschaft, die uns Politik und Medien tagaus tagein servierten wie: . „Die Erde hat Fieber, die Atmosphäre brennt..“ etc. gab gerade Frau Merkel  schon auf der 1995er Weltklimakonferenz  in Berlin die Richtung vor: „Der Treibhauseffekt ist in der Lage, die Menschheit auszulöschen“. Und wenig später am 17. Juni 1997 in der „Frankfurter Rundschau“: „Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“

Auch diese Behauptung -zurückgehend auf den Club of Rome- von der Endlichkeit fossiler Ressourcen ist längst von der Realität widerlegt worden. Lt. Club of Rome hätten 1992 die letzten Ölreserven verbraucht sein müssen. Feststeht, die Reserven waren nie gößer als heute, obwohl auch der Verbrauch auf einen Höchststand geklettert ist. Die USA haben sich inzwischen vom größten Importeur der Welt von Öl und Gas zum 100 % igen Selbstversorger entwickelt und werden in Kürze als Großexporeur die anderen Märkte überschwemmen. Dank des reichlich vorhandenen Schiefergases und – Öls. Das wird aber auch in Europa, Russland und Asien in Riesen-Mengen gefunden. So gab es jüngst die Meldung, dass die Schiefergasfunde in Großbritannien das 1500 fache des dortigen Jahresverbrauches umfassen. Und täglich gibt es neue Meldungen über neue Riesenfunde.

Trotzdem soll die ganze Weltwirtschaft umgestellt werden. Unter dem Kampfbegriff „Klimaschutz“ wurde alles und jedes subsummiert, viele Gesetze erlassen, die  einigen Leuten sehr viel, sehr viel Geld einbringen, den Verbraucher Billionen kosten und dazu den Regierungen extrem hohe Einnahmen durch Steuern und Abgaben verschafft,  aber, und das ist das Charmante an diesem Mythos, widerspruchslos ja z.T. begeistert von der Masse ertragen werden. Mit der Verteufelung des CO2 als Schadstoff, den es um jeden Preis -auch des Bankrotts ganzer entwickelter Volkswirtschaften- zu vermeiden gilt, lässt sich eben sehr viel Geld verdienen, aber auch uns liebgewordene -aber den Regierenden lästig gewordene- Freiheiten wieder einkassieren. Man kann den Menschen abverlangen ihren Lebensstil grundsätzlich zu verändern, man kann es nicht nur verlangen, sondern die unbotmäßigen, dann zu Klimaschweinen umdefinierten Sünder,  die können auch sanktioniert, bestraft und ausgegrenzt werden. Nicht umsonst warnt der tschechische Präsident Vaclav Klaus vor dem Verlust der Freiheit unter dem Vorwand des Klimaschutzes. Seine Worte: „Nicht das Klima ist bedroht, sondern unsere Freiheit  und unser Wohlstand“

Darauf haben es viele abgesehen. Auf unsere Freiheit und unseren Wohlstand. Unter dem Vorwand des Klimaschutzes wurden  die Angstmacher von der Leine gelassen. Viele Wissenschaftler sind dabei, vom 1. Chef des Umweltbundesamtes Dr. Hartkopf etwas geringschätzig: „dienende Forscher“ genannt. Galt es doch an den reichen Pfründen teilzuhaben, neue Lehrstühle zu besetzen, Karrieren zu starten und gutes Einkommen zu sichern. Die Medien nahmen sich begeistert dieses – vermeintlich von der „Wissenschaft“ abgesicherten- Befundes an. Und trompeteten die schlimme Botschaft in alle Winkel dieser Welt. Deshalb wohl nannte der bekannte Meteorologe und Gründer des 1. amerikanischen Wetterkanals (The Weather Channel), John Coleman die Mär von der drohenden Klimakatastrophe, den größten Betrug in der an Betrügereien nicht armen Wissenschaftsgeschichte. Und der Mann muss es wissen. 

Aber, um die wirklichen Absahner zu finden, muss man – wie fast immer- etwas tiefer graben. Auf der politischen Seite – besonders schnell und aktiv- freundeten sich vor allem die Linken und Grünen mit den Riesenpotentialen an, die der vermeintliche Schutz vor der Klimakatastrophe versprach. Oft ließen sich dabei Einige auch zu klaren Äußerungen über ihre wirklichen Absichten verleiten: „Es macht nichts, wenn sich die Wissenschaft von der globalen Erwärmung als falsch herausstellen sollte, der Klimawandel gibt uns die beste Gelegenheit der Welt die Gleichheit und Gerechtigkeit zu bringen“ sagte z.B.. die damalige grüne kanadische Umweltministerin Christine Stewart. 

Oder wie Prof. Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ  Interview (6)  ganz deutlich erklärte ,was von Seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird: 

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sa-gen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umwelt-politik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Und was oft wirklich bei den ideologisch verhärteten Umweltschützern wichtig ist, belegt dieses Zitat. "Wir setzen uns für die Biodiversität um der Biodiversität willen ein. Das bedeutet, daß der Mensch nicht bedeutender ist als irgend eine andere Spezies. Es kann sehr wohl unserer Ausrottung bedürfen um die Dinge ins Lot zu bringen." so David Foreman, Mit-Gründer von Earth First. 

Die bürgerlichen Parteien zogen aber schnell nach. Wer es in CDU/CSU oder FDP zu etwas bringen will, der hüte sich gegen den Klimaschutz zu argumentieren. Das bekommt keinem. Genauso ist es mit Karrieren in der Wissenschafts-branche, auch dort muß die herrschende Lehre vertreten werden, sonst kann man einpacken.

Die wirklichen Nutznießer und Hintermänner aber wollen schnell und viel Kasse machen. Sie benutzen die Medien und die Politik, um schnell, dauerhaft (heute auch oft nachhaltig genannt) die Menschen dazu zu bringen – gegen teures Geld versteht sich- die unsinnigsten Dinge per Zwang zu erwerben, in dem sie ihnen für zur Akzeptanz ihrer Zwangsmaßnahmen eine guten Zweck vorgaukeln. Dazu gehören  Vordenker wie Al Gore -heute Mitinhaber von Firmen, die sich besonders aktiv im Emissionshandel betätigen, allerdings auch mit seinem defizitären Fernsehsender Current TV soeben Kasse machte und diesen -ohne jede Skrupel- an die Ölscheichs des arabischen Senders Al Jazeera verkaufte- und auch der Ökonom Dr. Richard Sandor der schon 1992 forderte „Luft und Wasser sind nicht mehr die freien Güter, wie sie in der Wirtschaft einmal als gegeben galten. Sie müssen als Eigentumsrechte neu definiert werden, damit sie effizient zugeteilt werden können.“ In Edenhofer fand er einen aufmerksamen Schüler

Aber solche Leute gibt es nicht nur im Ausland, sie gibt es auch hier reichlich. Mit der Erfindung des Stromeinspeisegesetzes, von der damaligen Umweltministerin Angela Merkel unter Helmut Kohl vorbereitet, perfektioniert unter Rot-Grün als Erneuerbare-Energien-Gesetz (EEG) und umfänglich beraten von der Windkraft- Solar und Biosprit Lobby wurde das perfekte Instrument geschaffenen, den Verbrauchern -anfangs unbemerkt- das Geld aus der Tasche zu ziehen. Das EEG verpflichtet die (bösen) Versorger, den Anbietern sog. erneuerbarer Energien, diese zu jeder Zeit und zu staatlich festgelegten, deutlich überhöhten, Preisen abzukaufen. Während eine Kilowattstunde aus Kernenergie oder Braunkohle (ab Werk sozusagen) für 2,5¢ zu haben ist und der Strom aus Kohle, statt wie noch vor ein paar Jahren für 3 ¢ -dank der Stützung der flackernden Windenergie- immer noch für 4 ¢ zu bekommen ist, zahlen die Versorger, gezwungen durch das EEG für flackernden Windstrom ca. 9 bis 15 ¢/kWh und für hell/dunklen noch mehr flackernden Solarstrom gar derzeit 20¢ pro kWh (Stand 2012, zuvor lagen die festgesetzten Preise bei bis zu 48 ¢/kWh) Und das garantiert für 20 Jahre. Versehen mit den üblichen Aufschlägen für Durchleitung, Vertrieb, Gewinn und nicht zu vergessen div. staatlichen Abgaben (diese machen bereits über 50 % des Strompreises aus) landet dieser Strom dann -als Ökostrom gepriesen- bei uns Verbrauchern. 

Mit der Lizenz zum Geld drucken -dem EEG- im Rücken, geht es dann schnell so richtig zur Sache. Für die Hersteller von Windkraftanlagen und Solarpanels waren goldene Zeiten angebrochen. Nicht nur, dass wir Verbraucher deren Schrottstrom bezahlen müssen, die Errichter von „Wind- oder Solarparks“ bekommen noch gewaltige Steuervergünstigungen oder andere Subventionen, an denen sie anfangs gut verdienen. Jetzt übernehmen die Chinesen mit ebenfalls riesigen staatlichen Subventionen im Rücken, den stattlichen schnell wachsenden deutschen Kuchen. Die hiesigen Solarfirmen gehen hingegen reihenweise pleite, obwohl ihnen erneut horrende Summen aus Steuermitteln gezahlt werden. Und die Windkrafthersteller sind ihnen dicht auf den Fersen.  

Rechnet man den ganzen Geldsegen zusammen, der allein mit den berüchtigten Meseberger Beschlüssen im August 2009 für den Klimaschutz und zur „Förderung“ der erneuerbaren Energien seitens der Regierung Merkel beschlossen wurde, dann müssen wir alle bis zum Jahre 2020 sage und schreibe mehr als 950 Mrd € aufbringen. Das sind knapp 12.000 €/Kopf der Bevölkerung; also von der Krankenschwester über den Busfahrer bis zum Greis oder Baby. Oder knapp 50.000 € für eine vierköpfige Familie. Die 2011 beschlossene „Energiewende“ samt panikartigem Atomausstieg, verdoppelt diesen Betrag mindestens noch einmal. Da stört es auch nur noch wenig, dass die viel beschworene Abhängigkeit von solche unsicheren Kandidaten wie Russland, welche die „Erneuerbaren“ ja mindern sollen, mit jeder installierten Windkraftanlage, mit jedem Solarpanel 1:1 weiter steigt. Es ist noch nicht ein einziges konventionelles Kraftwerk -egal ob Kern- Kohle- oder Gas- ersetzt worden, weil nun knapp 30.000 Windmühlen Strom erzeugen. Der einfache Grund: Die von denen erzeugte Energie schwankt wie ein Lämmerschwanz und kommt nur dann wenn die Sonne scheint, oder der Wind bläst. Nicht dann, wenn sie gebraucht wird. Also müssen konventionelle Kraftwerke die Aufgabe der Pufferung und zwar 1:1 übernehmen. Zusätzlich fahren sie dann noch mit schlechterem Wirkungsgrad, benötigen also mehr Brennstoff, als ohne die zu puffernden „Erneuerbaren“ nötig wären. Die Folge ist, diese Kraftwerke arbeiten unwirtschaftlich und verdienen nicht mehr das Geld, dass man zu ihrem Betrieb, Erhaltung und Erneuerung benötigt. Von einer angemessenen Verzinsung des hineingesteckten Kapitals ganz zu schweigen. Deswegen werden sie reihenweise stillgelegt, ein Umstand der die schon stark verminderte Versorgungssicherheit weiter verschlechtert und vom schwarzgelben Gesetzgeber daher verboten wird. Allerdings unter Zahlung einer weiteren Subvention, die schönfärberisch "Schaffung von Kapazitätsmärken" genannt wird, und wieder auf den Verbraucher umgelegt wird.

Nun könnte der Eindruck entstanden sein, hinter all dem stecke ein Mastermind, eine böse Verschwörung. Nein, das ist es m.E.n. sehr wahrscheinlich nicht. Aber es ist eine beachtliche Selbstorganisation von Leuten, ich will sie Sozioingenieure nennen, die nacheinander erkannt haben, welche phantastischen Schätze mittels der CO2 Verteufelung gehoben werden können und die alles – und bisher mit Erfolg daran- setzen daß diese Hysterie noch lange erhalten bleibt. Jedenfalls so lange wie sich noch immense Mengen Geldes daraus gewinnen lassen. Mit den folgenden 3 Zitaten will ich diesen Bericht schließen, jeder Leser möge sich nun dazu seine eigene Meinung bilden:

“Der Global-Warming-Alarm kommt im Gewand der Wissenschaft daher, aber es handelt sich dabei nicht um Wissen-schaft. Es ist reine Propaganda” (Prof. Paul Reiter, Pasteur Institute Paris, ehemals Reviewer IPCC)

"Niemand will das Problem lösen, denn dann hörten die Gelder auf zu fliessen".   (MIT Prof. Dr. R. Lindzen –weltweit anerkannter Klimaforscher resignierend im Weltwoche Interview )

"Wer die Wahrheit nicht weiß, ist ein Dummkopf. Aber wer sie kennt und sie eine Lüge nennt, ist ein Verbrecher." (Berthold  Brecht in „Leben des Galilei“)

Michael Limburg EIKE

Der Artikel erschien am 25.12.12 auch in leicht gekürzter Form im Extrablatt der "Vertraulichen Mitteilungen" , D-78266 Büsingen

[1] Auszüge ent­nom­men dem Buch, "die Angsttrom­peter" von Heinz Hug:

[2] Univ.-Prof. i. R. Dr. Gernot Patzelt, Glaziologe, Innsbruck: Gletscherschwund und Vorzeitklima Journal BERGAUF 02-2008

[3]. Nä­he­res hier: http://nzclimatescience.net/images/PDFs/ipcc_re­view_up­da­ted_analysis.pdf

[4] Man glaubt es nicht. Aber es gibt im gesamten IPCC Bericht, noch in der dort zitierten Literatur einen einzigen  Beweis, nicht eine Beobachtung der Natur, die diese These vom AGW belegt. Nur Modelle.

[5]Die ab­so­lu­te CO2 Kon­zen­tra­ti­on läßt sich aus die­sen Quel­len nicht ab­le­sen, da Dif­fu­si­ons­vor­gän­ge in den Gas­bläs­chen un­ter ho­hem Druck, wie sie in den tie­fen La­gen des Ei­ses herr­schen, kein ein­deu­ti­ger Zu­sam­men zwi­schen Zeit und CO2 Kon­zen­tra­ton her­zu­stel­len ist. Wohl aber läßt sich die zeit­li­che Zu­ord­nung klar messen.

[6] (http://www.nzz.ch/nach­rich­ten/hin­ter­grund/wis­sen­schaft/kli­ma­po­li­tik_ver­teilt_das_welt­ver­moe­gen_neu_1.8373227.html Neue Zür­cher Zei­tung vom 14.11.2010)




Schiefergas und Geopolitik

Aber es gibt noch eine andere Wahrheit: Die Wirklichkeit großer, unpersönlicher Kräfte wie Geographie und der Umwelt, die ebenfalls über die Zukunft menschlicher Ereignisse bestimmen. Afrika war historisch größtenteils wegen nur weniger guter natürlicher Häfen und weniger schiffbaren Flüssen aus dem Inneren zur Küste arm geblieben. Russland ist paranoid, weil deren Landmasse offen für Invasionen ist, gibt es doch dort nur wenige natürliche Barrieren. Die Scheichtümer am Persischen Golf sind nicht wegen ihrer Ideen außerordentlich wohlhabend, sondern wegen großer Energievorräte im Untergrund. Sie verstehen, was ich meine. Intellektuelle konzentrieren sich darauf, was sie ändern können, aber hinsichtlich des Veränderns dessen, was passiert, sind wir hilflos.

Jetzt kommt Schiefer ins Spiel, ein Sedimentgestein, in dem Erdgas eingeschlossen werden kann. Schiefergas stellt eine neue Quelle ausbeutbarer Energie für die post-industrielle Welt zur Verfügung. Länder, die über größere Schieferlagerstätten verfügen, werden im 21. Jahrhundert im zwischenstaatlichen Wettbewerb besser dastehen und Länder ohne solche Lagerstätten schlechter. Ideen helfen in dieser Hinsicht kaum weiter. Stratfor hat diese Angelegenheit zufälligerweise lang und breit untersucht. Hier folgt meine eigene Analyse, teilweise beeinflusst von der Forschung von Stratfor.

Schauen wir also, wer über Schiefer verfügt und wie dieser Schiefer die Geopolitik verändern kann. Weil die Zukunft sehr stark von dem beeinflusst wird, was im Untergrund liegt.

Die USA verfügen über riesige Vorkommen von Schiefergas, wie sich gezeigt hat: in Texas, Louisiana, North Dakota, Pennsylvania, Ohio, New York und anderswo. Egal welche der vielen politischen Entscheidungen getroffen werden, Amerika ist als Energiegigant des 21. Jahrhunderts prädestiniert. Im Besonderen ist es an der Golfküste um die US-Bundesstaaten Texas und Louisiana zu einem Schiefergas- und –ölboom gekommen. Diese Entwicklung wird die Karibik zu einem ökonomischen Brennpunkt der westlichen Hemisphäre machen, unterstützt durch die für 2014 geplante Erweiterung des Panama-Kanals. Gleichzeitig wird sich die Zusammenarbeit zwischen Texas und dem benachbarten Mexiko intensivieren, da Mexiko zunehmend ein Markt für Schiefergas ist mit seinen eigenen ausgebeuteten Schieferbecken nahe seiner nördlichen Grenze.

Teilweise sind dies für Russland besorgliche Nachrichten. Russland ist gegenwärtig Europas Energieriese, der Erdgas in großem Umfang nach Westen exportiert, was Moskau in ganz Mittel- und vor allem Osteuropa enormes politisches Gewicht verleiht. Allerdings liegen Russlands Reserven vielfach in Sibirien, wo die Ausbeutung schwierig und teuer ist – obwohl Russlands einst veraltete Fördertechnologie inzwischen deutlich modernisiert worden ist. Und Russland muss derzeit keinen wesentlichen Wettbewerb in Europa fürchten. Aber was ist, wenn die USA eines Tages in der Lage wären, Erdgas nach Europa zu wettbewerbsfähigen Preisen zu liefern?

Die USA verfügen immer noch über nur wenige Möglichkeiten, Erdgas nach Europa zu exportieren. Man müsste dort neue Verflüssigungsanlagen bauen, um das zu tun; mit anderen Worten, man müsste Fabriken am Golf von Mexiko errichten, die Erdgas verflüssigen, so dass es per Schiff über den Atlantik transportiert werden kann. In Europa würde es dann wieder in Erdgas zurückverwandelt. Mit Kapitalinvestitionen, Erfahrung und unterstützender Gesetzgebung wäre das durchaus machbar. Länder, die sich solche Möglichkeiten erschaffen, haben mehr Energie-Optionen, je nach Lage der Dinge für Export oder Import. Man stelle sich also eine Zukunft vor, in der die USA verflüssigtes Schiefergas nach Europa exportieren, was die Abhängigkeit der europäischen Länder von russischer Energie verringern würde. Die Geopolitik in Europa könnte sich um Einiges verschieben. Erdgas wird als politisches Instrument immer weniger taugen und nur noch wirtschaftlich von Bedeutung sein (obwohl eine solche nicht so ohne Weiteres zu habende Verschiebung den  Export von Schiefergas von Nordamerika nach Europa in sehr großem Umfang erfordern würde).

Weniger Abhängigkeit von Russland erlaubt die Vision eines wirklich unabhängigen, kulturell pulsierenden Mittel- und Osteuropa, das in vollem Umfang aufblühen kann – seit Jahrhunderten ein Ideal der europäischen Intellektuellen, selbst wenn gute Ideen damit wenig zu tun haben.

Dies könnte vor allem für Polen gelten. In Polen gibt es große Lagerstätten von Schiefergas. Falls die polnischen Schieferlagerstätten sich als die größten in Europa erweisen sollten (ein sehr großes „falls“), könnte Polen zu einem eigenständigen Energieerzeuger werden, was dieses flache Land mit keinen natürlichen Verteidigungsbarrieren im Westen und im Osten – im 20. Jahrhundert sowohl von Deutschland als auch Russland zeitweise annektiert – zu einem Dreh- und Angelpunkt im 21. Jahrhundert machen. Die USA wiederum, wegen seiner eigenen Energieressourcen nicht mehr so abhängig von Öl aus dem Nahen Osten (einschließlich Erdgasfunde), könnten sich auf Polen bei der Aufrüstung als eine befreundete Macht konzentrieren, selbst wenn das zum Verlust substantieller Interessen in Saudi-Arabien führt. Die immensen Lagerstätten von Öl und Erdgas auf der Arabischen Halbinsel, Irak und Iran werden den Nahen Osten noch Jahrzehnte lang zu einem wesentlichen Energieexporteur machen. Aber die Schiefergas-Revolution wird die Versorgung der Welt mit Kohlenwasserstoffen komplizieren, so dass der Nahe Osten Einiges von seiner Bedeutung verlieren könnte.

Wie sich gezeigt hat, verfügt auch Australien über neue große Vorkommen von Erdgas, das sich, falls die Verflüssigung technisch möglich ist, zum größten Energieexporteur nach Ostasien entwickeln könnte unter der Voraussetzung, dass die Kosten für die Erzeugung signifikant gesenkt werden können (was sich als sehr schwierig erweisen könnte). Weil Australien schon jetzt anfängt, sich zum verlässlichsten Militär-Alliierten der USA in der Anglosphäre zu entwickeln, könnte die Allianz dieser beiden großen Energieerzeuger den westlichen Einfluss in Asien weiter zementieren. Die USA und Australien würden die Welt untereinander aufteilen: nach alter Sitte, versteht sich [after a fashion, of course]. Falls die Ausbeutung unkonventioneller Erdgasvorkommen irgendetwas damit zu tun hat, wäre die so genannte Post-Amerika-Welt tatsächlich genau das.

Die geopolitische Erstarkung Kanadas – ebenfalls das Ergebnis von Erdgas und Erdöl – könnte diesen Trend verstärken. In der kanadischen Provinz Alberta gibt es riesige Erdgas-Lagerstätten, welches künftig durch noch zu bauende Pipelines nach British Columbia fließen könnte, von wo es mit den Einrichtungen zur Verflüssigung nach Ostasien verschifft werden könnte. Währenddessen könnte Ostkanada der Profiteur neuer Erdgaslagerstätten sein, die sich über die Grenze bis in die nordöstlichen Staaten der USA erstrecken. Folglich würde die Entdeckung neuer Energieressourcen die beiden nordamerikanischen Länder noch enger zusammen schweißen, selbst wenn Nordamerika und Australien auf der Weltbühne immer mächtiger werden.

In den inneren Provinzen Chinas gibt es ebenfalls signifikante Erdgasvorkommen. Weil man in Peking nur wenig durch Regulationen belastet ist, könnte das Regime das Land enteignen und die notwendige Infrastruktur aufbauen. Das würde die Energieknappheit in China um Einiges erleichtern und hilfreich für Pekings Strategie sein, das zurück gehende küstennah orientierte Wirtschaftsmodell zu kompensieren.

Die Länder, die vermutlich unter einer Schiefergas-Revolution leiden würden, wären Binnenstaaten, politisch instabile Ölerzeuger wie Tschad, Sudan und Südsudan, deren Kohlenwasserstoffe deutlich an Wert verlieren könnten, wenn diese anderen Energiequellen ins Spiel kommen. Vor allem China könnte zukünftig jedes Interesse daran verlieren, in diesen armen Hochrisikostaaten aktiv zu sein, wenn es selbst in seinem Inneren ausreichend Schiefergas zur Verfügung hat.

Ganz allgemein wird das Aufkommen von Schiefergas die Bedeutung der Geographie hervorheben. Welche Länder haben Schiefer im Boden und welche nicht? Das wird die Machtbalance zu bestimmen helfen. Und weil Schiefergas in flüssiger Form über die Ozeane transportiert werden kann, haben Staaten mit einer Küstenlinie Vorteile. Wegen der Technologie zur Schiefergas-Erschließung wird die Welt kleiner werden, aber das lässt den Wert der Geographie eher weiter zu- als abnehmen.

Robert D. Kaplan Chief Geopolitical Analyst

Link: http://www.stratfor.com/weekly/geopolitics-shale#ixzz2Fa5msNE0

Übersetzt von Chris Frey EIKE




„Weltklimarat“ IPCC Report AR5 zum Nachlesen

Alec Rawls: Full AR5 draft leaked here, contains game-changing admission of enhanced solar forcing

Summary for Policymakers
Chapter 1: Introduction
Chapter 2: Observations: Atmosphere and Surface
Chapter 3: Observations: Ocean
Chapter 4: Observations: Cryosphere
Chapter 5: Information from Paleoclimate Archives
Chapter 6: Carbon and Other Biogeochemical Cycles
Chapter 7: Clouds and Aerosols
Chapter 8: Anthropogenic and Natural Radiative Forcing
Chapter 8 Supplement
Chapter 9: Evaluation of Climate Models
Chapter 10: Detection and Attribution of Climate Change: from Global to Regional
Chapter 11: Near-term Climate Change: Projections and Predictability
Chapter 12: Long-term Climate Change: Projections, Commitments and Irreversibility
Chapter 13: Sea Level Change
Chapter 14: Climate Phenomena and their Relevance for Future Regional Climate Change
Chapter 14 Supplement
Technical Summary




5. IKEK München(II) Anthropogen induzierter Klimawandel: Gibt´s den wirklich?

Update 14.12.12 Vortrag von Dr. Fett, aktualisiert und um Vortrag von Jacob Nordangård über immer dieselben Drahtzieher beim Klima-EU-Biosprit-Desaster ergänzt

Während der EIKE Konferenz im Bayerischen Hof in München hatten es nur der Münchner Merkur und die Regionalsendung des BR Fernsehens (kurz um 16:15 Uhr) es für nötig gehalten darüber zu berichten, obwohl international anerkannte Wissenschaftler zu den Referenten gehörten. Dagegen konnte man am ersten Tag einen unsinnigen Bericht, der jeder Recherche Hohn spricht, in der Süddeutschen (30. November 2012, Seite 18, Rubrik Wissen) über das große Eis-Schmelzen lesen. Kein Wunder, dass unsere Print-Medien keine Leser mehr finden, wenn statt gut recherchierter Artikel nur Meinungsmache produziert wird. Man fragt sich: Wem sind diese Medien eigentlich verpflichtet?

Prof Singer referierte über den nächsten IPCC Report, der im Frühjahr 2013 veröffentlicht wird.

Das IPCC zeigt nur eine Übereinstimmung der Globaltemperaturen(1900-70) mit den Rechenmodellen durch Anpassung (curve fitting). Die Übereinstimmung gilt nur für die mittlere Gobaltemperatur; aber nicht getrennt für die Nord-, Südhälfte und die Tropen.

Nach undefinedProf. Singer gibt es keinerlei Beweise für einen Temperaturanstieg, der auf die sogenannten Treibhausgase zurück zu führen sei. CO2 hat vermutlich einen kleinen Effekt, er ist aber bisher überhaupt nicht verstanden und läßt sich mit heutiger Meßtechnik nicht nachweisen.

Zu einem ähnlichen Ergebnis kommt undefinedProf. Lüdecke in seinem Vortrag:

Die Ursache von rezenten Klimaänderungen

(im "peer review" Verfahren).

Untersucht wurden Klimadaten seit 1770 von sechs mitelleuropäischen Stationen (Kremsmünster, Hohenpeissenberg, Prag, München, Wien und Paris). Nach einer Persistenzanalyse sind nur 30% der Temperaturreihen unnatürlichen Ursprungs und von einem externen Trend bestimmt. Die Ursache dafür ist unbekannt. CO2 dürfte dabei aber nur einen marginalen Einfluss haben. Eine Fourieranalyse erbrachte eine Pearson-Korrelation von 0,96. Diese Übereinstimmung konnte durch den Einfluss von z.B. CO2 nicht verbessert werden.

Resumeé von Lüdecke, Hempelmann, Weiss: Hat das Klima eine chaotische Komponente (Klima vom Determinismus ins Chaos)?

undefinedProf Ewert referierte darüber,

warum die Temperaturen bei NASA-GISS geändert wurden.

Vergleicht man die Daten von 2010 mit denen von 2012 findet man Änderungen an den Datensätzen, die so vorgenommen wurden, dass Abkühlungen und Gleichstand bis 2010 abgeändert wurden. Damit ergeben sich Erwärmungen oder leichte Anstiege. Prof. Ewert hat 119 willkürlich ausgewählte Datensätze ausgewertet. Alle schienen manipuliert worden zu sein. Seine Schlussfolgerungen: Änderungen erfolgten in den meisten Stationen; vermutlich in allen. Zwei Drittel der Änderungen erzielten stärkere und fortschreitende Erwärmung. Ein Drittel verstärkt die Abkühlung, um eine Homogenisierung vorzutäuschen. Absenkung der Mittelwerte von 1920 bis 1960, Anstieg in den späten Phasen und Löschen von störenden Übergängen.

Sollte da Hilfestellung für die Konferenz in Doha gegeben werden? Seit mehr als 15 Jahren gibt es keine globale Erwärmung mehr.

Eine offizielle Begründung für diese Manipulation steht noch aus. 

Solar vs. Anthopogenic: Better Understanding of 20th Climate Change lautete der Vortrag von undefinedProf. Shaviv – The Hebrew University of Jerusalem, Israel.

Die Untersuchung der Wolkenbildung durch kosmische Strahlung im Magnetfeld der Sonne ist seit mehreren Jahren ein wichtiges Feld, Klimaänderungen besser zu verstehen – Strahlungsänderung, UV-Absorption in der Stratosphäre, Modulation der kosmischen Strahlung durch das Magnetfeld der Sonne. Prof. Shaviv kommt in seiner Modellrechnung zum Schluss, dass die Erwärmung in diesem Jahrhundert gering sein wird. "21st Century warming will be small (~1°C) under business as usual".

Über Gletscher- und Waldentwicklung in alpinen Hochlagen in den letzten 10.000 Jahren ging der Vortrag von undefinedProf. Patzelt. Universität Innsbruck.

An gut erhaltenen Baumstämmen, die in den zurückgehenden Gletschergebieten immer wieder zum Vorschein kommen, kann man die Baumgrenzen und die Ausdehnung der Gletscher in den letzten 10.000 Jahren rekonstruieren und genau datieren. Es gab immer wieder Gletscherrückzugsperioden und die Baumgrenze lag auch immer wieder höher als heute. Diese Untersuchungen in den Alpen lassen sich nicht nur als ein lokales Phänomen darstellen, sondern passen auch zB in die Entwicklung von Grönland. Es ist dabei keine Korrelation zu CO2 ausfindig zu machen.

Prof. Walter Fett ehem. Meteorologe an  der Freien Universität Berlin, sowie Ehrenmitglied der Deutschen Meteorolgischen Gesellschaft, fragte in seinem Vortrag folgendes:

undefinedWarum regnet es nach Finsternissen am stärksten?

Es war eine statistische Auswertung der Niederschlagsmengen über die Mondphasen. Der Vortrag dürfte für Leser mit einem Faible für Stochastik sehr interessant gewesen sein. Der Verlauf wird dabei nicht mehr als Schwingung um ein mittleres Niveau sondern als eine Häufigkeitsverteilung über ein Grundniveau dargestellt. Anscheinend scheinen die Maximas von der geographischen Breite abzuhängen. Vom Einfluss des CO2 ist jedenfalls in diesen genauen Statitisken nichts zu finden, stattdessen ist ein solarer Einfluss eindeutig feststellbar.

Energiewende zwischen Wunsch und Wirklichkeit lautete der Vortrag von undefinedProf. Alt.

"Tatsache hierzu ist für den Energiesektor, dass mit jeder weiteren Windenergie und mit jeder weiteren Photovoltaikanlage sowie mit jeder neuen Transportleitung oder zusätzlichen Verteilungsleitung die Strompreise nur deutlich ansteigen müssen – die Stromversorgung nicht sicherer, mit dem Wegfall der Kernkraftwerke auch nicht CO2-ärmer, sondern CO2-reicher wird." Die Verfügbarkeitsproblematik von Wind- und PV-Strom lässt sich an den Leistungsganglinien leicht ablesen. Egal wie hoch die in diesem Bereich installierte Leistung ist, es muss immer die zusätzliche gleiche Leistung an Gas-, Kohle- oder Kernkraftwerken vorhanden sein, wenn man 24 Stunden am Tag Strom zur Verfügung stellen will. Der Irrsinn scheint hier keine Grenzen mehr zu kennen.

The history of biofuels in the European Union

From environmental saviour to Climate Bomb Trigger

Abbildung: © J. Nordångaard

Anschließend erläuterte der Doktorand Jacob undefinedNordångaard aus Schweden unter dem Titel "The History of Biofuels in the European" Union den erschreckend spannenden Inhalt seiner Doktorarbeit, über die Vernetzung (siehe Abbildung) immer derselben Leute aus immer denselben Verbänden, Vereinen, Lobbygruppen und EU-Kreisen, die verbissen am "EU-Klimaschutzprogramm" und EU-Biosprit Desaster mitgewirkt haben, bzw. immer noch mitwirken.

undefinedDr. Michael Goetz, Assoc. Director CFACT Europe, gab uns einen Einblick in die "neue Klima- und Energiepolitik nach der US.Wahl.

Die US-Bürger machen sich eher Sorgen um reines Wasser als um "global warming". Es gibt drei politische Gruppen: Republicans, Democrats and Independents. Selbst bei Al Gore ist Klima in USA kein "primary issue". Im Wahlkampf spielte das Klima überhaupt keine Rolle. Klimaverträge benötigen im Senat 2/3-Mehrheit. Die Mehrheit der Republikaner werden dagegen stimmen.

Senator James Inhofe: "Global warming is the greatest hoax ever perpretrated on the American Poeple."

Zum Schluß zog EIKE Präsident Dr. Thuß ein Resumée der sehr gelungen Konferenz mit dem Fazit, dass die Arbeit von EIKE von immer mehr Personen beachtet wird. Man glaubt uns, da wir Fakten bringen und keine Polemik. Unsere Aufklärungsarbeit wird weiter gehen und wir werden weitere öffentlichen Auftritte in 2013 haben.

Danach ging es zum Sektempfang. Alle Teilnehmer waren von der Qualität der Vorträge angetan, manche wunderten sich, warum die Medien, obwohl vielfach eingeladen, davon fast keine Notiz nahmen. Es kommt den Leuten immer mehr zur Gewissheit, dass es der Politik eigentlich nicht um Klima und Energie geht; man will eine Transformation der Gesellschaft (NWO).

Dr. Theo Eichten, EIKE




5. IKEK München (I): Merkels Energiewende, der grüne Staatsstreich

Wir machen nur noch, was die grüne Partei will – eine Partei ängstlicher, staatlich alimentierter und kleinkarierter Biedermeier-Sozialisten, die nach Energie-Autarkie streben.“ So brachte der bekannte TV-Filmproduzent und Wirtschaftspublizist Günter Ederer die von Angela Merkel dekretierte „Energiewende“ auf der V. Internationalen Klima- und Energiekonferenz des Europäischen Instituts für Klima und Energie (EIKE) am 30. November und 1. Dezember im noblen Bayerischen Hof in München auf den Punkt. Noch deutlicher wurde Prof. Gertrud Höhler in ihrer leidenschaftlichen Tischrede. Die als Beraterin Helmut Kohls bekannt gewordene Bestseller-Autorin und Unternehmensberaterin, die in ihrem neuesten Buch „Die Patin“ das Machtsystem Angela Merkels seziert, machte klar, dass sich hinter der Biedermeier-Fassade der „Energiewende“ ein handfester Staatsstreich verbirgt. Bei der überstürzten Stilllegung der Hälfte der deutschen Kernkraftwerke wurden unzählige aktien- und eigentumsrechtliche Bestimmungen verletzt. Rechtssicherheit war einmal in Deutschland.

Günter Ederer erinnerte daran, dass ihm ein britischer Freund schon 1995 prophezeite, keine politische Partei werde am Ende der Versuchung widerstehen, die Luft zum Atmen zu besteuern. Genau darum geht es bei der „Energiewende“. Die irrsinnige Verknüpfung der Energiepolitik mit dem Versuch, mithilfe des Erneuerbare Energien Gesetzes (EEG) eine angeblich von uns Menschen durch CO2-Emissionen verursachte Klimakatastrophe abzuwenden, diene der Verschleierung einer massiven Umverteilung von Wohlstand von unten nach oben. Die überhöhten Heizkosten- und Stromrechnungen einkommensschwacher Mieter füllen die Konten der grünen Oligarchie, die Villendächer und Grundstücke mit Photovoltaik-Panelen und Windrädern bestückt, um von den im EEG für 20 Jahre garantieren hohen Einspeisetarifen für Ökostrom zu profitieren. Die im EEG verankerte Abnahmegarantie für zufällig erzeugten Ökostrom führt zum ungesteuerten Aufbau von Windkraft- und Photovoltaik-Kapazitäten, deren Nennleistung bald den Spitzenbedarf übersteigen wird, aber nicht verlässlich zur Verfügung steht.

Wie undefinedUtz Tillmann, der Hauptgeschäftsführer des Verbandes der Chemischen Industrie (VCI) ausführte, stellt das die Chemie und andere stromintensive Industriezweige vor wachsende Probleme. Er stellte aber Merkels Energiepolitik nicht grundsätzlich in Frage, zumal auch Mitgliedsunternehmen seines Verbandes von der „Energiewende“ profitieren. Er bot der Politik sogar Unterstützung in Form eines fachlich kompetenten Projektmanagements an.

 Im vergangenen Jahr erreichte die reale Gesamtleistung aller deutschen Windräder, wie EIKE-Pressesprecher Prof. undefinedHorst Lüdecke ausführte, nur 16 Prozent der installierten Nennleistung. Von den im Jahre 2011 von allen EEG-Anlagen erzeugten 124 Terawattstunden Strom stand nur etwa ein Zehntel einigermaßen zuverlässig zur Verfügung. Die langen Stillstandszeiten mussten durch Kohle- und Gaskraftwerke überbrückt werden. Deshalb konnten die EEG-Anlagen kaum CO2 einsparen. Doch für diese klägliche Leistung kassierten die Betreiber von Ökostrom-Anlagen im vergangenen Jahr bereits über 17 Milliarden Euro Subventionen. Das sind 375 Euro je Durchschnittshaushalt.

Zweistellige Milliardenbeträge buchstäblich für Nichts.

Denn auch die ökologische Begründung der „Energiewende“ durch die Notwendigkeit, eine drohende Klimakatastrophe abzuwenden, steht auf äußerst wackligen Füßen. Das zeigten in München die Vorträge mehrerer international renommierter Naturforscher. So zeigte der schwedische Arktisforscher undefinedFred Goldberg, dass das Arktiseis nach einem in den Medien hochgespielten zeitweiligen Rückgang in diesem Herbst viel schneller zugenommen hat, als in den Vorjahren. Der schwedische Geophysiker undefinedNiels Axel Mörner demonstrierte, dass der Meeresspiegel bis zum Jahr 2100 höchstens um fünf bis zwanzig Zentimeter ansteigen kann. Der österreichische Gletscherforscher Gernot Patzelt berichtete über fossile Baumfunde weit oberhalb der heutigen Waldgrenze in den Alpen, die davon zeugen, dass es in den vergangenen 10.000 Jahren oft deutlich wärmer war als heute.

Der Stechmücken-Spezialist undefinedPaul Reiter vom Pariser Institut Pasteur wies nach, dass nicht der Klimawandel Malaria-, Dengue- und Chikungunya-Überträger bis in unsere Breiten treibt, sondern der globale Handel mit Altreifen, in denen Regenwasser stehen bleibt.

Reiter: „Die größte Malaria-Epidemie aller Zeiten mit über 600.000 Toten brach nicht in den Tropen, sondern in den 1920er Jahren im hohen Norden Russlands aus.“


Doch der UN-Klimarat IPCC ersetzte Reiter bei der Abfassung des Kapitels über gesundheitliche Auswirkungen des Klimawandels durch eine unerfahrene, aber gut protegierte Nachwuchs-Wissenschaftlerin, die bereitwillig das Märchen von der Malaria-Ausbreitung infolge der globalen Erwärmung nachbetete.

Auf dieses Detail wies die kanadische Journalistin undefinedDonna Laframboise hin. In ihrem gerade im TvR-Medienverlag, Jena, in deutscher Übersetzung erschienenen Buch mit dem Titel „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde“ hat die Autorin mithilfe eines „Bürger-Audits“ untersucht, ob die Arbeitsweise des IPCC seinen hehren Ansprüchen gerecht wird und gelangte zu einem vernichtenden Urteil: Der von Regierungen und Massenmedien der ganzen Welt als über jeden Verdacht erhabene Institution behandelte UN-Klimarat sei in Wirklichkeit von WWF- und Greenpeace-Aktivisten unterwandert.

Edgar Gärtner; Zuerst erschienen in der Print Ausgabe vom 6.12.12 der Jungen Freiheit




Teil 2: Die Fallgruben der Klimawandler; Eine Dokumentation der wichtigsten Fakten für eilige Leser

IV

2010 zeigten ca. 70% der NASA-GISS-Temperaturdaten für 1885-2010 keine Erwär­mung an – inzwischen wurden sie korrigiert: jetzt wird es wärmer!

1)    Die 2010-Datensätze….

(sind nicht mehr im Internet vorhanden, wurden aber archiviert) …zeigen:

Die Details werden behandelt in

‚GISS „korrigiert“ seine Temperaturdaten’

Was lehren die GISS-Originaldaten?’

die als kopierfähige PDF-Dateien im Internet-Portal des Europäischen Instituts für Klima und Ener­gie eingesehen werden können (hier ). Die umfangreiche Analyse wurde für die Publikation fertiggestellt und wird gegenwärtig redaktionell bearbeitet.

 V

Das Eis am Nordpol

 Ausdehnung der arktischen Eisfläche verkleinert und vergrößert sich – schon immer

VI

Tuvalu, Funafuti Atoll:  monatliche Schwankungen des Meeresspiegels, 1977-1998, aber kein Anstieg.

VII

Abschmelzen der Gletscher ?

Ja, infolge Rückerwärmung nach dem Ende der Kleinen Eiszeit etwa ab 1820, d.h. 130 Jahre vor dem Beginn der verstärkten industriellen CO2-Produktion

 

VII

Hochwässer – ein Ergebnis des Klimawandels ?  Nein !

 

‚Höchste Hochwässer’ können schon nach wenigen Jahren auftreten, aber auch erst im Abstand von vielen Jahrhunderten, wie in diesem Beispiel.

Am Zusammenfluss von Werra und Fulda dürfte 1342 das Hochwasser mindestens 10 m über den Mittelwasser-Pegel gereicht haben. 

IX

Das 2°-Ziel der Politik

Wie entstand es und was ist Klimawandel wirklich?

Gut begründete kritische Einwände zur Erderwärmung werden seitens der Regierung stereo­typ mit dem Argument abgelehnt, man folge mit der Akzeptanz des 2°-Zieles der offiziellen Politik des Weltklimarates (IPCC). In einem am 28.10.2009 veröffentlichten Interview der Frankfurter Allge­meinen Zeitung haben die Präsidenten des Geoforschungszentrums Pots­dam, Prof. Dr. Hüttl, des Alfred-Wegener-Instituts Bremerhaven, Prof. Dr. Lochte, und des Senckenberg.-Mu­seums, Prof. Dr. Mosbrugger,  das 2°-Ziel als unbegründet und nicht zweckmäßig beurteilt. Trotz dieses Urteils der höchsten geowissenschaftlichen Fachinstanzen hält die Bundesregierung daran fest. Wer die Entstehungsgeschichte dieses Gebotes erfährt, kann nicht glauben, dass eine durch nichts bewiesene und dazu noch völlig fachfremde Annahme zu einem  Handlungsgebot für die ganze Welt mutie­ren konnte. Joachim Müller-Jung, Fachjournalist der FAZ und durch viele Beiträge als Verfech­ter des Modells vom menschengemachten Klimawandel bekannt, hat diese Entstehungsge­schichte am 9.12.2009 in der FAZ in einem gründlichen Beitrag be­handelt. Danach hat die Ge­schichte der Zwei-Grad-Grenze 1977 durch William D. Nordhaus begonnen: Nordhaus war an der Yale-Universität Wirtschaftsprofessor, ohne eigenen Bezug zum Klima und zur Klimaforschung; d.h. das 2°-Ziel ist keine Erfindung der Klimawissenschaft­ler.

Der ursächlich und tatsächlich fehlende Bezug zur Klimaforschung ergibt sich u.a. schon daraus, dass das 2°-Ziel in einer Abkühlungsphase entstand, in der Wissenschaftler eher eine Eiszeit be­fürchteten: Am 25.2.1977 zitierte die Frankfurter Allgemeine Zeitung den amerikanischen Chemi­ker und No­belpreisträger Linus Pauling mit dem Satz: „Die Klimaveränderung könne in eine glo­bale Katast­rophe münden, in den bisher härtesten Test für die Zivilisation“.  Damals fürchtete man sich vor einer neuen Eiszeit, heute vor der Erderwärmung. Am 22.4.2011,  also 34 Jahre später, schreibt  Welt Online dazu: „In den 70-Jahren hatten wir schon mal eine inten­sive Debatte um die Zukunft des Weltklimas. Damals warnten uns die Wissenschaftler aller­dings vor genau dem Ge­genteil: einer neuen Eiszeit. Was aus der Rückschau von heute besonders auffällt: Die erwarte­ten Folgen glichen denen, die heute im Zusammenhang mit der Erder­wär­mung diskutiert werden, wie ein Ei dem anderen: Unbewohnbarkeit der Erde, Extremer­eignisse, Hurri­kane, Dürren, Fluten, Hungerkrisen und andere Katastrophen, die CIA er­wartete Klima­kriege. Auch machte man den Menschen verantwortlich für den sich abzeich­nenden Klimawan­del“. 

Das 2°-Ziel machte Karriere, weil manche Klimaforscher es gelesen oder davon gehört hatten,  seine Anwendbarkeit und Nützlichkeit für ihre Zwecke begriffen, und sich gegenseitig der Be­deu­tung dieses Zieles versicherten. Sein wissenschaftlicher Gehalt erinnert an die Sage von der Wech­selbeziehung  zwischen dem Glöckner von Notre-Dame und dem Kanonier auf der Bas­tille: Wenn der Glöckner um die Mittagszeit sah, dass der Kanonier zur Kanone ging, begann er die Glocke zu läuten, und der erste Glo­ckenschlag veranlasste den Kanonier, den Mittagsschuss abzufeuern.

Carlo Jaeger , Ökonom, Soziologe und Humanökologe und Leiter des Forschungsfeldes Trans­dis­ziplinäre Konzepte und Methoden am Potsdam-Institut für Klimafolgenforschung (PIK), hat in ei­nem Buchkapitel geschrieben "Das Zwei-Grad Limit ist fast zufällig aufge­taucht, und es entwi­ckelte sich dann eigentümlich widersprüchlich weiter: Politiker haben es wie ein wissenschaftli­ches Er­gebnis behandelt, Wissenschaftler als eine politische Angele­genheit."

Weitere von Müller-Jung beschriebene Details können in diesem Rahmen nicht berücksichtigt wer­den. Zusammengefasst zeigt sich, dass ein zufälliger Einfall eines Wirtschaftsprofessors durch Weitererzählen Karriere machen und zum Handlungsgebot für die Welt werden konnte, obwohl ihm jeder kausale Bezug zum Klima fehlt, es keine wissenschaftlichen Begründungen gibt, dafür aber seine Unvereinbarkeit mit Grundgesetzen der Physik bewiesen ist, so dass es schließlich einer Ge­schichte aus einem Märchenbuch gleicht. Gleichwohl  dient es dem PIK und dem WBGU (Wissen­schaftlicher Beirat der Bundes­regierung Globale Umweltverände­rungen) als Handlungsanweisung, einen Weltkli­mavertrag zu fordern. Der WBGU schlägt sogar eine De-Karboni­sierung vor – also eine Begren­zung des Koh­lenstoff-Umsatzes, ungeachtet der Tatsache, dass Kohlenstoff der Grund­baustein un­serer Nahrungsmittel ist, also lebensnotwendig. In der Politik und in führenden Medien gilt das 2°-Ziel längst als sakrosanktes Dogma, das zwar keiner ver­steht oder dessen Entste­hung kennt,  der aber jeden bemitleidet – oder ver­leumdet – , der es zu hinterfragen oder gar zu kri­tisieren wagt.

Von offizieller Seite wird der Begriff „Klimawandel“ mit größter Selbstverständlichkeit benutzt und auf den gegenwärtigen Zustand des Klimas angewandt. Dass es den Klimawan­del gibt, also den von uns Menschen verursachten, scheint inzwischen als allgemein akzeptierte Tatsache ver­standen zu werden. Aber was ist eigentlich Klimawandel? Das Wetter wechselt von Tag zu Tag, oder von Woche zu Woche – etc., aber wie groß muss (darf, soll) eine Änderung sein, um als Klimawandel zu gelten? Wel­ches Kriterium ist ausschlaggebend für den Unterschied zwischen Tem­peratur­schwankungen und Klimawandel? Klare Definitionen gehören zu den Grundlagen der Naturwissen­schaften – schon als Schüler erfährt man, wie beispielsweise unsere Längen­maße definiert sind, und warum. Dass für den Kli­mawandel eine klare De­finition fehlt, ist er­staunlich, wo doch sonst alles mit Maß und Zahl ge­klärt ist. Könnte dies beabsichtigt sein, weil mit der ge­gen­wär­tigen Praxis sich auch schon die kleinen Schwankungen der Gegenwart als Klimawandel propagiert lassen?

Beim „Klimawandel“ wandelt sich ein Klima in ein anderes, und man kann die Größenordnung der einen Klimawandel verursachenden Veränderung abschätzen, wenn man die Mittelwerte der Tem­peraturen mehrerer Klimazonen vergleicht. Beispielsweise unterscheiden sich die Durch­schnitts­temperaturen von Mailand, Berlin und Stockholm um jeweils etwa 3°C, Vergleiche mit subtropi­schen oder periglazialen Zonen ergeben erheblich größere Unterschiede. Ein wirklicher Klimawan­del erfordert folglich Änderungen von wenigen bis einigen Grad. Nun beziffern selbst die wissen­schaftlichen Befürworter des Klimawandels die gegenwärtigen Änderungen mit nur einigen Zehntel Grad und beziehen sich dabei auf die von ihnen zu Grunde gelegte Beo­bachtungszeit seit etwa 1880. Mit regelmäßigen Temperaturaufzeichnungen wurde je­doch schon im 17. Jh. begonnen, und wenn man diese Langzeit-Temperaturreihen berücksichtigt, gelten die Zehntel Grad, um die es in vielen Regionen wärmer geworden ist, sogar schon für die letzten dreihundert Jahre [1,2]. Wir ha­ben es folglich mit der Rückerwärmung nach dem Ende der Kleinen Eis­zeit zu tun und mit den üblichen Temperaturschwankungen, mehr nicht. Der „menschengemachte Kli­mawandel“ ergibt sich nur aus Klima­simulationsmodellen, die Langzeit-Temperaturreihen liefern als Zeugnisse der wirklichen Tempe­raturentwicklungen dafür keine Beweise.

Zum Schluss

Die gemessenen und die beobachtbaren Fakten zei­gen, dass es die üblichen Temperatur­schwan­kungen gibt, die in vielen Regionen der Erde eine geringe Er­wärmung anzeigen, aller­dings auch nicht überall, denn dort dauert die Kleine Eiszeit noch an. Von einem wirk­lichen Klimawandel, noch dazu von einem durch uns verursachten, kann keine Rede sein. Verände­rungen finden in und auf der Erde ständig statt, aber außer Tsunami, Erdbeben und Vulkan­erup­tionen verändert sich die Oberfläche der Erde lang­sam. „Wissenschaftliche“ Szenarien und Prognosen, die auf kurz­fristigen Änderungen beruhen,  sind Scharlatanerie. 

 Prof. em. Dr. Friedrich-Karl-Ewert EIKE

Sehr geehrte Kommentatoren, 
es ist wohl nützlich zu wissen, warum mein Beitrag entstand: Die FDP-Fraktion des Sächsischen Landtags hat in Dresden eine Alternative Klimakonferenz veranstaltet – und zwar sehr gut organisiert, sehr gut besucht, sehr gute Vorträge und mit dem Erfolg, dass die Teilnehmer zum Schluss überzeugt sein konnten, dass weder der angebliche Klimawandel noch unsere Urheberschaft "alternativlos" sind, wie dies dogmatisch regierungsamtlich verkündet wird. Es war zu erwarten, dass auch viele Teilnehmer kommen würden, die mit dem Thema nur wenig oder überhaupt noch nicht vertraut sind – und die auch keine Zeit für ein intensives Detailstudium haben. Um ihnen den Einstieg zu erleichtern und um sie vielleicht auch neugierig zu machen, sich selbst weiter damit zu beschäftigen, wurde diese "Dokumentation der wichtigsten Fakten für eilige Leser" – wie eingangs so benannt – zusammengestellt. Wichtig war mir, dass alle Komplexe behandelt werden, wenn auch leider oft nur in zusammengefasster Form, aber doch wohl ausreichend für eine grundlegende Information. Die in Dresden ausgelegten 50 Exemplare waren schnell vergriffen.

Der Beitrag erhebt keinen Anspruch auf Vollständigkeit, das ist auf 15 Seiten nicht möglich. Es erschien auch zweckmäßig, mit fachlichen Details sparsam umzugehen, eine Überfrachtung mit Wissenschaft zu vermeiden, und sich kurz und knapp zu fassen, und darauf zu vertrauen, dass der Leser das wohl richtig interpretieren würde, und dass die Diskussion den Inhalt vervollständigt. Was ja auch geschieht, wie man schon sieht, und wofür sich der Autor jetzt schon bedanken möchte. Dieser Dank gilt vor allem auch an jene, die in mühevoller Arbeit den Beitrag mit seinen vielen Bildern hier bei EIKE in’s Netz stellen. 

Es folgt noch ein zweiter Teil. Zum Schluss noch der Hinweis, dass der vollständige Beitrag als pdf-Datei kopiert werden kann; seine Verbreitung ist erwünscht, schließlich sind Klimarealisten ehrenamtlich tätige Überzeugungstäter. 
Glück auf,
Friedrich-Karl Ewert 

Die vollständige datei kann hier als undefinedpdf herunter geladen werden

Literatur:

1) Berner U. + Streif HJ (Hrsg): „Klimafakten. Der Rückblick – Ein Schlüssel für die Zukunft.“ BGR, GGA, NLFB; 4.

   Auflage 2004, Schweizerbart, Stuttgart

2) Universität Bern LGGE: Analyse von Lufteinschlüssen im Eis, Stationen Vostok, Taylor Dome, EPICA Dome 

3) Beck H.-G.: 180 years of atmospheric CO2-Gas analysis by chemical methods. Energy and Envi­ronment, Volume

   18, 2/2007, P. 258-282, 14 Figures, 3 Tables

4) J. F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J. Schellnhuber: “Power-law persistence and trends in

   the atmos­phere: A detailed study of long temperature records” PHYSICAL REVIEW E 68, 046133 ~2003!

5)  Ewert F-K: Langzeit-Temperaturreihen widerlegen menschengemachten Klimawandel. Fusion 32, 2011, Nr. 3, S.31-

   61, 29 Abb, 14 Tab.

6) Lüdecke H-J, Link R., Ewert F-K: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface

   Temperature Records? International Journal of Modern Physics C, Vol. 22, No. 10, doi:10.1142/S0129183111016798

   (2011), copyright World Scientific Publishing Company, www.worldscinet.com




Teil 1: Die Fallgruben der Klimawandler – Eine Dokumentation der wichtigsten Fakten für eilige Leser.

Auf der ersten UN-Umweltkonferenz in Stockholm 1972 ging es um Maßnahmen zum Schutze unserer Umwelt. Zwanzig Jahre später, 1992 in Rio de Janeiro wurde der Grundstein für die UN- Klimaverhandlungen gelegt. Es war ein Beginn und man beschloss, solche Konferenzen fortzusetzen, um Maßnahmen zum Schutze des Klimas zu verabreden, denn inzwischen stand der Klimaschutz im Vordergrund: Man glaubte eine globale Erwärmung diagnostiziert zu haben, die vor al-lem durch das Treibhausgas CO2 verursacht würde, und dass es „…um den Planeten zu retten…“ vor allem darauf ankam, die CO2-Emissionen der Industrieländer zu senken. Auf der Konferenz in Kyoto 1997 verabschiedete die Staatengemeinschaft eine Klima-Rahmenkonvention. Man hatte schon vergessen, dass wegen der Abkühlungsphase 1950-1980 in den späten 1970er Jahren noch eine neue Eiszeit befürchtet wurde.

Tatsächlich wurde bis heute nie bewiesen – weil nicht beweisbar – , dass das vom Men­schen di­rekt oder indirekt produzierte CO2 die ihm zugedachte Wirkung hat. Diese Annahme beruht nur auf Modellrechnungen für die künftige Entwicklung der Temperatur. Die Fakten beweisen das Gegen­teil, und weil sie für die Propagandisten und Agitato­ren des Klimawandels zu Fallgruben werden, verweigert man sich konsequent jeder Diskussion – mit Prognosen kann man schließlich keine Fakten widerlegen. Dem entspricht, dass die Diskussion in den Medien und in der Politik die Fakten ausblendet, denn viele ihrer Interessenten ziehen aus diesem Zeitgeist Nutzen, den sie nicht ver­lieren wollen.

Die Fakten sind inzwischen so umfangreich geworden, dass ein Vollstudium erforderlich wäre, wollte man sich damit im Detail auseinandersetzen. Um allen, die das Thema für wichtig hal­ten, einen zusammenfassen Überblick zu verschaffen, werden in dieser Dokumentation die Fakten der wichtigsten Komplexe zusammengefasst, nämlich

·       CO2 ist die Grundlage des Lebens, ist es auch klimawirksam?

·       Temperaturschwankungen oder Klimawandel – was sagen Temperaturmessun­gen ?

·       Warum wurden Temperaturmessungen rückwirkend verändert?

·       Schmilzt das Eis der Arktis ?

·       Steigt der Meeresspiegel ?

·       Schmelzen die Gletscher ?

·       Gibt es mehr Hochwässer ?

·       Was hat das 2°C-Ziel der Politik mit dem Klima zu tun?

Es steht außer Frage, dass wir die Umwelt schützen müssen, aber sicher ist auch, dass wir das Klima nicht beeinflussen können. Wenn man in einigen Jahrzehnten rückblickend die Bemühungen um den ‚Klimaschutz’ beurteilt, wird man erkennen, dass es um die Jahrtausendwende in der Wis­senschaft, in den Medien, in der Politik und in der Gesellschaft Aktivisten gab, die glaubten, das seit 4,5 Mrd. Jahren von der Sonne gesteuerte Klima bestimmen zu kön­nen. Sie blendeten für ihre Zwecke die Kennt­nisse über unsere Erde und unser Sonnensystem aus. Sie gaben für den Glau­ben an die Gefährlichkeit des CO2, für Klimabürokratie und Klimatourismus Aber-Milliarden aus, die für Umwelt­schutz­maßnah­men sehr viel nutzbringender eingesetzt worden wären. In ih­rem blinden Glauben gingen sie sogar soweit, mit dem CO2 den Grundbaustein ihrer eigenen Nahrungsmittel zu verban­nen. Die Mensch­heit hat sich schon oft verhängnisvollen Irrglauben hingegeben – dieser wird für lange Zeit unüber­troffen bleiben, und wie immer wurde er von Teilen der Wissenschaft abgesegnet und von vielen Medien ungeprüft übernommen und einseitig propagiert – auf Kosten der Objekti­vität, denn andere Meinungen wurden totgeschwiegen oder sogar verleumdet.

(Die Quellenangaben befinden sich entweder direkt in den Abbildungen, oder mit # markiert auf der selben Seite,  oder num­me­riert 1) im Literaturverzeichnis am Schluss. 

I

CO2 – Klimakiller?

 

1)    Klimawirksam oder nicht ?

Goethes „Grau treuer Freund ist alle Theorie“ gilt immer noch, auch für die Frage nach der Wir­kung des CO2 auf das Wetter. Die Einen beweisen mit Formeln,  dass es nicht wirkt, die Ande­ren beweisen mit Formeln, dass es zwar wirkt, aber nur in einem so geringen Maße, dass es für das Wetter prak­tisch unerheblich ist. Was folgt daraus für den pragmatisch urteilenden Laien: wenn Formeln und Worte beider Seiten sich wider­sprechen statt Gewissheit zu verschaffen, ist der Sach­verhalt nicht zu klären. Es gibt für dieses theoretische Problem aber eine praktische Lö­sung: man be­wertet die auf der Erde gemessenen Temperaturen, schließlich findet hier das Wetter statt. Dabei stellt man fest, dass sich in den letzten 50 Jahren die Tempera­turen nicht anders ent­wickelt haben als vor dem Beginn unserer CO2-Emissionen. Also wirkt unser zusätzliches CO2 entwe­der gar nicht oder nur so wenig, dass es von den Temperaturmessungen noch nicht erfasst wird.

Tatsächlich geht es nur um das von uns erzeugte CO2, denn die Naturkreisläufe wirkten schon immer. Von allen beteiligten Komponenten kennen wir nur den Anteil, den wir seit etwa 1960 hin­zufügen – es sind kaum 5%. Das außerdem stets neu in den Kreislauf kommende CO2 anderer Zu­lieferer kennen wir nicht: die Verwitterung der Gesteine setzt CO2 frei, Vulkane und Förderschlote im Meer liefern ständig unbe­kannte und zeitlich wechselnde CO2-Mengen, allein der Ätna entlässt täglich 35.000 t. Das CO2 der Meere, der Luft, des Bodens und der Biosphäre tau­scht sich ge­gen­seitig aus. We­der diese Kreisläufe noch die CO2-Gesamtmenge und schon gar nicht die Wirkung unseres sehr kleinen Anteiles sind bekannt, fall es sie gibt. 

 

2. Angeblicher Verursacher des angeblichen Klimawandels ?

>> Analysen von Lufteinschlüssen im Eis zeigen:

  • Die sich ändernden CO2-Gehalte der Atmosphäre waren seit 600 Mill. Jahren zumeist sehr viel höher als heute, was weder der Bio­sphäre geschadet noch Eiszeiten verhindert hat1).
  • Auch seit 800.000 Jahren variierten die CO2– und CH4-Gehalte (blau bzw. grün) in Abhängig­keit von der Tem­peratur (rot)2)

>> Das IPCC nimmt an, der CO2-Gehalt wäre seit 2000 Jahren ungefähr gleich geblieben, lässt aber die seit 1810 verfügbaren chemisch direkt bestimmten Analysenwerte unberücksichtigt. Ihre Aus­wertung zeigt, dass schon vor 1950 größere CO2-Gehalte gemessen wurden als heute3)

.

>>  Die CO2-Gehalte der Meere, der  Atmosphäre und der Biosphäre bilden einen Kreislauf. Wenn die Meere wärmer werden, tritt CO2 in die Atmosphäre über – und umge­kehrt. Langfristig variiert CO2 mit der Temperatur, aber wegen der Trägheit der Meere ist der Übertritt stark verzögert.

 

>>  Durch die Verzögerung kommt es zu gegenläufigen Entwicklungen: der CO2-Gehalt sinkt noch, obwohl die Temperatur schon wieder steigt (links)3) – und umgekehrt, wie seit 1995, rechts darge­stellt seit 2003. Örtliche Einflussfaktoren bewirken regional individuelle Entwicklungen

>>  CO2 ist ein Spurengas; der anthropogene Anteil am Naturkreislauf beträgt kaum 5%. CO2 ist der Grundbaustein der Nahrungsmittel1) – ohne CO2  kein Leben; mehr CO2 – mehr Getreide

 

 

Unser zusätzlicher CO2–Anteil ist als Klimagas irrelevant. Aber um einem Zweck zu dienen, soll die Welt umlernen: CO2 ist schädlich! Dass es schon ohne uns mehr gab, dass es uns ernährt, wird verschwiegen !

II

Temperaturschwankungen oder Klimawandel – und warum?

Paläoklimatologen wissen, dass sowohl Temperaturschwankungen von wenigen Zehntel Grad als auch wirk­liche Klimawandel von einigen Grad in 100 Jahren normal sind. Wer Temperaturänderungen beur­teilen will, muss sie mit früheren vergleichen, d.h. im Rahmen von Langzeitentwicklungen beurteilen – eine Erwär­mungsphase alleine liefert noch keinen Maßstab.  Die letzten 1000 Jahre waren durch das Mittelalterliche Klimaoptimum, die Kleine Eiszeit – Ackerbau in Grönland, Hunger in Europa – und eine neue Erwärmung gekennzeichnet. Diese Rückerwärmung begann nach 1700, sie wurde zwischenzeitlich von geringer werden­den Abkühlungen unterbrochen. Es ist ungewiss, ob sie schon beendet ist. Jede Analyse hat diese Entwick­lung als Teil der Rückerwärmung zu begreifen, und wer den gegenwärtigen Zu­stand beurteilen will, darf nicht nur die Temperaturdaten der letzten 120 Jahre berücksichtigen, son­dern muss auch die Langzeit-Tem­peraturreihen aus den vergangenen Jahrhunderten bewerten.

Langzeit-Temperaturreihen

Als ab 1654 das erste zuverlässige Thermometer verfügbar war, wurden bald regelmäßig Temperaturmes­sungen und Aufzeichnungen durchgeführt. Es wurde üblich, Temperaturganglinien darzustellen, die die ständigen Schwankungen und Langzeitänderungen der Temperatur anzeigen. Die älteste Ganglinie ist aus Mittelengland verfügbar, sie beginnt 1659; die zweitälteste beginnt 1701 in Berlin. Bald danach wurden an­dere Stationen in Betrieb genommen. Heute sind Langzeit-Temperaturreihen in mehreren Internetpor­talen verfügbar. Schellnhuber et alt. haben nach der Analyse von 95 Stationen weltweit festgestellt, „In der großen Mehrzahl der Stationen haben wir Anzeichen für eine globale Erwärmung der Atmo­sphäre nicht gesehen“.4) Der Autor hat die Daten von 82 frühen Stationen ausgewertet.5) Davon sind die drei ältesten Ganglinien in Abbildung 1 dargestellt. Sie zeigen beispielhaft, dass schon immer und auch schon vor der Industrialisierung mit seiner anthropogenen CO2-Produktion schnellere und stärkere Er­wärmungen und Ab­kühlun­gen statt fanden als gegenwärtig. Der Vergleich mit den früheren Jahrhunder­tern lehrt, dass die Tem­peraturganglinien auch für das Industriezeitalter keinen nennenswerten menschen-gemachten Einfluss des CO2 auf das Klima anzeigen.

Abbildung 1:

Central England, Berlin und De Bilt, Beispiele für Langzeit-Temperaturreihen von  82 Stationen, weltweit

Wie die folgenden Kennwerte zeigen, sind die Änderungsraten klein. Dementsprechend hat kein wirkli­cher Klimawandel statt gefunden, der Änderungen von einigen Grad erfordert, sondern lediglich Tempe­ratur­schwankungen. Auch die sind nur in etwa drei Vierteln der Thermometer-Regionen erfolgt, während sich in den restlichen die Abküh­lung fort­gesetzt hat. Weiter ist zu bedenken, dass die Temperaturen nur auf etwa 10% der Erdoberfläche gemessen werden, denn in den Ozeanen, Wüsten, Eisflächen, Hochge­birgen, Urwäl­dern und Sumpfgebieten fehlen Stationen.

Kurzzeit-Temperaturreihen

Der Datenpool der NASA enthält Kurzzeit-Temperaturreihen, die 1895 beginnen. Die Daten von 2249 Stati­onen wurden ausgewertet, denn sie enthalten (fast) lückenlose Datenreihen für die Intervalle 1905-1955, 1955-2005 und 1905-20056). Eine weitere Auswertung der im Jahre 2010 von NASA-GISS angebotenen Daten für den Zeitraum 1895-2010 wurde für die welt­weit verfügbaren 1110 Stationen mit lückenlosen Da­tenreihen durchgeführt. Dabei wurden Ganglinien mit ihren Änderungsraten sowohl für die gesamte Reihe als auch für deren aufein­anderfol­genden Erwärmungs- und Abkühlungsphasen bestimmt, wie Ab­bildung 3 beispielhaft zeigt. Die insgesamt daraus resultierenden etwa 5500 Ganglinien werden gegenwärtig im zwei­ten Teil der Auswertung den geo­graphischen Einheiten zugeordnet. Die Ergebnisse dieser Auswer­tung wer­den wie folgt zusam­men­gefasst und sind in den Abbildungen 2 und 3 illustriert  

  • Die Temperatur korreliert mit der Sonnenaktivität, nicht mit der CO2-Produktion.

·       Während des 20. Jahrhunderts gab es zwei Erwärmungsphasen; die wirksamste erfolgte zwischen 1920 und 1950, also vor der verstärkten anthropogenen CO2-Produktion.

  • Obwohl die durch den Menschen verstärkte CO2-Emmissionen – ca. 5% des natürlichen CO2-Kreis­lau­fes – eine Erwärmung verursacht haben sollen, fand 1950-1980 eine Abkühlung statt.
  • Eine weitere Abkühlungs­phase begann 1998, sie dauert noch an und wird entgegen der IPCC-Er­war­tung von 801 Stationen (= 72,2%) registriert.

 

#)  Robinson A.B., Robinson N.E., and Soon W.: Environmental effects of increased atmos­pheric Carbon Dioxide. Jour­nal of Ameri­can Physicians and Surgeons, 12/2007, 27 Fig­ures

III

Langzeit-Temperaturmessungen beweisen: die Sonne bestimmt das Klima

                                             

1. )   Änderungen der Sonneneinstrahlung und der Temperaturen

Die zweite Abbildung (Solar Irradiance von 1600 bis 2000) bezieht sich auf den ganz rechten Zeitabschnitt der darüberliegenden Comnispa Kurve (dort -0,4 bis 0)

       

2.)  Globale Mitteltemperaturen im Vergleich zu realen Temperaturganglinien          
 

Das linke Diagramm zeigt, dass der verstärkte Verbrauch von Kohle, Öl und Gas erst nach 1940 eingesetzt hat – und damit die industrielle Produktion von CO2. Trotzdem korreliert die Temperatur mit der Sonnenein­strahlung (links). In den Berichten für Poli­tiker zeigt der IPCC die glo­bale Erwärmung mit einem Dia­gramm, das die Tempe­ratur im über­höhten Maßstab darstellt, was den Eindruck einer dramatischen Er­wär­mung nach 1980 ver­mittelt (Mitte); GISS be­nutzt ein fast ähn­liches  (rechts). Mit dem folgenden Vergleich wird gezeigt, dass es diese dramatische Erwärmung – oder irgendeine andere besondere Entwicklung – nicht gegeben hat. 

Ende Teil 1 wird fortgesetzt.

Sehr geehrte Kommentatoren, 
es ist wohl nützlich zu wissen, warum mein Beitrag entstand: Die FDP-Fraktion des Sächsischen Landtags hat in Dresden eine Alternative Klimakonferenz veranstaltet – und zwar sehr gut organisiert, sehr gut besucht, sehr gute Vorträge und mit dem Erfolg, dass die Teilnehmer zum Schluss überzeugt sein konnten, dass weder der angebliche Klimawandel noch unsere Urheberschaft "alternativlos" sind, wie dies dogmatisch regierungsamtlich verkündet wird. Es war zu erwarten, dass auch viele Teilnehmer kommen würden, die mit dem Thema nur wenig oder überhaupt noch nicht vertraut sind – und die auch keine Zeit für ein intensives Detailstudium haben. Um ihnen den Einstieg zu erleichtern und um sie vielleicht auch neugierig zu machen, sich selbst weiter damit zu beschäftigen, wurde diese "Dokumentation der wichtigsten Fakten für eilige Leser" – wie eingangs so benannt – zusammengestellt. Wichtig war mir, dass alle Komplexe behandelt werden, wenn auch leider oft nur in zusammengefasster Form, aber doch wohl ausreichend für eine grundlegende Information. Die in Dresden ausgelegten 50 Exemplare waren schnell vergriffen.

Der Beitrag erhebt keinen Anspruch auf Vollständigkeit, das ist auf 15 Seiten nicht möglich. Es erschien auch zweckmäßig, mit fachlichen Details sparsam umzugehen, eine Überfrachtung mit Wissenschaft zu vermeiden, und sich kurz und knapp zu fassen, und darauf zu vertrauen, dass der Leser das wohl richtig interpretieren würde, und dass die Diskussion den Inhalt vervollständigt. Was ja auch geschieht, wie man schon sieht, und wofür sich der Autor jetzt schon bedanken möchte. Dieser Dank gilt vor allem auch an jene, die in mühevoller Arbeit den Beitrag mit seinen vielen Bildern hier bei EIKE in’s Netz stellen. 

Es folgt noch ein zweiter Teil. Zum Schluss noch der Hinweis, dass der vollständige Beitrag als pdf-Datei kopiert werden kann; seine Verbreitung ist erwünscht, schließlich sind Klimarealisten ehrenamtlich tätige Überzeugungstäter. 
Glück auf,
Friedrich-Karl Ewert 

Prof.em. Dr. Friedrich-Karl Ewert EIKE

Den vollständigen Bericht können Sie hier als undefinedpdf herunterladen