1

Grüner Staatssekretär Rainer Baake – „Mastermind“ der Energiewende, Teil II

♦ Zwischen 1974 und 1978 war er Aktivist in der Community Organizer Szene von Chicago, die versuchte, durch Infiltration von Regierungen, Verbänden und Instituten, ihre Vorstellungen zu sozialen Reformen mit möglichst vielen Agitationen zu beeinflussen, finanziert durch Stiftungen.

  Seit seiner 1983 bestehenden Mitgliedschaft bei den Grünen und als Unterstützer der Öko-Bewegung zeigte er sich von Anfang an als ein ideologisch geschulter Anti-Nuc- und Pro-Energiewende Aktivist.

 Als Beamteter Staatssekretär im hessischen Umweltministerium (1991 bis 1998) hatte er von Amtswegen auch eine Verantwortung für das hessische Oberbergamt und somit auch für das/die unter Bergrecht 1979 genehmigte Endlager/Untertage-Deponie für hoch-toxische Abfälle Herfa-Neurode. In dieser Zeit ist er schon als ideologisch gesteuerter, taktisch geschickter Zerstörer von funktionierenden technischen Betrieben bekannt geworden.

 Als Beamteter Staatsekretär im Bundesumweltministerium (1998 bis 2005) und als Beamteter Staatsekretär im Bundesministerium für Wirtschaft und Energie (seit 2014) hat er sich nicht nur für das Abschalten der deutschen Kernkraftwerke eingesetzt, sondern auch für das Quasi-Ende von Gorleben.

In dem Text I sind die Details zu den einzelnen Berufsabschnitten zusammengestellt:

Teil II

Thesen der Agora Energiewende (Dichtung und Wahrheit)

Die Energiewende – korrekter: Wende der Stromerzeugung – ist der Kurzbegriff für die politisch durchgesetzte Wende der Energieversorgung Deutschlands: Das früher robuste und wirtschaftliche System der Energieerzeugung, das auf einem Mix aus Kernenergie, Kohle, Öl, Gas und ‚Erneuerbareren‘  beruhte, wird abgelöst von einer neuen Energieversorgung alleine auf Basis Erneuerbarer Energie (EE) – Windkraft, Sonnenenergie, Wasserkraft, Biomasse und Erdwärme. Die wesentlichen Gründe für diese quasi-religiös fundamentalistische Wende in der Energieversorgung werden dargestellt und im Einzelnen aus naturwissenschaftlicher technischer und ökonomischer Sicht beleuchtet und bewertet: 

♦ Risikovorsorge: Die Risiken der Kernenergie sind prinzipiell nicht beherrschbar. Dies haben die Reaktorkatastrophen in Tschernobyl und Fukushima gezeigt.

Diese Einschätzung entspricht nicht der weltweiten Erfahrung. Zum einen ist die Technik des Tschernobyl Reaktors nicht mit der Technik der zur Stromgewinnung genutzten Reaktoren vergleichbar, von denen heute 441 in Betrieb sind, deren Betriebszeit laufend erneuert wird und von denen weltweit 66 in Bau sind. Bei der Fukushima-Havarie widerstand der Reaktor einem extrem kräftigen Erdbeben der Stärke 9 auf der Richterskala und einer sehr hohen Tsunami-Welle. Grund der Havarie war eine fehlerhafte Standortauswahl (Fukushima und die German Angst“*). Nach Einschätzung der UNSCEAR und der WHO sind biologische Folgen durch radioaktive Strahlung nach Fukushima keine zusätzlichen Krebsrisiken festgestellt worden. Von den beiden Organisationen zeigt der statistische Vergleich zur Todesrate nach Energiequellen, bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): Kernkraft 90, Wind 150, Solar auf Hausdächern 440, Wasserkraft 1.400 Erdgas 4.000, Biotreibstoffe/Biomasse 24.000, Öl 36.000 und Kohle 100.000.

Zudem ist der hochradioaktive Abfall aus Kernkraftwerken für Hunderttausende von Jahren äußerst giftig, ohne dass bisher eine Lösung für die Endlagerung gefunden wäre.

Diese Aussage ist grundsätzlich falsch, denn die Physik, die Chemie und die lang-zeitliche Entwicklung geologischer Prozesse (Evolution) zeigt, dass sich die Radioaktivität von abgebrannten Brennelementen in rund 100.000 Jahren auf die natürliche Radioaktivität der Natur reduziert, die Radioaktivität wieder aufgearbeiteter Abfälle in etwa auf 10.000 Jahren und die Radioaktivität der bei der Transmutation entstehenden Abfälle in etwa 300 Jahren. Zusätzlich haben ausführliche Studien nachgewiesen (Gorleben – Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet*), dass es bisher beim Gorleben Endlagerprojekt keine Erkenntnisse gibt, die gegen eine Eignung sprechen. Auch zeigt das Endlager/die Untertage Deponie Herfa-Neurode, dass eine Entsorgung von hoch-toxischen Abfällen, die in alle Ewigkeit hoch-toxisch bleiben, in tiefen geologischen Formationen in Deutschland genehmigungsfähig ist. Dies sollte Baake aus seiner Zeit als Beamteter Staatssekretär im Hessischen Umweltministerium doch aus seiner Vergangenheit wissen. Zur Verdeutlichung des Sachverhaltes wird zum einen auf das in Finnland gerade genehmigte Endlager für hoch-radioaktive Abfälle und zum anderen auf das natürliche Endlager von Oklo in Gabun hingewiesen, das bis ins Detail untersucht wurde und dessen Entstehung deshalb bestens bekannt ist (Offener Brief an kirchliche Würdenträger – Rückfall ins Mittelalter“*). Zusätzlich ist heute zu fragen, ob in Zukunft eine Entsorgung von radioaktiven Abfällen in tiefen geologischen Formationen überhaupt noch notwendig ist. Möglicherweise nein, denn im Juni 2014 ging der neue Reaktortyp BN-800 im russischen Kernkraftwerk Beloyarsk in Betrieb, der als Brennstoff die bei der Transmutation entstehenden Abfälle energetisch nutzt.

Klimaschutz: Bei der Verbrennung von Kohle, Öl und Gas entstehen klimaschädliche Treibhausgasemissionen, die die Hauptverursacher für den Klimawandel sind.

Zu diesen erheblichen Schwankungen des Klimas als Folge geologischer Prozesse, die das Klima seit Jahrmillionen ständig beeinflussen, weist ein Kommentar von Herrn Rademacher, einem nicht von der Industrie bezahlten Geologen und Journalist der F.A.Z hin („Die Erde hat kein Thermostat, Die Natur lebt, F.A.Z. vom 16. Dez.): „… Schaut man durch die Brille der Geowissenschaften auf die Prämissen und Zielsetzungen der Pariser Klimakonferenz, bleibt ein bitterer Beigeschmack. Der Grund dafür sind die ‚2 Grad‘ und ‚1,5Grad‘, die als Zielmarke der Maximalerwärmung Vertragsinhalt geworden ist. Solche Zielwerte scheinen die gesamte Diskussion über die globale Erwärmung verblüffend einfach auf einen Punkt zu bringen … Nicht nur ist diese Sicht für einen Geowissenschaftler allzu vereinfachend, sie entspricht auch nicht der Natur. Die Erde selbst hat sich nämlich im Rahmen ihrer natürlichen Variabilität im Laufe der Erdgeschichte nie an das 1,5-Grad-Ziel gehalten. Selbst in den vergangenen tausend Jahren gab es mindestens zwei, jeweils mehrere Jahrzehnte oder gar Jahrhunderte lange Episoden, in denen die mittleren Temperaturen um mehr als 1,5 Grad von den langjährigen Mittelwerten abwichen. Während des „Mittelalterlichen Klimaoptimums“ war es in Mitteleuropa und auf den Britischen Inseln erheblich wärmer als zuvor und danach. In der „Kleinen Eiszeit“ im 17. Jahrhundert war es dagegen weitaus kälter. Welche natürlichen Vorgänge hinter diesen Klimaschwankungen standen, ist wissenschaftlich noch nicht erwiesen, klar ist aber eins: Menschliche Aktivitäten, vor allem die Verbrennung fossilen Kohlenstoffs, können nicht dafür verantwortlich gewesen sein.

Eine andere natürliche Quelle substantieller Änderungen der globalen Mitteltemperatur sind Vulkanausbrüche. Sobald große Mengen Schwefeldioxid in die höheren Schichten der Atmosphäre gelangen, blockieren die daraus entstehenden Aerosole das Sonnenlicht und kühlen den Planeten. Allein der Ausbruch des Pinatubo auf den Philippinen im Jahre 1991 sorgte über einige Jahre für eine Abkühlung der Nordhalbkugel von bis zu 0,6 Grad. Dabei war diese Eruption nicht nicht einmal richtig stark.Welche Auswirkungen hätten weit heftigere Ausbrüche wie die des Novarupta  (1912) oder die des Tambora (1815) oder gar Megaeruptionen wie die des Laacher Sees, der Yellowstone Caldera oder des Crater Lake im amerikanischen Bundesstaat Oregon?…“

Ein weiterer, fehlender Hinweis bei der Klimadiskussion ist, auf die seit Jahrmilliarden sehr aktiven Plattenverschiebungen und ihre Auswirkungen hinzuweisen. Alleine die mittelatlantische Spreizungszone (Mittelatlantischer Rücken), die vom Nordpol bis zum Südpol reicht, vergrößert sich jährlich im Durchschnitt um mehr als einen Zentimeter. Hinzu kommen die sonstigen unablässig stattfindenden Plattenverschiebungen und Bewegungen an den geologischen Verschluckungszonen. Wegen diesen kontinuierlich andauernden, gewaltigen Gesteins- Massenverschiebungen – die Erdkruste ist im Durchschnitt 35 km dick – muss sich kontinuierlich die Erdachse verschieben, damit der Globus nicht auseinander fliegt, ihn somit in ‚Wucht‘ hält – wie die Bleigewichte beim Reifenwechsel. Als Folge dieser endlosen Erdachseverschiebungen werden die für das Klima wichtigen Meeresströmungen kontinuierlich beeinflusst. Beispielhaft sei hier genannt: Das Erdbeben von Fukushima verschob Honshu, die Hauptinsel von Japan, 2,4 Meter nach Osten und bewegte die Erdachse um 10 bis 25 cm („Fukushima und die German Angst*).

Sogar Patrick Moor, Mitbegründer von GREENPEACE bringt es auf den Punkt (EIKE,20.01.2016): „Die einzige Konstante beim Klima ist der Wandel, im Leben, wie beim Klima. Nichts am derzeitigen Klimawandeln ist unnatürlich. Alles läuft in sattsam bekannten historisch eher mäßigen Bahnen ab. Kurz und bündig!“

Knappe Ressourcen: Kohle, Öl und Gas sind endlich. Je knapper sie werden, desto teurer wird ein auf fossile Energieträger basierendes Energiesystem.

Die Behauptungen des Clubs of Rome, natürliche Rohstoffressourcen seien endlich, berücksichtigen, wie schon oben näher erläutert, nicht unseren naturwissenschaftlichen Erkenntnissen. Trotzdem bleibt bei Laien der Glaube an die vom Club of Rome weltweit verkündete Behauptung, natürliche Ressourcen seien endlich, wie in Stein gemeißelt.

Wertschöpfung vor Ort: Während ein großer Teil der bisherigen Energieträger (insbesondere Öl, Gas, Uran und Steinkohle) importiert wird, sind die Erneuerbaren Energien heimische Energien, die somit die Wertschöpfung vor Ort erhöhen und die Importabhängigkeit reduzieren.

Diese Begründung ist reiner Unsinn! Deshalb nur folgender Kommentar: Wenn wir uns nur auf die in unserem Land vorkommenden Rohstoffe konzentrieren sollten, müssten wir in Deutschland wieder viele völlig unwirtschaftliche Bergwerke in Betrieb nehmen! Das würde wirklich teuer für Deutschland werden, noch teurer als die Energiewende – denn nicht zuletzt die politischen Gesinnungsgenossen des Beamteten Staatssekretärs Baake würden großen Spaß daran haben, diese mit lautstarken Protesten, von Medien zielgerichtet unterstützt, zu verhindern!

Zwölf Thesen zur deutschen Energiewende

Als Beamteter Staatssekretär war Baake engster Mitstreiter des grünen hessischen Umweltministers Joschka Fischer. Später (1998 bis 2005) organisierte er als Beamteter Umwelt-Staatssekretär der Regierung Schröder den Atomausstieg. Seine politische Überzeugung für eine Energiewende nahm er 2006 aus dem Bundesumweltministerium zur Deutschen Umwelthilfe und dann 2012 bis 2013 zur Denkfabrik Agora Energiewende mit. Beide Organisationen führten ihn nach Berlin. Noch als Agora-Chef hatte er seine zusammengewürfelten „Zwölf Thesen zur Energiewende“ vorgestellt, ohne auf die wesentlichsten Rahmenbedingungen für einen solch folgenschweren Technologiewechsel einzugehen. Trotzdem dienen ihm diese Thesen bis heute als Blaupause.

Der erste Hauptsatz seiner Deutschen Energiewende lautet:

1. Im Mittelpunkt stehen Wind und Solar! Denn sie sind die preiswertesten Erneuerbare-Energien-      Technologien und haben das größte Potenzial. Dies wird das Stromsystem und den Strommarkt   fundamental verändern. Aus diesem Hauptsatz der Energiewende leiten sich die anderen Thesen  der Publikation ab:

2. Es gibt keine „Grundlastkraftwerke“ mehr. Gas- und Kohlekraftwerke arbeiten Teilzeit

3. Flexibilität gibt es reichlich – nur  lohnt sie sich bislang nicht

4. Netze sind billiger als Speicher

5. Die Sicherung der Höchstlast ist kostengünstiger

6. Die Integration des Wärmesektors ist sinnvoll

7. Der heutige Strommarkt handelt Kilowattstunden – er garantiert keine Versorgungssicherheit

8. Am Grenzkostenmarkt können sich Wind und Photovoltaik prinzipiell nicht refinanzieren

9. Ein neuer Energiewende-Markt ist erforderlich

10. Der Energiewende-Markt bindet die Nachfrageseite aktiv ein

11.Der Energiewende-Markt muss im europäischen Kontext gedacht werden

12.Effizienz: Eine gesparte Kilowattstunde ist die günstigste.“

Seit dem 09.01.2014 ist Baake Beamteter Staatssekretär im Bundesministerium für Wirtschaft und Energie.

Nach dem oben Gesagten erübrigt sich eine Bewertung dieser eher wirren, unzusammenhängenden Thesen, denn sie werden, wie jeder erkennen kann, der Komplexität der naturwissenschaftlichen, technischen, ökonomischen und auch ökologischen Herausforderungen einer effizienten Strompolitik bei weitem nicht gerecht, sondern zeigt nur, auf welch wackeligen Beinen die bombastische Baake’sche Energiewende steht. Vor allem, was die jährlich steigenden Kosten für die Stromkunden in Höhe von 28 Milliarden Euro betrifft.  In der genannten Summe sind noch nicht die hohen Abschreibungskosten für die vorzeitige und deshalb unwirtschaftliche Abschaltung der deutschen Kernkraftwerke, deren Entsorgung und die Kosten für eine bei Adam und Eva wieder beginnenden Endlagersuche enthalten. Sie müssen vor allem von den weniger begüterten Bürgern und der Wirtschaft bezahlt werden, nicht dagegen von dem großen Kreis von Subvention-Gewinnlern in der Bürgerschaft, in den Kommunen und in der Industrie. Wo bleibt seine in den USA gelernte Überzeugung, die Machtlosen und Besitzlosen müssten mit allen Mittel unterstützt werden? War der Zwang zur Macht zu groß? Auch kann man in diesem Zusammenhang fragen, ob man bei den großzügigen, Wende bedingten, für jahrelang garantierten Subventionen indirekt auch an einen Kauf von Stimmen gedacht hat?. Diese Liste ist aber auch ein interessanter Hinweis auf die philanthropische Denkweise des Beamteten Staatssekretärs und auf seine ideologisch stark grüne, bar jeder naturwissenschaftlichen, technischen und ökonomischen Erfahrung. Diese Ablehnung der fundamentalen Gesetze der Geologie könnte bei ihm fast ein Hinweis auf sein im Hintergrund bestehender Glaube an den  Kreationismus sein **).  Nicht nur ideologische sondern auch sektiererische Glaubensrichtungen, die in den USA und zum Teil auch in Deutschland zu finden sind, könnten den sehr teuren Generationspfusch des „Masterminds“ und seine nur in Deutschland vorangetriebenen Energiewende erklären. Denn von 33 Ländern vernichtet nur das eine Land Deutschland seine weltweit führende technische und umweltfreundliche Kernenergiewirtschaft.

Was ist der Grund für diese sehr deutsche Entwicklung?

Hier stellt sich nun die interessante Frage, wie und warum sich nur in Deutschland eine derart irrationale Politik entwickeln konnte und warum die Mehrheit der deutschen Gesellschaft dieser Ideologie auf den Leim gegangen ist. Eine wesentliche von sicherlich mehreren Gründen zeigt der beruflich Werdegang des  Beamteten Staatssekretärs Baake, der bis heute, trotz seiner verantwortlichen Stellung in der Gesellschaft, einen großen Zwiespalt zwischen rationaler und ideologisch geprägter Politik zu zeigen scheint. Deshalb einige Worte zur Erinnerung: Anfang der 70iger Jahre war die Bundesrepublik inmitten eines gesellschaftlichen Wandels, der zunehmend vor allem von der linken Studentenbewegung politisch aktiviert und bis heute zum Teil noch von der Politik und in den Medien gesteuert wird. Dieser Wandel war geleitet von neuen Utopien und den Möglichkeiten für alternative Lebensstile: Systeme seien veränderbar und Moral sei relativ meinten sie wohl. Die mit der linken Selbstbestimmung einhergehende Kritik an bestehenden Institutionen, die sich zunehmend mit der tiefen Angst vor realen und unrealen Umweltgefahren steuern ließ, erfasste insbesondere die deutsche Politik. Denn wie keine andere Protestbewegung ließ sich mit einer ökologistischen grünen Ideologie zusammen mit linkem Gedankengut die zukünftige Apokalypse der Menschheit definieren. Die dabei propagierten großspurigen Behauptungen entsprachen zum großen Teil – wie sich heute zeigt – nicht der Realität. Trotzdem wurden und werden sie von der Regierung bis heute als politische Leitlinien genutzt, um die deutsche Gesellschaft zu verwirren und für das eigene, ausgeprägte Machtstreben zu nutzen („’Die German Angst‘, von H. Fuchs und R. Kamradek“*). Und das bisher mit politischem Erfolg. Doch heute erkennt man, dass sich für viele Bereiche des täglichen Lebens die Behauptung wie die Endlichkeit der Ressourcen, die Gefahren der Kernkraft, die Unmöglichkeit einer sicheren Endlagerung, der Klimakatastrophe und letztendlich auch einer sehr großzügigen, offenen Multikulti-Kultur, die Deutschland bis Ende 2017 etwa 50 Milliarden Euro kosten dürftete ( F.A.Z. vom 02.02.2016), nicht erfüllt haben und nicht erfüllen werden.

Die engen, ideologischen und finanziellen Kontakte zu bekannten Nichtregierungsorganisationen  und insbesondere zu Stiftungen aus den Vereinigten Staaten aber auch Deutschland sprechen bei dem Beamteten Staatssekretär Baake für sich. Denn deren Visionen – die für viele gesellschaftliche Herausforderungen zugegebener maßen Gutes tun wollen – erklären seine ideologisch geschulte   Glaubensgesinnung, verbunden mit philanthropischen Gefühlen. Auch sein  Glaube, die wirklichen Ursachen der größtenteils natürlich bedingten Klimaschwankungen beeinflussen zu können – nicht zuletzt durch seinen Versuch, die Erdachse festhalten zu wollen -, scheint unendlich zu sein. Seine messianische Überzeugung, Rohstoffe sind endlich, Kernkraftwerke seien des Teufels und Langzeit sichere Endlager/Untertage-Deponien seien einer Hybris von Geologen, Bergingenieuren und Kernphysikern geschuldet, stimmt mit den weltweiten Fakten nicht über ein: WHO-Bericht, 443 Kernkraftwerke weltweit, Erfahrungen vom Endlager Herfa-Neurode und dem natürlichen Endlager von Oklo in Gabun und so weiter. Hinter diesen quasi religiösen Glaubensbekenntnissen dürfte bei ihm eher ein sehr großer Wille zur Macht stehen.

Fazit: Der Beamtete Staatsekretär Baake, Mastermind der deutschen Energiewende, wird als geschickter und knallharter Zerstörer einer marktwirtschaftlichen Stromwirtschaft und als fehlgeleiteter Planer und Umsetzer einer neuen, planwirtschaftlich gesteuerten, einer hochsubventionierten und einer die Natur und die Umwelt verschandelnden Energiewirtschaft in die Geschichtsbücher eingehen.

Ein Rückblick auf ein halbes Jahrhundert

Welche Bundesregierung hat den Wohlstand gemehrt, welche verzehrt? In seiner sehr lehrreichen Abschiedsvorlesung knöpft sich Prof. Sinn (F.A.Z. 16 Dezember 2015) der bekannteste deutsche Ökonom die deutsche Wirtschaftspolitik vor: „… Auch die Energiepolitik ist ausschließlich gesinnungsethisch zu begründen, denn sie kann nun einmal keinen Beitrag zur Verringerung der Erderwärmung leisten. Bekanntlich kann das Erneuerbare-Energien-Gesetz mit seinen Einspeisetarifen den Kohlendioxid-Ausstoß in Europa nicht verändern, weil der schon durch die Menge der von der EU ausgegebenen Emissionszertifikate definiert ist. Und nicht einmal der europäische Emissionshandel selbst kann weltweit etwas bewirken, weil die Mengen an fossilen Brennstoffen, die Europa nicht verbraucht, anderswo angeliefert und verbrannt werden. Man hätte es Max Weber wirklich gegönnt, dieses Anwendungsbeispiel für seine Unterscheidung erleben zu können.

Der Unterschied zwischen der Gesinnungsethik und der Verantwortungsethik liegt darin, dass man für Erstere keinen Sachverstand braucht. Da man bereits die Stellschrauben der Wirtschaftsmaschinerie moralisch bewertet, muss man nicht wissen, wie sie funktioniert. Man kann munter drauflos moralisieren und dann zu einer politisch rationalen, wenn auch ökonomisch unvernünftigen und klimapolitisch wirkungslosen Entscheidung gelangen.

Wer indes verantwortungsethisch handeln möchte, muss ökonomischen Sachverstand haben, weil er wissen muss, wie die Maschinerie auf die Bewegung der Stellschrauben reagiert. Weil er Moral und Ethik nur auf das wirtschaftliche Endergebnis anwendet, braucht er Weitsicht und Durchhaltevermögen. Das gilt heute mehr denn je, weil der öffentliche Diskurs in der Zeit der Internet-Medien kurzatmig, oberflächlich und unkundig geworden ist.

Ökonomen sind gelernte Verantwortungsethiker, denn ihr Fach besteht gerade darin, die Wirtschaftsmaschinerie als solche zu studieren. Sie wollen mit nur schwachen Werturteilen zu möglichst harten und klaren Politikempfehlungen kommen und scheuen die Moralisierung auf der Ebene der Politikmaßnahmen wie die Pest. Dass viele das als herzlos empfinden oder den Sachverstand bezweifeln, ohne ihn selbst zu haben, ist in Kauf zu nehmen…“

***

*) genaue Erläuterungen zu den Einzelthemen sind in meinen Veröffentlichungen enthalten und bei Google unter den genannten Titeln zu finden.

**)  Kreationismus (Google)

Der Kreationismus entstand im 19. Jahrhundert als Widerstand gegen das Postulat eines hohen Erdalters und die darwinsche Evolutionstheorie. Heute richtet sich der Kreationismus gegen die moderne Naturwissenschaften und Atheismus. Seine größte Bedeutung hat der Kreationismus in den christlich-fundamentalistischen und evangelikalen Richtungen in den USA. … In seinen verschiedenen Formen rangiert er zwischen Religionslehren und Pseudowissenschaft. … Heute dominiert die Theorie des Kurzzeit-Kreationismus, der die Schöpfungstage als Kalendertage auffasst. Danach kommt man auf ein Weltalter von 6000 bis maximal 12000 Jahren. Diese Annahmen sind mit nahezu allen Feldern der Naturwissenschaften unvereinbar, also ist der Kreationismus gezwungen, beispielsweise Physik und Geologie neu zu konstruieren.

Auch wenn der Kreationismus in der Öffentlichkeit kaum präsent ist, gehört er in einem Teil der evangelikalen Bewegung und in den meisten Freikirchen in Deutschland inzwischen zu ihrer Weltdeutung. Hier hält man es für selbstverständlich, dass die Bibel Recht und die Naturwissenschaften Unrecht hat. … In freikirchlichem Raum hat sich als Autorität für die Ablehnung der Evolutionstheorie etabliert. Ein Kreis von mehreren tausend Personen unterstützen die Studiengemeinschaft ‚Wort und Wissen‘. Sie ist vermutlich die personell und wissenschaftlich am besten ausgestaltete kreationistische Organisation in Europa.




Kohlenstoff und Carbonate

Bild rechts: Coccolithophore. Quelle

Auf der Grundlage meiner Erfahrung und meines Wissens habe ich eine Reihe von Beiträgen geschrieben über das, was ich als erstaunliche Reaktions- und Anpassungsfähigkeit der im Ozean lebenden Lebensformen ansehe. Ich habe wiederholt gesagt, dass die geringe Neutralisierung der Ozeane infolge eines höheren atmosphärischen CO2-Gehaltes bedeutungslos ist und dass den ozeanischen Lebensformen eine solche Änderung nichts ausmachen würde.

Daher habe ich laut gelacht, als mir die jüngste Studie im Magazin Science unter die Augen kam, in der es um Coccolithophores [Kieselalgen?] ging. Das sind Kalk bildende Pflanzen, welche die schönsten und komplexesten Skelette aus Kalziumkarbonat bilden, welches sie dem Meerwasser entnehmen.

Der Studie zufolge hat die Anzahl der Coccolithophores im Nordatlantik während der letzten Jahre um das Zehnfache zugenommen. Mit anderen Worten, anstatt Coccolithophores in 2% des Planktons in den Schleppnetzen zu finden, findet man jetzt 20%. Man führte eine multivariable Analyse durch und kam zu dem Ergebnis, dass die Zunahme von CO2 der Hauptgrund für die Zunahme der Coccolithophores-Vielfalt sei. Die Studie trägt den Titel „Multidecadal increase in North Atlantic coccolithophores and the potential role of rising CO2” und findet sich hier hinter einer Zahlschranke.

Diese Studie ist bedeutsam, weil der Zustand der Ozeane eines der größten Themen der reihenweise scheiternden Klimauntergangs-Propheten ist. Die Alarmisten behaupten, dass die leichte Neutralisierung des Ozeans es den Kalk bildenden Organismen schwerer macht, ihre Kalzium-Skelette zu bilden. Allerdings zeigt die Studie, dass dies für die Coccolithophores nicht gilt. Aus dem Magazin:

Durchführung eines Säure-Tests

Kalk bildende maritime Organismen werden allgemein größere Schwierigkeiten haben, ihre Karbonat-Skelette zu bilden und zu erhalten, da eine steigende Konzentration des atmosphärischen CO2-Gehaltes die Ozeane versauern lässt. Nichtsdestotrotz werden einige Typen von Organismen stärker geschädigt als andere, und einige können sogar von dem höheren CO2-Niveau profitieren. Coccolithophores sind hierfür ein Beispiel, weil deren photosynthetisches Vermögen stark Kohlenstoff-limitiert ist. Rivero-Calle et al. zeigen, dass die Vielfalt von Coccolithophores im Nordatlantik bis zu 20% während der letzten 50 Jahre zugenommen hat. Folglich könnte diese wichtige Phytoplankton-Gruppe sich an eine Zukunft mit höherem CO2-Gehalt anpassen.

Abstract

Da anthropogene CO2-Emissionen die Ozeane versauern lassen, wird allgemein erwartet, dass Kalk bildende Lebensformen negativ beeinflusst werden. Allerdings zeigen wir mittels Daten des Continuous Plankton Recorder, dass das Vorkommen von Coccolithophores im Nordatlantik von etwa 2% auf über 20% zugenommen hat, im Zeitraum von 1965 bis 2010. Wir haben bestimmte Modelle [nämlich random forest models] angewendet, um über 20 mögliche Umwelttreiber dieser Änderung zu untersuchen. Wir finden, dass CO2 und die Atlantische Multidekadische Oszillation die besten Prädiktoren waren. Dies führt uns zu der Hypothese, dass ein höheres CO2-Niveau das Wachstum fördern könnte. Eine Sichtung 41 unabhängiger Laborstudien stützt unsere Hypothese. Unsere Studie zeigt eine langfristige Zunahme der Coccolithophores im Maßstab von Ozeanbecken. Sie zeigt, dass steigendes CO2 und steigende Temperatur das Wachstum dieser Phytoplankton-Gruppe beschleunigt hat, was wichtig ist für den Kohlenstoff-Kreislauf.

Ich habe schon immer gesagt und sage es auch jetzt wieder: Hinsichtlich des Ozeans habe ich eine Faustregel:

In den Ozeanen dirigiert nicht die Chemie das Leben – stattdessen dirigiert das Leben die Chemie!

Und diese Faustregel hat eine logische Konsequenz:

Das Leben ist raffiniert – und wird einen Weg finden, auch durch Steine zu wachsen!

Dies ist ein perfektes Beispiel. Leben hat die Gewohnheit, chemische Reaktionen in unerwartete Richtungen zu lenken, und das mit einem Tempo, dass nirgendwo außerhalb lebender Kreaturen angetroffen wird. Trotz der chemischen Realität gestiegenen CO2-Gehaltes, was den Ausfall von CaCO3 schwieriger macht, widmen die Coccolithophores dem Umstand nur geringe Aufmerksamkeit, wie steil der energetische Hügel ist. Sie wachsen einfach, und in diesem Falle sogar schneller denn je.

Ich finde das sehr wichtig, weil die Coccolithophores der Studie zufolge verantwortlich gemacht werden für etwa die Hälfte allen ausfallenden Kalziumkarbonates (CaCO3) in den Ozeanen. Die Hälfte. Das ist viel.

Folgt man nun dieser Kette von Auswirkungen zum nächsten logischen Schritt, hatt die Rate, mit der CO2 aus dem Ozean als CaCO3 herausgefiltert wird, Auswirkungen auf den Grad der Neutralisierung des Ozeans infolge des gestiegenen atmosphärischen CO2-Gehaltes.

In Anlehnung an Mark Twain lautet meine Schlussfolgerung, dass die Gerüchte über den Tod der Ozeane durch mehr CO2 gewaltig übertrieben sind.

Link: http://wattsupwiththat.com/2016/01/30/carbon-and-carbonate/

Übersetzt von Chris Frey EIKE




Aktualisierung zum wärmsten Jahr jemals: El Nino-Effekt 2015 war 20 mal größer als das Signal der globalen Erwärmung

Bild rechts: Wassertemperatur-Anomalie im Pazifik vom 7.2.2016. Quelle

Graphik 1 zeigt die monatliche Temperatur-Anomalie nach HadCRUT4 im Zeitraum 1880 bis 2015. Mit eingezeichnet ist auch eine LOESS-Kurve für die HadCRUT4-Daten. Die LOESS-Kurve wurde erzeugt mittels multipler lokaler Regressionen, wobei für jede Regression Daten von 20 Jahren verwendet worden sind.

Man erkennt in Graphik 1, dass die jüngste Periode konsistenter Erwärmung um das Jahr 1975 eingesetzt und sich bis zum Ende des Zeitraumes (Dezember 2015) fortgesetzt hat. Die LOESS-Kurve zeigt, dass der Erwärmungstrend halbwegs linear verläuft von 1975 bis 2015. Für diesen Zeitraum wird eine lineare Regression durchgeführt.

Graphik 2 zeigt die monatliche Temperatur-Anomalie nach HadCRUT4 von 1975 bis 2015. Ebenfalls eingezeichnet ist eine lineare Regressionslinie über den gleichen Zeitraum. Die Neigung der Regressionslinie beträgt 0,0175°C pro Jahr. Die Gesamterwärmung von 1975 bis 2015 beträgt fast 0,72°C.

Die Temperaturänderung zwischen Ende 2014 und Ende 2015 beträgt 0,371°C (siehe Berechnung 1 – alle Berechnungen werden am Ende dieses Beitrags dokumentiert).

Wir wissen durch die lineare Regression, dass die Temperaturänderung aufgrund der Globalen Erwärmung für ein Jahr 0,0175°C beträgt. Daher können wir berechnen, dass die Erwärmung aufgrund des El Nino 0,3535°C beträgt (siehe Berechnung 2).

Dies bedeutet, dass die Temperaturänderung aufgrund des El Nino über 20 mal größer war als die Temperaturänderung aufgrund der Globalen Erwärmung (siehe Berechnung 3). Mit anderen Worten, El Nino war für über 95% der Temperaturänderung zwischen Ende 2014 und Ende 2015 verantwortlich.

Die Ergebnisse für die unterschiedlichen Temperaturreihen zeigt die folgende Tabelle:

Die prozentuale Änderung aufgrund des El Nino variiert für die 4 Temperaturreihen zwischen 94,3% und 95,3%. Die prozentuale Änderung aufgrund der Globalen Erwärmung variiert zwischen 4,7% und 5,7% in den 4 Temperaturreihen – eine sehr konsistente Ergebnismenge.

Diese Berechnungen sind einfach durchzuführen. Die Ergebnisse sind eindeutig. Sie sollten keine Überraschung sein für jeden, der mit dem Klima vertraut ist. Man denke an den El Nino 1998. Die Temperatur zeigte eine Spitze, um gleich danach wieder abzufallen. Diese Temperaturspitze war nicht auf die Globale Erwärmung, sondern auf den El Nino zurückzuführen. Erwarten die Klimawissenschaftler etwa, dass bei diesem El Nino alles ganz anders ist?

Daher kommt es überraschend, dass eine Reihe von Klimawissenschaftlern Statements abgegeben hat, die den Effekt des El Nino minimieren und den Effekt der Globalen Erwärmung übertreiben.

Bei der Lektüre der folgenden Aussagen sollte man sich immer daran erinnern, dass El Nino für etwa 95% der Temperaturänderung zwischen Ende 2014 und Ende 2015 verantwortlich war. El Nino verursachte eine Temperaturzunahme um 0,32°C, aber die Klimawissenschaftler behaupten, dass es nur wenige hundertstel Grad seien.

1) Zitate aus einem Artikel unter der Überschrift [übersetzt] „Analyse: wie wurde 2015 zum wärmsten Jahr jemals“ bei carbonbrief.org:

Steigende Treibhausgas-Konzentrationen und ein „kleiner Beitrag“ von El Nino im Pazifik führten zusammen zu den Rekordtemperaturen des Jahres 2015, sagt Prof. Adam Scaife vom UKMO.

Wie groß ist der Beitrag zu den Rekordtemperaturen 2015 durch El Nino?

El Nino wurde 2015 immer stärker und erreichte sein Maximum erst in diesem Winter. Daher glauben wir, dass der El Nino nur einen kleinen Beitrag (ein paar hundertstel Grad) zu den Rekordtemperaturen des Jahres 2015 beigetragen hat (Prof. Adam Scaife).

Bedeutet dies, dass menschliche Aktivitäten der größte Treiber der Rekordtemperatur 2015 waren?

Ja. Die nominelle globale mittlere Rekordtemperatur 2015 war im Voraus gut vorhergesagt und gut erklärt worden als primär der globalen Erwärmung geschuldet. Diese wiederum ist hauptsächlich Treibhausgas-Emissionen geschuldet, hauptsächlich menschlichen Ursprungs. El Nino leistete nur einen geringen Beitrag (Prof. Adam Scaife).

2) Zitate aus einem Artikel mit der Überschrift [übersetzt] „Wie stark hat El Nino die globale Temperatur im Jahre 2015 getrieben?“ bei carbonbrief.org:

Carbon Brief hat mit Klimawissenschaftlern gesprochen, die sich mit dieser Frage befasst hatten. Sie scheinen alle darin übereinzustimmen, dass El Nino irgendwo bei 10% für die Rekordwärme 2015 verantwortlich war.

Dr. Gavin Schmidt, Direktor des GISS der NASA, beschrieb den fortgesetzten Anstieg der globalen Temperaturen als „assistiert“ von El Nino.

Als Teil der Berichterstattung von Carbon Brief zum Thema wärmstes Jahr sprachen wir mit Dr. Adam Scaife, Leiter der Abteilung für Langfrist-Vorhersagen am UK Met.-Office. Scaife wies dem El Nino nur eine oberflächliche Rolle zu und sagte Carbon Brief:

Wir glauben, dass El Nino nur einen kleinen Beitrag zu den Rekordtemperaturen 2015 geleistet hat (ein paar hundertstel Grad).

Schmidt schätzte, dass der El Nino für einen Anteil von 0,07°C über der mittleren Erwärmung verantwortlich war, die wir 2015 erlebt haben.

Ein kurzer Vergleich der Zahlen von Schmidt oder Cropper mit der Temperaturanomalie der NASA für das Jahr 2015 von 0,87°C über dem Mittel von 1951 bis 1980 zeigt, dass El Nino einen Beitrag von 8% bis 10% geleistet hat.

Stott sagt Carbon Brief: Eine Schätzung unter 0,1°C infolge El Nino zur globalen jährlichen mittleren Temperatur ist weniger als 10% der Erwärmung von etwa 1°C im Jahre 2015 relativ zum vorindustriellen Niveau.

Mit anderen Worten, El Nino leistete „einen kleinen Beitrag zusätzlich“ zu der Erwärmung durch Treibhausgase, sagt Stott.

[Die Auflistung obiger Aussagen scheint im Original irgendwie durcheinander geraten zu sein. Aber vielleicht irre ich mich da auch. Anm. d. Übers.]

Es gibt keinen Zweifel daran, dass der El Nino, der sich 2015 entwickelt hatte und immer noch im Gange ist, ungewöhnlich stark war, sogar außerordentlich. Aber mit einem Beitrag irgendwo um die 10%-Marke scheint den Wissenschaftlern zufolge klar zu sein, dass El Nino nicht für die Rekordwärme 2015 verantwortlich gemacht werden kann. Tatsächlich soll dieser Beitrag außerordentlich gering gewesen sein.

Alle diese Wissenschaftler scheinen aus dem gleichen Liederbuch vorzusingen!

Ich würde gerne erleben, dass diese Wissenschaftler ihre Kommentare rechtfertigen, und zwar unter Verwendung numerischer Berechnungen, um zu zeigen, woher sie ihre Zahlen haben. Ich habe meine Methode hier vollständig dokumentiert. Falls irgendjemand in meinen Berechnungen einen Fehler entdeckt, bitte melden!

—————————-

Berechnungen.

1)  [December 2015 anomaly] minus [December 2014 anomaly] = 1.005 – 0.634 = 0.371 °C.

2)  [Total warming 2014/2015] minus [warming due to Global Warming] = 0.371 – 0.0175 = 0.3535 °C.

3)  [warming due to El Nino] divided by [warming due to Global Warming] = 0.3535 / 0.0175 = 20.2

4)  [warming due to El Nino] times 100 divided by [Total warming 2014/2015] = 0.3535 * 100 / 0.371 = 95.28 %

5)  [warming due to Global Warming] times 100 divided by [Total warming 2014/2015] = 0.0175 * 100 / 0.371 = 4.72 %

Link: http://wattsupwiththat.com/2016/02/04/hottest-year-ever-update-el-nino-effect-in-2015-was-20-times-larger-than-the-global-warming-signal/

Übersetzt von Chris Frey EIKE




Marokko setzt Maßstäbe – im Verschwenden von internationalen (Klimaschutz)-geldern. Aber mit dem Wohlwollen und Förderung Deutschlands und der Weltbank

Das islamische Königreich Marokko  ist bisher nicht  unbedingt als Silikon Valley Afrikas bekannt. Eher ist es bekannt durch seine technische wie entwicklungs-bedingte Rückständigkeit, die sich durch große Armut weiter Teile der Bevölkerung bei gleichzeitiger rigider Herrschaft des muslimischen Königshauses,  derzeit von König Mohamed VI. angeführt , manifestiert.  Auch dadurch immer wieder hierzulande ins Bewusstsein gebracht, weil Marokko einen erheblichen Teil seiner männlichen Jugend als  „Flüchtlinge“  nach Westeuropa – vorzugsweise nach Deutschland entsorgt. 

Doch zwei  Güter hat Marokko im Überfluss: Riesige leere Flächen und sehr viel  Sonne. Incl. des umstrittenen Gebietes Westsahara ist Marokko etwa doppelt so groß wie Deutschland und beherbergt dabei nur ca. 33 Mio Einwohner. Und helle Sonnentage gibt es, von wenigen Ausnahmen abgesehen, das ganze Jahr über. Also gute Voraussetzungen um die  notorische Schwäche der sog. „Erneuerbare“ Energien, nämlich die äußerst geringe Energiedichte , was gleichbedeutend ist mit riesigem Flächenbedarf um die Energie einzusammeln,  nicht zu wichtig zu nehmen und darüber hinaus die Spendierlaune der klimaängstlichen Länder, voran Deutschland zu nutzen, um billiges, so gut wie geschenktes Geld für „klimafreundliche“ Investitionen ins Land zu bringen.  Und deshalb hieß das Motto „Think big“.

Trotz oder wegen der damals bereits absehbaren peinlichen Pleite des Projektes Desertec begann man in Marokko 2012 das Projekt Noor (arabisch für Licht) zu entwickeln. Anders als bei Desertec und auch anders als beim spanischen Pleitekraftwerk Andasol nämlicher Bauart, baute man hier von vornherein auf – durch wirtschaftliche Argumente wenig zu beeindruckende- staatliche Geldgeber. Das war clever!

Das Projekt Noor

 Wikipedia zeigt uns die erwartete Leistung , die Technik und, wenn auch nur ungefähr und sehr verwirrend, die Kosten der Anlagen. Noor soll nach Fertigstellung mal das größte Solarkraftwerk der Welt werden. Und dieser Tage wurde die erste Projektstufe  Noor 1 in Betrieb genommen.

Anlage Max. Leistung (MW) Typ Betriebsbeginn   Invest    
1 160 Parabolrinnenkraftwerk Februar 2016   1,04 Mrd. €[1]    
2 200 Parabolrinnenkraftwerk in Bau   Ca. 0,6 Mrd. €[2]    
3 160 Solarturmkraftwerk in Bau   Ca. 0,6 Mrd. €    
4 50 Solarpark (Photovoltaik) geplant   Noch in Planung    

Tabelle 1 Anzahl, geplante Leistung (peak), Betriebsart und Investitionshöhe der Projektteile  von Noor in  Ouarzazate. Die ZEIT berichtet über Gesamtkosten NOOR I-III von 3,5 Mrd. €. Ein Wert der durch die hier angestellten Vergleichsrechnungen sehr viel wahrscheinlicher zu sein scheint

Insgesamt sollen es also mal 3 Solarthermie-Kraftwerke mit  einer Spitzenleistung von 520 MW werden. Zusätzlich ist für später noch ein PVA Kraftwerk mit 50 MW Spitzenleistung geplant. Damit erreichte das Noor-Projekt zwar nur knapp 50 % der Leistung eines einzigen modernen Kohlekraftwerks, aber immerhin, es wäre das größte Solarkraftwerk der Welt.

Der Investitionsbedarf  für die ersten 3 Anlagenteile wird von der finanzierenden KfW -eher stark untertreibend (siehe Fußnote 2)-  mit 2,2 Mrd. € angegeben, was ungefähr dem gut 4 fachen der Investition  eines Kohlekraftwerkes gleicher Leistungsfähigkeit entspricht.  Legt man die potentiell lieferbare  Energie- vulgo Strom- menge  zugrunde, so erhöht sich dieser Faktor auf etwa 8. Doch dazu später mehr. Bei anderen Quellen findet man einen Finanzbedarf von 3,5 Mrd €, was nach den Andasol Erfahrungen der Wahrheit wohl näher kommen dürfte.

Aber da das Geld dafür sozusagen fast geschenkt ist, wenn auch der Steuerzahler nirgends, auch nicht in Deutschland, gefragt wurde, ob er sein Geld dafür hergeben wolle, kann man es dem Betreibern – die marokkanische ACWA Power und Moroccan Agency For Solar Energy (MASEN) nicht übelnehmen, wenn sie sich aus dieser reichlich sprudelnden Geldquelle bedienen.

Deutschland –immer als Vorreiter gut- ist immerhin mit  38 % oder gut 840 Mio. € mit von der Partie. Weil, so wird das begründet: es eben um den Klimaschutz geht. Und der fängt – wenn schon die Verteidigung am Hindukusch nicht so recht geklappt hat – ab sofort in Marokko an.

Also gesagt getan. Für den guten Zweck des Klimaschutzes waren staatliche Finanziers[3]  die über reichlich Steuergelder gebieten, rasch gefunden. Ein geringer Rest  blieb aber offen, für den ein privater Investor gesucht wird. Bei den Garantien, welche die Staatsfinanziers zu geben imstande sind, dürfte das  sicher kein großes Problem sein. Der Anschein der privaten Mitfinanzierung bleibt gewahrt

Die Technik

Bei den ersten drei Projektstufen handelt es sich um Solarthermie. Noor I besteht aus riesigen  zylindrisch-parabolischen Hohlspiegeln (jeder 3 x 7 m), die der Sonne nachgeführt werden und die Strahlung auf eine mit synthetischem Trägeröl gefülltes zentrales Rohr konzentrieren. Das wird durch die Strahlung von knapp 300 auf knapp 400 ° C erhitzt. Die Spiegel sind in Vierer-Gruppen und diese wieder in 400 Reihen von je 300 m Länge angeordnet. Das synthetische Trägeröl erhitzt sowohl Wasserdampf für die Turbine als auch das Salzgemisch für den Wärmesalzspeicher.  Für die Vorerwärmung des Trägeröls und zur Verhinderung, dass es bei Nacht unter seinen Gefrierpunkt von 8 ° C abkühlt, wird ein Dieselaggregat mit Heizung eingesetzt, dass ca. 19 t Diesel pro Tag verbraucht. Mit diesem Dieseleinsatz hätten übrigens rd. 23 GWh jährlich an Elektrizität erzeugt werden können.

Kosten

Schauen wir uns nun die Kosten näher an und unterstellen  dabei die Investitionskosten für Noor I in Höhe von. 1.042 Mrd. €. Diese hat das damit befasste National  Renewable Energy Laboratoium Marokkos NREL[4] angegeben. Bei einer Laufzeit von 25 Jahren, nur 3 % Verzinsung und 6 % Wartungskosten dürften für den erzeugten Strom dann ca. 0,13 €/kWh anfallen.

Das ist etwa 3 x mehr als bei einem Diesel- oder Kohlekraftwerk entstehen würden. Rechnet man die laufenden Betriebskosten incl. des notwendigen Personals für die Riesenanlage sowie die notwendige Abschreibung (über die garantierten 25 Jahre), hinzu dann sind es bereits 0,24 €/kWh und für die Rücklagenbildung zur Wiederbeschaffung, Unvorhergesehenes oder gar Gewinn, bleibt immer noch nichts. Damit sind wir also schon recht dicht bei den 0,30 €/kWh die das systemgleiche aber kleinere Andasol Kraftwerk seinen Kunden berechnet.

Bei Wikipedia finden wir zusammengefassten Medienberichte über die angepeilten Stromkosten. Die Autoren vermelden, dass die Kosten pro kWh nur bei 12 ct bzw. bei 18,9 $ct liegen werden. Letztere sind 17,01 €ct. Ein Wert, den das schon erwähnte NREL ermittelt hat. Rechnet man diese Werte nach, so wird schnell klar, dass sich bei diesen Meldungen mal wieder die PR Abteilungen der Projektierer (Prokon lässt grüßen) durchgesetzt haben, um die Journalisten zu Lobpreisungen zu veranlassen. Was diese auch redlich taten.

Doch sei es wie es sei, egal ob die Herstellkosten bei 24, oder 17 oder 13 oder gar 12 ct/kWh liegen, in jedem Fall ist das für den Endverbraucherpreis incl. Vertrieb etc. deutlich mehr als was Diesel- oder Gasstrom in Marokko kostet und damit mehr als der marokkanische Verbraucher zahlen kann. Deswegen werden diese Stromkosten auch vom marokkanischen Staat runter subventioniert.

Die zu liefernde Energiemenge bleibt ungewiss

Die Kosten sind von  mir nach bestem Gewissen und unter Nutzung der vorhanden Daten überschlägig berechnet worden. Leider wird die Schlüsselzahl, nämlich der Menge der projektierten jährlichen Elektroenergiemenge nirgends erwähnt. Um diese zu ermitteln behelfe ich mich mit der überall genannten „Einsparung“ an CO2.

Lt. verschiedener Medien liegt diese bei ca. 240.000 t CO2 per anno. Mittels der Umrechnung von 0,34 kg CO2/KWh [5] für Steinkohle errechnen sich  rd. 706 GWh pro Jahr, die das Solar-Kraftwerk zu erzeugen im Stande wäre.  Doch diese Menge ergäbe bereits einen Nutzungsgrad von 50 % im Jahr. Und das hieße, dass dieses solare Kraftwerk – dass ja direkt und ausschließlich seinen Brennstoff von der Sonne bezieht, an jedem Tag den Allah in diesem Lande werden lässt, 12 h lang Volllast liefern könnte. Der zugehörige Flüssig-Salz-Speicher ist für 3 h Volllast ausgelegt, wie man den NREL Daten entnehmen kann. Auch dessen Energiefüllung müsste aber zuvor erbracht werden. Also müssen in den 12 h eines jeden  Tages die volle Nennleistung plus der zu speichernden Energiefüllung erbracht werden. Eine eher unwahrscheinliche Annahme, auch wenn man die starke Sonneneinstrahlung in diesem Land berücksichtigt. Denn auch in Marokko scheint die Sonne nachts nicht, Jahreszeiten sind auch nicht unbekannt, und mag auch die Dämmerung kurz sein, sie ist jedenfalls vorhanden.

Fazit:

Marokko hat sich ein Minikraftwerk von  gerade mal 160 MW (im Endausbau dann 520 MW + PVA Teil) auf einer Riesenfläche von -im Endausbau- 30 Quadratkilometern, von den meist westlichen staatlichen Kreditgebern bezahlen lassen. Das war sehr clever.

Trotzdem muss es den erzeugten Strom bezuschussen, da die Endpreise dort lediglich bei 11 bis 13 ct/KWh[6] liegen.  Bei diesem Projekt liegen jedoch schon die Herstellkosten mindestens bei 13 ct/kWh, bei Einbeziehung realer Kosten würden sie etwa das Doppelte erreichen.

Noch cleverer wäre es allerdings gewesen, weil  Marokko mit Sicherheit – von den Kosten, der Verfügbarkeit und der zu liefernden Strommenge her-  wesentlich günstiger gefahren wäre, hätte man dort normale Kredite aufgenommen, um damit ein modernes Kraftwerk zu bauen, und seinen Strombedarf z.B. per Dieselerzeugung zu decken.  Bei einem Wirkungsgrad der Stromerzeugung von 33 %  hätten für die Mini-Leistung von Noor 1 gerade mal 6 Dieselmotoren des Typs Wärtsilä-Sulzer mit je 80 MW Leistung ausgereicht.

Mit dem Unterschied, dass diese Diesel –Generatoren nicht nur einen geringen Bruchteil der Solar-Investitionen gekostet hätten. Auch der Platzbedarf wäre viel, viel geringer. Zudem hätten sie schön dezentral, nahe den Verbrauchszentren aufgebaut und im Dauerbetrieb mit bis zu 90 % Nutzungsgrad betrieben werden können.

Damit wären dann auch die doppelte Anzahl der Bewohner, als die von dem Noor Projekt Versorgten, in den Genuss wirklich billigen Stroms gekommen. Der Staat Marokko hätte diesen auch nicht subventionieren müssen.

Ein Nachteil wäre aber geblieben und hätte nicht ausgeräumt werden können. Die Medien hätten darüber nicht, oder wenn, dann nur negativ berichtet. 

Vielleicht war das der Grund, warum König Mohammed VI so scharf auf das Noor Projekt war. Oder er glaubt wirklich, dass sein heißes Königreich, mit Temperaturen bis zu 50 °C, dank des Klimawandels und ohne seine Gegenmaßnahmen mittels Noor, noch heißer würde? Diese Gefahr – sollte sie je bestanden haben- ist aber vielleicht jetzt gebannt. Wenn man an die Märchen aus 1001 Nacht glaubt,  


[1] Siehe http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270

[2] Siehe : KfW Bericht https://www.kfw.de/KfW-Konzern/Newsroom/Themen-Kompakt/Marokko/Projektbeschreibung_Ouarzazate_April2013-SgJ.pdf. Die dort genannten Werte sind aber nicht sehr glaubwürdig, weil hier unterstellt wird, dass sogar um 25 % größere Anlagen wie NOORoII um 40 % billiger gebaut werden können. Noch dazu vom selben Anlagenbauer

[3] Lt KfW beteiligen sich die Europäische Kommission, die Europäische Investitionsbank, die Französische Entwicklungsbank (Agence Française de Développement), der Clean Technology Fund, die Afrikanische Entwicklungsbank, die Moroccan Agency for Solar Energy und ein per Ausschreibung gefundener privater Investor

[4] Quelle http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270. Auch der günstigere Wert von 0,27 kG CO2/KWh für Diesel ergäbe zwar eine höhere Energielieferung, würde aber die Probleme der zu hohen Produktionskosten nicht beheben.

[5] Quelle: http://volker-quaschning.de/datserv/CO2-spez/index.php

[6] Quelle http://marokko.ahk.de/fileadmin/ahk_marokko/2013_Events/2014-01-15_EI_EEn_Factsheet_Solar-_Windenergie.pdf




Initialisierungs-Verfahren disqualifizieren die IPCC-GCMs für die meisten Zwecke der Vorhersagen zum Klimawandel

Die meisten Menschen würden zustimmen, dass die Globalen Zirkulations-Modelle (Global Circulation model) GCMs primär konstruiert worden sind, um eine Bandbreite globaler und regionaler Feuchtigkeits- und Temperaturvorhersagen für Zeiträume zu erstellen, die von Jahrzehnten bis zu Jahrhunderten reichen. Diese Modelle werden jetzt reaktiviert für vieljährige bis dekadische Klimavorhersagen in zahlreichen spezifischen Unterregionen des Planeten.

GCMs fressen erhebliche Summen Geldes aus nationalen Förderquellen. Es kann sein, dass über 1,5 Milliarden Dollar Förderung der [US-]Bundesregierung während der letzten Jahrzehnte direkt in die Entwicklung von GCMs geflossen sind. Falls sie weiterhin öffentliche Gelder mit der gegenwärtigen Rate verschlingen, sollte man erwarten, dass GCMs sich auch mittels angemessener Vorhersageleistungen rentieren. Aus diesem Grunde, und einfach weil es öffentlich finanzierte Modelle sind, sind GCMs und deren Nachfolgeprodukte verpflichtet, Kalibrierungen transparent zu dokumentieren, und zwar bei jeder Anwendung.

Kein normaler Physiker oder Ingenieur würde großes Vertrauen in Modelle setzen, die keine transparente Dokumentation von Kalibrierungen zur Verfügung stellen. Viele einschließlich ich selbst argumentieren, dass sogar Modelle, welche tatsächlich Leistungen zeigen, auch etwas Vertrauen verdienen, jedoch nicht sehr weit in die Zukunft. Wie kommt es dann, dass die primären GCMs des IPCC weder die Modell-Genauigkeit noch Transparenz in Verbindung mit ihren Vorhersagen zeitigen?

Dieser Beitrag wurde geschrieben, um die überraschend schlechten Vorhersageleistungen zu erkunden, zusammen mit der genauso schlechten Dokumentation von Kalibrierungen dieser GCMs. Bei der Einführung zu diesem Thema möchte ich mich im Wesentlichen auf meine kürzlich gemachten Erfahrungen stützen, indem ich meine eigenen Ergebnisse mit denen der GCMs vergleiche. Bei diesen Bemühungen habe ich auch von den beispiellosen und undurchsichtigen Praktiken der Ersetzung von Modellergebnissen durch nicht veröffentlichte Daten erfahren. Diese Praxis ist eine neue Variante von Standardmodell-Initialisierungen.

Wer mit meinen bisherigen Begegnungen mit den ozeanischen pH-Daten (Wallace 2015) vertraut ist, kann eventuell die Ironie erkennen. Im Falle der ozeanischen pH-Werte wurden große gemessene Datenmengen durch nicht veröffentlichte Modellergebnisse ersetzt. In diesem GCM-Fall sind große Mengen von Modellergebnissen durch nicht veröffentlichte Beobachtungsdaten ersetzt worden.

Der jüngste Satz technischer und damit zusammenhängender Veröffentlichungen (WG1 AR5) des IPCC sind de facto Referenzen für die Überprüfung der GCMs. Eine damit zusammenhängende und oft zitierte Studie (Meehl et al. 2009) umreißt auch den neu definierten Zweck der GCMs. Den Autoren zufolge haben die Modelle inzwischen ihr primäres Ziel der Validierung von Treibhausgasen als Treiber einer langzeitlichen Erwärmung erreicht. Die Studie untersucht, wie diese GCMs als Nächstes angewendet werden zum Vorteil für Gesellschaften, indem regionalisierte Produkte erzeugt werden über kürzere Zeiträume, also über Jahre bis Jahrzehnte. Die Studie führt die Leser auch in die Studien der Coupled Model Intercomparison Project (CMIP) ein. Diese CMIP-Aktivitäten machen die primäre Dokumentation der Kalibrierungen der GCMs aus (Vorhersageleistungen, die zur Historie passen).

Teils aufgrund dieser Informationsquellen verlassen sich Viele im relevanten Ressourcen-Management wahrscheinlich bis zu einem gewissen Grad auf die IPCC-basierten dekadischen Vorhersagen zum Klimawandel. Diese Domäne der Klimavorhersage überlappt sich rein zufällig mit dem Gegenstand meiner eigenen kleinen Beschäftigung mit der Klimavorhersage – siehe http://www.abeqas.com.

Mein Verfahren der Klimavorhersage basiert im Wesentlichen auf Regression (RB) im Vergleich zu der deterministischen Modellierungs-Strategie des IPCC. Trotz dieses bedeutenden Unterschiedes koexistieren meine Produkte und die GCMs im gleichen allgemeinen Spektrum von Klimavorhersagen. Abbildung 1 (übernommen von Meehl et al.) zeigt einige Größenordnungen der Vorhersagbarkeit in Bezug auf Ziele der Klimavorhersage. Die damit in Beziehung stehenden Vorhersage-Größenordnungen meiner Firma werden durch das unterste schattierte Band erläutert, welches ich der Originalabbildung hinzugefügt habe.

Abbildung 1: MWA-Vorhersagen umfassen ähnliche Bandbreiten wie die jüngst umgewidmeten IPCC-Modelle. Unsere Verfahren basieren ausschließlich auf verzögerten Korrelationen zu natürlichen oszillatorischen Antrieben. Abbildung übernommen aus Meehl et al. 2009.

Die Abbildungen 2 und 3 sind repräsentativ für einige Klimavorhersageprodukte meiner Firma. In diesem Beispiel haben wir 5-year trailing average flow rate* eines mountain streams* für 3 bis 6 Jahre im Voraus vorhergesagt. In Abbildung 2 habe ich eine Zeitlinie (grüne durchgezogene Linie) des jährlichen mittleren Flusses dieses streams* dargestellt, und zwar via der Beobachtungen des Pegels des Pecos-Flusses nahe der Stadt Pecos im nördlichen New Mexico. Die über diese Zeitlinie gelegten offenen blauen Kreise sind meine Vorhersagen des stream flow*, und zwar auf der Grundlage von „Ozean-Antriebs“-Informationen aus vielen früheren Jahren.

[Kursiv gesetzte Termini mit * entziehen sich meinen Übersetzungskenntnissen. Anm. d. Übers.]

Abbildung 2: Vorhersagen und Beobachtungen stichprobenartig am oberen Pecos-Fluss im nördlichen New Mexico. Vorhersage: 6-jährige Projektion eines 5-jährigen trailing-Mittelwertes. Nachhersage: 5-jähriges trailing-Mittel auf der Grundlage einer dreijährigen Verzögerung zur Ursprungs-Variablen. Vorhersagen jenseits der durchgezogenen grünen Linie wurden nicht später als 31. Dezember 2015 erzeugt.

Abbildung 3: Repräsentation der Nachhersage-Leistung für 5 Jahre mit einer dreijährigen Verzögerung zum Ursprung. Die Gleichung für die Regression ist nicht gezeigt und basiert auf jüngsten Gesamt-Datenmengen. Gebiet: am oberen Pecos-Fluss im nördlichen New Mexico.

Normalerweise lenke ich die Aufmerksamkeit der Leute auf die Beobachtung, dass wir an dieser Stelle einige nachgewiesene Fähigkeit zur Vorhersage haben, um Feuchtigkeits-Defizite bzw. -Überschüsse für einen vieljährigen Zeitraum zu erkennen. Man kann sagen, dass dieses Verfahren helfen kann, einige Jahre im Voraus Dürren im Beobachtungsgebiet zu erkennen. Abbildung 3 zeigt die Güte für diesen Satz von Vorhersagen. Derartige Punktwolken haben diagnostischen Wert ebenso wie Vergleichswerte von Evaluierungen anderer Vorhersagen. Sie können auch herangezogen werden, um Werte wie den mittleren Fehler und den mittleren quadratischen Fehler zu berechnen.

Wir haben auch damit zusammenhängende Produkte entwickelt wie eine über ein Jahr gemittelte Stream flow [Abflussrate?] zwei Jahre im Voraus vorherzusagen. Die Abbildungen 4 und 5 folgen der logischen Verteilung der Abbildungen 2 und 3. Zufälligerweise bin ich in diesem Fall auch in der Lage, unsere Vorhersagen direkt mit einem IPCC-Bericht zu untergeordneten Modellen zu vergleichen. Dieser Bericht dokumentiert die Anwendung herabgestufter GCMs, um das Volumen von Abflussraten über viele Jahrzehnte im Voraus zu simulieren, und zwar für den Gila-Fluss in New Mexico. Dieser Fluss liegt nur wenige hundert Meilen von der Pegelmessstelle am Pecos-Fluss entfernt, wo ich meine Untersuchungen durchgeführt habe.

Abbildung 4: Überlagerung tatsächlicher Beobachtungen zweier unterschiedlicher Flussbetten in New Mexico (grüne Linien) über zwei miteinander konkurrierende Vorhersage-Verfahren. Oben rechts: MWA-Nachhersage und Vorhersage von jährlichen Flussraten des Pecos-Flusses. Unten: SubVendor 001-Nachhersage jährlicher Fluss-Volumina für den Gila-Fluss.

Abbildung 5: Eine Repräsentation von Kalibrierungs-Vermögen. Oben rechts: Fehler in Prozent für jede Jahres-Schätzung: MWA 2 Jahre im Voraus für Fluss-Volumina des Pecos-Flusses in New Mexico. Unten: Fehler in Prozent für jede Jahres-Schätzung: IPCC SubVendor 001-Vorhersagen der Volumina am Gila-Fluss in New Mexico.

Allerdings enthielt jener IPCC-Bericht über die Untermodelle im Original keine Karte mit den tatsächlichen Beobachtungen, und daher gab es auch keine reproduzierbare Dokumentation der Kalibrierung. Für den Beginn des Prozesses, die Güte dieser Vorhersagen zu evaluieren, habe ich jene Beobachtungs-Zeitlinie in grün hinzugefügt. Aus dieser Graphik kann man eine Vielfalt von Modellläufen erkennen in hellem graublau, sowie ein Ensemble oder mittleres Modellergebnis in schwarz. Im Vergleich zu den beobachteten Flüssen scheinen die Modelle das minimale Fluss-Volumen für diesen Fluss konstant zu überschätzen. Außerdem zeigt kein Modell oder Ensemble eine überzeugende visuelle Korrelation mit der Historie der Beobachtung.

Die Informationen zur Kalibrierung in unserem Falle zeigen, dass unsere 2-Jahres-Vorhersagen für die Höhen und Tiefen des jährlichen Stream Flows sehr gut sind. Die Größenordnung dieser Schwingungen könnte besser sein als unsere Vorhersagen. Am besten schnitten die Vorhersagen ab in mittleren Flussjahren, und Ausreißer werden nicht immer genau vorhergesagt. Das ist kein ungewöhnliches Ergebnis. Wir teilen diese Schwäche mit den übrigen Vorhersageverfahren. Es scheint, dass quantitative Vorhersagen extremer Klimaereignisse derzeit jenseits der Möglichkeiten liegen. In jedem Falle ist es bei uns üblich, immer unsere Güte für jede Vorhersage bekannt zu machen. Während der letzten 2 Jahre hat die Mehrheit unserer auf Regression basierenden Vorhersagen ein Genauigkeit von 90% gezeigt. Mehr dazu hier.

Ich hatte das Gila-Beispiel im Oktober vorigen Jahres untersucht auf Anforderung eines weitsichtigen Klienten. Nachdem ich die Ergebnisse gesehen hatte, glaubte ich, dass es helfen könnte, die Aufmerksamkeit zu heben für unsere hohe Güte der Klimavorhersage mittels formaler Vergleiche mit zusätzlichen Anbietern. Ich entwickelte Kriterien für die Abschätzung mit dem Ziel sowohl von Transparenz als auch Güte von Klimavorhersage-Produkten für jedweden Kunden. Ich verschickte damit zusammenhängende Übersichten an eine Anzahl von Kunden und schaute auch auf deren Websites. Die Liste meiner Klienten reichte von Variationen im Old Farmers Almanach über USDA NRCS SNOTEL-Vorhersagen bis hin zum IPCC mit dessen heruntergestuften Sub-Modellen. In jedem Falle habe ich zunächst die Website des Klienten begutachtet. Falls ich auf fehlende Berichte zu Kalibrierungen stieß, habe ich dies dem Klienten per E-Mail mitgeteilt. Falls der Klient geantwortet hat, habe ich meine ursprüngliche Einschätzung mit diesen Informationen aktualisiert. Hat der Klient nicht geantwortet, habe ich einen Vermerk angebracht und weiter gemacht.

Was die Evaluierungen bei anderen Klienten betrifft, begann ich bei den High-Level-Summaries des IPCC, um generell die Inhalte ihrer Klimavor- und -nachhersagen zu verstehen. Bereits aus Abbildung 4 geht beispielsweise hervor, dass wir beide Vorhersageprodukte hatten, die über Zeit und Raum miteinander verglichen werden konnten.

Auch bin ich davon ausgegangen, dass deren Kalibrierung (Nachhersage-Güte) auf GCMs basierten, die allesamt kontinuierlich laufen gelassen worden sind über Jahrzehnte lange Simulationszeiträume, und habe sie mit historischen dekadischen Beobachtungen verglichen. Derartige Verfahren können beispielsweise bei Shuhua et al. 2008 eingesehen werden. Diese Hypothese hat sich als unrichtig erwiesen, wie ich hier detailliert beschreiben möchte.

Abbildung 6 ist übernommen aus Kapitel 9 der WG1 des AR5 und repräsentiert einige potentielle Kalibrierungs-Produkte mit Bezug zu CMIP5. Die Abbildung zeigt eine offensichtliche Folge langzeitlicher Modellhistorie, die zu Zeitreihen-Produkten passt, zusammen mit einer Repräsentation von auf Beobachtungen basierenden Zeitreihen der gleichen Variable als dicke schwarze Linie. Die Variable ist in diesem Fall die Temperaturanomalie in Grad Celsius. Allerdings scheinen die Modellsimulationen in dieser Abbildung auch Läufe zu enthalten, welche jährlich einer Re-Initialisierung mit den Beobachtungen unterzogen worden sind.

Abbildung 6: In dieser Abbildung 9 aus WG1 im AR5 sind die unterschiedlichen Ergebnisse der GCMs gezeigt, zusammen mit Beobachtungen, die durch die dicke schwarze Linie repräsentiert werden. Der hellblau hinterlegte Text bezieht sich auf die IPCC-Repräsentation des prädiktiven Wertes der gezeigten GCMs. Hellblau hinterlegte Jahre heben einfach die Ergebnisse von etwa 1960 bis 2000 hervor.

Diese Initialisierungen sind bedenklich. Typischerweise werden in jedem deterministischen Modell Initialisierungen von Parametern nur einmal angebracht zu Beginn der Simulation der Zeitreihe. Wer würde argumentieren, dass diese einmalige „Initiation“ die Wurzel des Wortes ist? Es würde extensiver Qualifikationen bedürfen, wenn man jede Initialisierung durch den gesamten deterministischen Zeitrahmen wiederholt. Würde das auftreten, wären es Re-Initialisierungen.

Merryfield et al. (2010) zeigen Beschreibungen eines Re-Initialisierungs-Verfahrens eines GCMs. In diesem Falle betont das Dokument, dass derartige Verfahren im besten Falle zu Verbesserungen jahreszeitlicher Vorhersagen führen. Mit anderen Worten, von dem prädiktiven Wert ihrer Modelle wurde nicht behauptet, dass sie über jahreszeitliche Zeitrahmen von 3 Monaten oder so hinausgehen. Die Autoren stellten zusammenfassend fest, dass ein großer Teil der offensichtlichen Güte ihrer Vorhersagen der Tatsache geschuldet ist, dass sie die Modellwerte re-initialisiert hatten:

„…Wassertemperaturen im Modell sind an die beobachteten Werte angepasst [nudged] worden während eines vieljährigen Zeitraumes, der dem Beginn einer Vorhersage vorausgeht“.

Die Adjustierungen waren erforderlich, weil sie die Ozeanparameter nicht hinreichend weit in die Zukunft hinein genau modellieren oder vorhersagen konnten.

Und doch, trotz dieser Schwäche erfolgte die graduelle Ausweitung des Initialisierungs-Verfahrens durch die gesamte Gemeinschaft der GCM-Modellierer von Jahreszeitlichen zu dekadischen Vorhersagezeiträumen. Diese Initialisierungen dominierten schließlich meine Bedenken hinsichtlich der GCM-Kalibrierungen und der Berichte über deren Güte: Warum werden diese Parameter fortwährend zurückgesetzt, um zu den Beobachtungen zu passen, wenn doch die GCMs diese vorhersagen sollen? Woher bekommen sie jetzt jene Zukunfts-Beobachtungen, die sie brauchen, um ihre prädiktiven dekadischen Modelle auf Linie zu halten? Wie kommen sie dazu, ganze Publikationen von Ergebnissen mit hohem Vertrauen zu verbreiten?

Eine kürzlich erschienene Studie von Suckling und Smith (2013) befasst sich mit einigen Aspekten dieser Neuausrichtung und Initialisierung der GCMs. Vor allem verweist der Artikel auf die Praxis der Re-Initialisierung der Randbedingungen der GCMs mit jüngsten Beobachtungen. Die Autoren stellen in einfachen Worten fest:

„Gegenwärtig ist unklar, ob die Initialisierung der Modelle mit den Beobachtungen bei jedem Lauf die Güte dekadischer Vorhersagen verbessert … Grundsätzlicher, die Fähigkeit, brauchbare dekadische Vorhersagen zu erstellen mittels der Simulation von Modellen muss erst noch etabliert werden“.

Allgemein herrscht unter den Gemeinschaften der Modellvergleiche untereinander die Ansicht, dass man Modellvorhersagen nicht übernehmen sollte, die länger im Voraus Vorhersagen machen als die Zeitspanne, für die sie kalibriert worden sind. Aber trotz derartiger Bedenken liefert das CMIP5-Programm unverdrossen „ein Rahmenwerk für koordinierte Klimawandel-Experimente während der nächsten fünf Jahre, was folglich Simulationen im AR5 einschließt ebenso wie Simulationen, die über AR5 hinausgehen“. (Taylor et al. 2008).

Diese Design-Guidance von CMIP5 spezifiziert die folgenden Zeiträume zur Anwendung von Vorhersagen:

„1) kurzfristige dekadische Vorhersage-Simulationen (10 bis 30 Jahre), initialisiert in gewisser Weise mit…“ und

„2) langfristige (Zeitmaßstab von Jahrhunderten) Simulationen initialisiert von…“

Keinerlei Zweifel für diese Vorhersagezeiträume werden angegeben, anders als in Beispielen wie diesem tief inmitten von Untertiteln:

Kapitel 3. Abschnitt 1.2 Erweiterte Integrationen mit initialen Zeitpunkten Ende 1960, 1980 und 2005 für 30 Jahre. Untertitel: Weitere Details zu den Läufen: … „… die gesamte Frage der Initialisierung des Klimasystems ist eine der größten wissenschaftlichen Herausforderungen der dekadischen Vorhersage“ (Hervorhebung von mir).

Dieser seltsame Satz scheint zu behaupten, dass ihr Verfahren eine enorme wissenschaftliche Herausforderung ist. Ich frage mich, ob sie damit sagen wollten, dass dies unmöglich sein könnte. Sicherlich wringen viele Wissenschaftler und Ingenieure ihre Hände über die Aussagen in den Kapiteln 9 und 11 des IPCC-Berichtes über nichtlineare Dynamik und Chaos, einschließlich ich selbst. Aber wenn derartige Hindernisse das wirkliche Problem sind, warum sind dann meine Vorhersagen so genau? (1)

In jedem Falle erscheint die Re-Initialisierung der CMIP5-Design-Guidance jetzt institutionell zu sein für alle nachgeordneten regionalen dekadischen Vorhersagen. Das Lawrence Livermore National Laboratory (LLNL) hat das Programm der Klimamodell-Diagnose und Vergleiche [Program for Climate Model Diagnosis and Intercomparison (PCMDI)] dem Erhalt operationeller und re-initialisierender Fähigkeiten für CMIP gewidmet, und zwar hier:

http://cmip-pcmdi.llnl.gov/cmip5/docs/Taylor_CMIP5_design.pdf

http://cmip-pcmdi.llnl.gov/cmip5/experiment_design.html

Dieses Programm enthält detaillierte Guidance und Unterstützung, wie die Re-Initialisierung implementiert werden muss. Abbildung 7 repräsentiert ein Beispiel von Kharin et al. (2012) von vier Schritten in Verbindung mit der Daten-Re-Initialisierung:

Abbildung 7: Aus Kharin et al.: Statistische Adjustierung von Vorhersagen

Bildinschrift: (a) schematische illustrierte Modellverschiebungen bei initialisierten Vorhersagen (farbige durchgezogene Linien) im Vergleich mit dem Klima von nicht initialisierten Simulationen (grau). Farbige gestrichelte Linien zeigen Verschiebungs-Residuen, die verbleiben, wenn der Bias korrigiert wird. (b) Evolution der jährlichen globalen mittleren Temperatur im GISS-Datensatz (schwarz) und Mittel des Roh-Ensembles von CanCM4 nicht initialisiert (grau) und initialisierte Vorhersagen (farbig). Die gestrichelten Linien sind langfristige lineare Trends, angepasst an die Beobachtungen und nicht initialisierte Lösungen. Die globale Größenordnung des vulkanischen Antriebs im CanCM4 ist repräsentiert entlang der horizontalen Achse. (c) Das Gleiche wie in Abbildung (b), jedoch mit Bias-korrigierten Vorhersagen. (d) ebenfalls wie in (b), aber trend-adjustierte Vorhersagen.

In dieser Studie wird kaum etwas der eigenen Vorstellung überlassen, außer jeder Reflektion, dass die Ergebnisse nur für saisonale Vorhersagen geeignet sind (falls überhaupt). Die Diagramme zeigen vier Komponenten zu den Adjustierungen:

1. Die Modelle werden jedes Jahr re-initialisiert.

2. Die re-initialisierten Modelle werden dann Bias-korrigiert.

3. Die Bias-korrigierten Modelle werden dann trend-adjustiert, und

4. Das Ensemble der Ergebnisse wird dann zusammengeführt.

Ich habe wohl so etwas Ähnliches versucht, aber mit einem viel lockereren Prozess in einer informellen Bestätigung dieser Initialisierungs-Praxis (Abbildung 8). Ich habe auch gefunden, dass die allgemeine Praxis die Perzeption höherer Güte tatsächlich verbessert.

Abbildung 8: Ich erzeugte meine eigene Version des Initialisierungs-Verfahrens. Anstatt GCMs laufen zu lassen, erzeugte ich einen Satz von Randwert-Zahlen, gezeigt als blaue Punkte im linken Bild. Ich betrachte diese als random walk models (RWMs). Das rechte Bild dokumentiert mit den offenen blauen Kreisen, dass ich jedes RWM-Ergebnis jedes Jahr re-initialisiert habe, um sie zu den Beobachtungen passend zu machen, die ich mit der schwarzen Linie dargestellt habe. Dann habe ich die Ergebnisse übereinander gelegt via der gepunkteten blauen Linie: Ich kam auf eine sehr gute Anpassung!

Ich hatte gedacht, dass Ozean-Parameter Hauptgegenstand der Re-Initialisierung seien. Abbildung 9, übernommen von Gonzales et al. (2015), zeigt eine partielle Erklärung für diesen Prozess.

Abbildung 9: nach Gonzales et al. 2015. Je länger man ein CMIP-Modell laufen lässt, umso weniger passen die Ergebnisse zu den Beobachtungen. Daher die Praxis der Initialisierung.

Das modellierte charakteristische Muster der Oberflächentemperatur des Pazifischen Ozeans auf beiden Hemisphären einschließlich der Äquator-Region nimmt rapide ab und werden schon nach einem Jahr von den GCMs nur noch sehr schlecht repräsentiert. Eine Re-Initialisierung scheint bei diesen Temperaturen durchgeführt worden zu sein, falls ich mich nicht irre. Nur dann können die Modelle sich ein paar weitere Monate nach vorne durchwursteln bzgl. einer potentiell plausiblen Vorhersage.

Ein offensichtlicher Appell, die Validierungs- und Kalibrierungs-Verfahren von CMIP zurückzubringen zu einer verlässlichen und transparenten Güte-Abschätzung scheint in einer Studie von Fricker et al. (2013). Allerdings bleibt der letzte Absatz der Studie unbeachtet:

„Die Ideen, die wir aufgezeigt haben sind noch etwas unterentwickelt und zeigen verschiedene Wege für zukünftige Untersuchungen auf. Wir fühlen, dass ein besseres Verständnis oder unterschiedliche Arten unechter Güte, deren Gründe und Implikationen für die Evaluierung wertvoll wäre. Viele weitere faire Messungen von Ensembles, die als unterschiedliche Arten von Stichproben interpretiert werden können, könnten ebenfalls konstruiert werden. Es wird außerdem interessant sein zu sehen, ob weitere Untersuchungen zur Vorhersagegüte über eine breite Spanne von Zeitmaßstäben helfen wird, die Qualität und Brauchbarkeit von Klimavorhersagen zu verbessern“.

Jetzt, wo der Prozess der CMIP-Validierung via Initialisationen institutionalisiert ist, glauben Klimawandel-Wissenschaftler offenbar, dass keine weitere Notwendigkeit für tatsächliche Experimente besteht, für Kalibrierungs-Dokumentationen oder Transparenz für Verbraucher. Solange das Geld fließt, werden stattdessen weiterhin die jüngsten Beobachtungen an einem Ende in die CMIPs gefüttert. Am anderen Ende werden weiterhin langfristige Klimavorhersagen für alle Gebiete, Modalitäten und Zeitspannen herauskommen. Die Entfaltung dieser ungenauen Ergebnisse wird dann weiterhin die Kosten steigen lassen und die Welt umfassen.

Es scheint, dass ohne Forderungen nach Transparenz aus der Öffentlichkeit die Multimilliarden Dollar schwere, CMIP-gesegnete GMS-Maschine weiterlaufen wird. Was kann man gegen ein titanisches und fehlgeleitetes Unterfangen tun? Ich empfehle zu Beginn, dass die Güte aller dekadischen Vorhersagen, Prophezeiungen, Projektionen und Nachhersagen aller Klimawandel-Klienten klar veröffentlicht werden, mit und ohne Initialisierungen. Anderenfalls haben kleinere Unabhängige, die weniger alarmierende, aber auch genauere Lösungen anbieten, kaum eine Chance.

References

Fricker, T.E., C.A.T. Ferro, and D.B. Stephenson, 2013, Three recommendations for evaluating climate predictions METEOROLOGICAL APPLICATIONS 20: 246 – 255 DOI: 10.1002/met.1409

Gonzalez, P.L.M,and L. Goddard, 2015, Long-lead ENSO predictability from CMIP5 decadal hindcasts. Journal of Climate Dynamics DOI 10.1007/s00382-015-2757-0

HYDROCOIN Sweden hosted workshop in 1992 on groundwater model skill inter-comparisons

http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/24/002/24002761.pdf

Kharin, V.V., G. J. Boer, W. J. Merryfield, J. F. Scinocca, and W.-S. Lee, 2012, Statistical adjustment of decadal predictions in a changing climate GEOPHYSICAL RESEARCH LETTERS, VOL. 39, L19705, DOI:10.1029/2012GL052647, 2012

Meehl, GA, L Goddard, J Murphy, RJ Stouffer, G Boer, G Danabasoglu, K Dixon, MA Giorgetta, AM Greene, E Hawkins, G Hegerl, D Karoly, N Keenlyside, M Kimoto, B Kirtman, A. Navarra, R Pulwarty, D Smith, D Staffer, and T Stockdale, 2009, Decadal Prediction, Can It Be Skillful? American Meteorological Society, Articles October 2009 1467 – 1485

Merryfield, W.J., W.S. Lee, G.J. Boer, V.V.Kharin, P. Badal, J.F. Scinocca, and G.M. Flato, 2010, The first coupled historical forecasting project (CHFP1). Atmosphere-Ocean Vol. 48, Issue 4 pp. 263-283

Shuhua Li, Lisa Goddard, and David G. DeWitt, 2008: Predictive Skill of AGCM Seasonal Climate Forecasts Subject to Different SST Prediction Methodologies. J. Climate, 21, 2169–2186. doi: http://dx.doi.org/10.1175/2007JCLI1660.1

Suckling, E.B. and L.A. Smith, 2013, An evaluation of decadal probability forecasts from state-of-the-art climate models. Centre for the Analysis of Time Series, London School of Economics.

Taylor, K.E., R.J. Stouffer, and G.A. Meehl, 2008, A Summary of the CMIP5 Experiment Design, Lawrence Livermore National Laboratory http://cmip-pcmdi.llnl.gov/cmip5/docs/Taylor_CMIP5_design.pdf

UN Intergovernmental Panel on Climate Change UN IPCC home page:

http://www.ipcc.ch/

UN Intergovernmental Panel on Climate Change UN IPCC WG1AR5 Chapter 9 Evaluation of Climate Models 2013

https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter09_FINAL.pdf

Flato, G., J. Marotzke, B. Abiodun, P. Braconnot, S.C. Chou, W. Collins, P. Cox, F. Driouech, S. Emori, V. Eyring, C. Forest, P. Gleckler, E. Guilyardi, C. Jakob, V. Kattsov, C. Reason and M. Rummukainen, 2013: Evaluation of Climate Models. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assess­ment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

UN IPCC assessment report: 2014 Climate Change 2014 Synthesis Report Summary for Policymakers

http://www.ipcc.ch/pdf/assessment-report/ar5/syr/AR5_SYR_FINAL_SPM.pdf

UN Intergovernmental Panel on Climate Change UN IPCC WG1AR5 Chapter 11 Near-term Climate Change: Projections and Predictability 2013

Kirtman, B., S.B. Power, J.A. Adedoyin, G.J. Boer, R. Bojariu, I. Camilloni, F.J. Doblas-Reyes, A.M. Fiore, M. Kimoto, G.A. Meehl, M. Prather, A. Sarr, C. Schär, R. Sutton, G.J. van Oldenborgh, G. Vecchi and H.J. Wang, 2013: Near-term Climate Change: Projections and Predictability. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)). Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Wallace, M.G. 2015 Ocean pH Accuracy Arguments Challenged with 80 Years of Instrumental Data.

Guest post at http://wattsupwiththat.com/2015/03/31/ocean-ph-accuracy-arguments-challenged-with-80-years-of-instrumental-data/

Link: http://wattsupwiththat.com/2016/02/03/initialization-practices-disqualify-un-ipcc-global-circulation-models-from-use-for-most-climate-change-forecast-purposes/

Übersetzt von Chris Frey EIKE, der öfter an die Grenzen seiner Fachkenntnisse stieß.




Grüner Staatssekretär Rainer Baake – Der „Mastermind“ der Energiewende, Teil I

Trotz langjähriger ausgefeilter Propaganda, fehlt von ihm bis heute ein ausgereiftes technisches und ökonomisches Konzept. Und das, obwohl er in der hessischen Landesregierung und zwei Bundesregierungen an herausragenden Stellen als langjähriges Mitglied der grünen Bewegung sein Geld verdient. Es dürfte der Beamtete Staatssekretär im Wirtschafts-Ministerium Rainer Baake sein.

Obwohl sein Lebensweg in zahlreichen Veröffentlichungen, wie auch bei EIKE, beschrieben wurde, ist sein politisches Engagement und sein Organisationstalent als politischer Öko-Lobbyist in der Öffentlichkeit wenig bekannt. Zwischen 1974 und 1978 war der heutige Beamtete Staatssekretär Baake Aktivist in der Community Organizer Szene von Chicago. ‚Organisierte Kommunen Gruppen‘ in den USA versuchen, durch Infiltration von Regierungen, Verbänden und Instituten, ihre Vorstellungen zu sozialen Reformen mit möglichst vielen Agitationen zu beeinflussen. Seit seiner 1983 bestehenden Mitgliedschaft bei den Grünen und als Unterstützer der Öko-Bewegung ist er von Anfang an ein ideologisch geschulter Anti-Nuc- und Pro-Energiewende Aktivist. Unter dem hessischen Umweltminister „Joschka“ Fischer (1991 bis 1998), wurde er Beamteter Staatssekretär. Zu seinem Aufgabenbereich gehörte von Amtswegen auch die Verantwortung für das hessische Oberbergamt und somit auch für das/die unter Bergrecht 1979 genehmigte Endlager/Untertage-Deponie für hoch-toxische Abfälle Herfa-Neurode. (Hier sei kurz angemerkt, im Englischen gibt es nur ein Wort für die Begriffe Deponie bzw. Endlager: ‚Waste Disposel‘. Nur auf Deutsch lassen sich die beiden Begriffe ideologisch für das Gleiche nutzen). In dieser Zeit ist er schon als ideologisch gesteuerter, taktisch geschickter Zerstörer von funktionierenden technischen Betrieben bekannt geworden. Und das ohne die technischen und ökonomische Qualität der bekämpften Unternehmen zu berücksichtigen und ohne reale Alternativen aufzuzeigen. Genannt seien hier beispielhaft die Brennelementfabrik in Hanau und das KKW Biblis.

Diese mit seinem Amt verbundene siebenjährige politische Verantwortung für das Hessische Oberbergamt, zu der auch die Überwachung des Endlagers/der Untertage-Deponie Herfa-Neurode zählte („Gorleben und das Standortauswahlgesetz – ad calendas graecas“*), zeigt sich allerdings nicht mehr in seiner folgenden politischen Laufbahn – möglicherweise hat er sie vergessen oder nicht verstanden? Denn als Beamteter Staatsekretär im Bundesumweltministerium (1998 bis 2005) und als Beamteter Staatsekretär im Bundesministerium für Wirtschaft und Energie (seit 2014) hat er sich nicht nur für das Abschalten der deutschen Kernkraftwerke eingesetzt, sondern auch für das Quasi-Ende von Gorleben. Nur unter heftigstem Ringen der Elektrizitätswirtschaft mit dem Bundesumweltministerium unter Mitwirkung des Beamteten Staatssekretärs Baake wurde der Energiewirtschaft am 11. Juni 2001in einer Vereinbarung mit Müh und Not bestätigt, dass Gorleben als Endlager ‚eignungshöffig‘ ist (Gorleben – Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet“*). Als ehrlicher Makler hätte er sich, im Sinne seiner Verantwortung für die deutsche Gesellschaft mit seiner Erfahrung zur Entsorgung von Abfällen und seinem Wissen über die technischen Details von Gorleben und Herfa-Neurode, sachlicher entscheiden müssen. Auch hier hat er sich als erfolgreicher Zerstörer profiliert! Ein weiteres Beispiel dazu ist das von seiner MinisterkollegIn Frau Hendricks, die am 12.12.2013 (Offener Brief an kirchliche Würdenträger – Rückfall ins Mittelalter“*) öffentlich bestätigt hat, wenig von der Endlagerung zu verstehen, durchgepaukte und von der Regierung am 23. Juli 2013 verabschiedete Standortauswahlgesetzes („Gorleben und das Standortauswahlgesetz – ad calendas graecas“*).  Das bedeutet, dass auch bei einer derartig wichtigen Zukunfts-Entscheidung keine Kommunikation zwischen den beiden Ministerien bestand und dabei sein Fachwissen zum Tragen gekommen ist, das er in seiner Funktion als Staatssekretär in Hessen (1991 bis 1998) und in Berlin als Staatssekretär unter Umweltminister Trittin (1998 bis 2005) gesammelt haben muss. Hier zeigt sich wieder, dass er wohl aus macht- und opportunistischen Gründen seiner KollegIn sein Wissen vorenthalten hat.

Um diese Entwicklung zu verstehen, ist es notwendig, die Jahrzehnte langen, auffallend engen Beziehungen des Beamteten Staatssekretärs Baake zu internationalen, häufig philanthropischen Stiftungen und Organisationen zu durchleuchten, denn hier pausen sich seine über mehrere Jahre gewonnenen, ideologisch untermauerten, agitatorischen Erfahrungen aus den USA durch, die zum Erkämpfen der Macht notwendig sind. Nur so kann man versuchen, das Denken und Handeln des Politikers Baake zu verstehen, der Deutschlands einst erfolgreiche, umweltfreundliche Energiepolitik zerstört hat.

Community Organizer Szene in den USA

Organisierte Kommunen Gruppen in den USA versuchen mit ihren ideologisch und politisch motivierten Agitationen lokale Regierungen, Behörden, Verbände und Institute ihre Vorstellungen zu sozialen Reformen möglichst gezielt zu beeinflussen. Sie bestehen jeweils aus unterschiedlichen Kollektiven von Forschern, Strategen, Mitarbeitern und Finanziers, die sich in der Klimapolitik engagieren, weil sie an die Macht der kollektiven Philanthropie glauben. Es sind kommunale Nichtregierungsorganisation, die landesweit und weltweit mit Geldgebern, ‚grass root‘ Aktivisten und Forschungspartnern zusammenarbeiten, um mit philanthropischen Antworten die Herausforderungen des weltweiten Klimawandels zu meistern. Nach deren Vorstellungen erfordert  das einen Glauben-bezogenen Beitrag und die Unterstützung von engagierten Gruppen, von denen jede ihre eigenen Expertisen, Einsichten und Ressourcen einbringt und damit gleichzeitig auch finanzielle Mittel von menschenfreundlichen Spendern für den Klimaschutz einwerben sollen. Alle Arbeiten werden wissenschaftlich begründet. Dabei sollen Forschungspartner helfen, verwertbare Daten und Erkenntnisse zu wissenschaftlichen, politischen, sozialen und sozioökonomischen Themen zusammenzustellen, die aus ihrer Sicht für effektive Klimaschutzmaßnahmen notwendig sind. Ziel dabei ist es, mit der Erfahrung dieser Partner einen Überblick über die Dynamik und Trends zu diesem neuen Thema zu erhalten und Strategien auszuarbeiten, mit denen in ihrem Sinne die Gesellschaft beeinflusst werden soll. Die Akteure sind im Allgemeinen bestens geschult und ihr Agitationspotential kann radikal sein, insbesondere bei kontroversen und konfliktbeladenen Themen. Zwischen den verschiedenen lokal organisierten Kommunen Gruppen bestehen mehr oder weniger enge Netzwerken wie beispielsweise Menschenrechts-, Anti-Krieg-, Frauenrecht- und Homosexuelle-Gruppen. Auffallend ist, dass in keinen der vielen angesprochen Vorstellungen und Behauptungen der Begriff  Naturwissenschaft – im Gegensatz zu Wissenschaft – zu finden ist. Zusammengefasst: Hier könnte er das theoretische und praktische Organisieren der Machtlosen und Besitzlosen gelernt haben.

Der zukünftige Beamtete Staatssekretär Baake war zwischen 1974 und 1978 der Community Organizer Szene von Chicago verbunden.

Club of Rome: Grenzen des Wachstums

Der Club of Rome ist ein internationaler „Think Tank“ von hochrangigen Persönlichkeiten, der  weitestgehend aus Stiftungsgeldern finanziert wird. Zur Gründerzeit hatte er eine Vielzahl von Mitgliedern (86 Vollmitglieder, 46 Assoziierte Mitglieder, Stand 2008): damals hauptsächlich hochrangige Persönlichkeiten des weltweiten öffentlichen Lebens, Politiker und vereinzelt auch Verantwortliche aus wissenschaftlichen Einrichtungen und Universitäten. Weit unterbesetzt war und ist das Gremium allerdings von Wissenschaftlern, Ingenieuren und Ökonomen. Es werden keine Naturwissenschaftler erwähnt. Beim ersten  internationalen Kongress des Clubs of Rome 1972, war das wachsende, weltweit ‚alarmierende‘ Thema: Umweltbewusstsein in Bezug zu ökologischen Belangen und zu wachsenden Umweltaktaktivitäten. Im Auftrag des „Clubs“ wurde deshalb von Dennis Meadows das Buch „Grenzen des Wachstums“ geschrieben, mit dem Ziel, diese Ideen möglichst weltweit zu verbreiten. Neben einigen interessanten Hinweisen zu weltweiten Themen, enthält es aber auch schon damals von Fachleuten erkennbare grundsätzlich falsche Aussagen, wie beispielsweise das Ende natürlicher Rohstoffe (Ressourcen) wie Öl und Erzen. Auch Laien erkennen heute an den extrem gefallenen Öl- sowie Gas-Preisen und den Preisen für Rohstoffe wie Kupfer, Eisen, Seltenen Erzen, Uran usw., dass die Verfügbarkeit natürlicher Rohstoffe nur von deren Produktionskosten und nicht von deren Endlichkeit abhängt – und somit das hochgelobte Recycling von vielen Stoffen schon heute unwirtschaftlich werden kann.

Deutsche Umwelthilfe

1975 wurde die Deutsche Umwelthilfe gegründet. Sie ist ein Umwelt- und klage-berechtigter Verbraucherschutzverband und stellt ein Forum für Umweltorganisationen, Politiker und Entscheidungsträger aus der Wirtschaft dar. Ziele sind ökologische und zukunftsfähige  Weichenstellungen. Im Dialog mit Unternehmen und Umweltpolitikern entwickelt sie Chancen für nachhaltige Wirtschaftsweisen und umweltfreundliche Produkte. Als finanzstarke Umwelt- und Klima-Lobby mit besten Beziehungen zur Politik, Presse und zu den Medien macht sie ihre nicht immer naturwissenschaftlich begründeten, oft den Naturgesetzen widersprechenden, eher glaubensbedingten Vorstellungen zur Umweltpolitik und Umweltrecht publik. Sie wird aus privaten Spenden und öffentlichen Fördermitteln für den Natur- und Umweltschutz finanziert. Zusammenarbeit z. B. mit folgenden Öko-Netzwerken: „Lebendige Flüsse“, „Bundeshauptstadt für den Klimaschutz“,  „Rußfrei für das Klima“,  „Bodensee-Stiftung“, Global Nature Fund“.

Von 2006 bis 2012 war der frühere und spätere Beamtete Staatssekretär Baake Bundesgeschäftsführer der Deutschen Umwelthilfe.

Stiftung Mercator

Um das oberste Ziel der grünen Bewegung, die Nuklearindustrie in Deutschland zu zerstören und eine „Energiewende“ politisch durchzusetzen, wurde von den Stiftungen Mercator und European Climate Foundation die „Agora Energiewende“ gegründet. Sie ist eine private Stiftung, die Wissenschaft, Bildung und Internationale Verständigungen fördert. Sie will Europa stärken, Integration durch gleiche Bildungschancen für alle verbessern, die Energiewende als Motor für globalen Klimaschutz vorantreiben und kulturelle Bildung in Schulen verankern. Dies ist jedoch bisher nur in Deutschland gelungen. Seit 2010 bündelt die Stiftung Mercator ihre in den Bereichen Klimawandel, Europa, Integration und kulturelle Bildung. Ihr prominentestes Projekt ist die Initiative „Agora Energiewende, die auch von der European Climate Foundation unterstützt wird. Agora Energiewende versteht sich als energiepolitisches Denklabor und will durch Studien, Expertisen, Workshops und ähnliche Initiativen der Energiewende den Weg bereiten. Zur Zeit ist sie dabei, eine Studie gegen den weiteren Betrieb von Braunkohlebergwerken auszuarbeiten und am 27. Januar 2016 verkündete sie in ‚Arte‘ darüber nachzudenken, wie man in Zukunft Dieselmotoren in Deutschland verbieten kann.

2012 bis 2013 war der frühere und spätere Beamtete Staatsekretär Baake Direktor von Agora Energiewende.

European Climate Foundation

Die Vision der Stiftung ist es, eine ‚Niedrige Kohlenstoff Gemeinschaft‘ für Wohlstand und Energie-Sicherheit zu sein. Sie hält sich für eine in 2008 gegründete ‚Stiftung von Stiftungen‘ mit dem Anspruch, eine wichtige philanthropische Initiative zu sein. Ihr Ziel ist, die Klima- und Energiepolitik zu unterstützen, um Europas ‚Grünhausgas‘-Emissionen beträchtlich zu verringern und Europas Rolle zu unterstützen, in noch viel stärkerem Maße der Öffentlichkeit die Bedeutung der Klimaänderungen aufzuzeigen sowie die Schaffung einer ‚Niedrige Kohlenstoff Gemeinschaft‘ zu erreichen. Die drei Hauptthemen sind:

ñ  Unterstützung für eine Niedrig-Kohlenstoff Gesellschaft.

ñ  Verbleiben bei der unter 2 Grad-Grenze der Erwärmung relativ zur den Werten der Vor-Industrialisierten Welt,

ñ  Ausbalancieren von Klima Schutz, Energiesicherheit und wirtschaftliches Wachstum.

Die Arbeit der European Climate Foundation wird von sechs Hauptförderern getragen, bei denen es  sich meist wieder um Stiftungen handelt.

Unterstützende Stiftungen der European Climate Foundation

ñ The children’s Investments Foundation ist eine unabhängige philanthropische Gesellschaft mit Hauptsitz in London. Zusammen mit einer Vielzahl von Partnern hat sich die Stiftung das Ziel gesetzt, das Leben der armen und gefährdeten Kinder in den Entwicklungsländern zu verbessern. Dabei konzentriert sie sich auf die Themen: ‚Frühe Erziehung‘, ‚Entwurmung‘, ‚Ernährung‘, ‚Klimawandel‘, ‚Gesundheit‘ und ‚Sonstiges‘. Mit einer starken finanziellen Basis wurde ein wachsendes Portfolio von gemeinnützigen Zuwendungen im Wert von über einer halben Milliarden Dollar ausgegeben. In 2014 lagen die Ausgaben bei 134 Millionen Dollar, davon ca. 16 Prozent für den Bereich ‚Klimawandel.

ñ Climate Works ist eine Nichtregierungsorganisation, die weltweit arbeitet. Sie besteht aus einem Team von Forschern, Strategen sowie von Mitarbeitern von Finanzhilfeträgern, die in der Klimapolitik engagiert sind und an die Macht der kollektiven Philanthropie glaubt. Die Organisation arbeitet mit zahlreichen philanthropischen Geldgebern, weiteren NGOs und Klima-Führern aus der Welt zusammen, um Klimaschutzmaßnahmen zu beschleunigen. Die Hauptgeldgeber sind: ‚William and Flora Hewlett Foundation‘, ‚K-R-Stiftung‘, ‚John D. and Catherine T. MacArthur Foundation‘, ‚Oak Foundation‘ und ‚David and Lucile Packard Foundation‘.

ñ McCall McBain Foundation ist eine Grant-Organisation, die von Genf aus geführt wird. Sie wurde 2007 etabliert. Ihre Mission ist es, das Wohl der Menschheit durch zielgerichtete Zuschüsse in den Bereichen Bildung, Gesundheit und Umwelt zu verbessern. Es wird geglaubt, dass starke, engagierte und kreative Führung in diesen Bereichen erforderlich ist, um positive Ergebnisse zu erzielen.

ñ Oak Foundation hat als eine Gruppe von philanthropischen Organisationen seit ihrer Gründung im Jahr 1983 mehr als 3000 Stipendien an nicht profitorientierte Organisationen auf der ganzen Welt vergeben. Nach der Vorstellung der Oak Foundation sind die natürlichen Ökosysteme, von denen die Welt abhängt, gefährdet. Zunehmende Treibhausgasemissionen wirken sich negativ auf klimatische, terrestrische, ozeanische und andere Systeme aus. Es besteht somit die Sorge, dass die Fähigkeit dieser Systeme gefährdet wird. Die Vision der Gruppe ist, eine Null-Kohlenstoff Weltwirtschaft und die Wiederherstellung der Meeresfischerei und Lebensräume zu erreichen.

ñ National Postcode Loterij, aus Einnahmen der Niederländische Lotterie werden auch  Gelder für umweltrelevante Organisationen und Projekte finanziert.  

ñ Velux Fonden (Velux Stiftung) besteht aus der Villum Stiftung und Velux Stiftung Von beiden Stiftungen werden mittels Subventionen, Darlehen für Wellfare-Innovationen, Nachhaltige Energie, Erleben-Branchen und Bildung finanziert. Die Schwerpunkte liegen auf Forschung und Entwicklung sowie der Demonstration und  der Verbreitung von Wissen. Die Villum Stiftung  unterstützt unter anderem Aktivitäten wie wissenschaftliche und technische Forschung, ‚Centres of Excellence‘, Verbreitung von Forschung, Sozialprojekte in Osteuropa und Grönland, Projekte in der Umwelt und Nachhaltigkeit sowie Kultur; die Velux Stiftung Aktivitäten für ältere Menschen, Geratrie, Gerontologie und Augenheilkunde; Geistes- und Sozialwissenschaften kulturelle, künstlerische und soziale Zwecke und Projekte in der Umwelt und  Nachhaltigkeit.

Thesen der Agora Energiewende (Glaube und Wahrheit)

Die Energiewende – korrekter: Wende der Stromerzeugung – ist der Kurzbegriff für die politisch durchgesetzte Wende der Energieversorgung Deutschlands: Das frühere robuste und wirtschaftliche System der Energieerzeugung, das auf einem Mix aus Kernenergie, Kohle, Öl, Gas und ‚Erneuerbareren‘  beruhte, wird abgelöst von einer neuen Energieversorgung alleine auf Basis Erneuerbarer Energie (EE) – Windkraft, Sonnenenergie, Wasserkraft, Biomasse und Erdwärme. Die wesentlichen Gründe für diese quasi-religiös fundamentalistische Wende in der Energieversorgung werden im Teil II des Berichtes dargestellt und im Einzelnen aus naturwissenschaftlicher technischer und ökonomischer Sicht beleuchtet und bewertet. Anschließend wird eine Gesamtanalyse der deutschen Politik vorgestellt und mit einem deutlichen Kommentar eines hoch geschätzten Ökonomen zur Energiewende abgeschlossen.

Die Kapitelüberschriften im Teil II der Analyse lauten:

Thesen der Agora Energiewende (Glaube und Wahrheit)

ñ Risikovorsorge: Die Risiken der Kernenergie sind prinzipiell nicht beherrschbar. Dies haben die Reaktorkatastrophen in Tschernobyl und Fukushima gezeigt.

ñ Zudem ist der hochradioaktive Abfall aus Kernkraftwerken für Hunderttausende von Jahren äußerst giftig, ohne dass bisher eine Lösung für die Endlagerung gefunden wäre.

ñ Klimaschutz: Bei der Verbrennung von Kohle, Öl und Gas entstehen klimaschädliche Treibhausgasemissionen, die die Hauptverursacher für den Klimawandel sind.

ñ Knappe Ressourcen: Kohle, Öl und Gas sind endlich. Je knapper sie werden, desto teurer wird ein auf fossile Energieträger basierendes Energiesystem.  

ñ Wertschöpfung vor Ort: Während ein großer Teil der bisherigen Energieträger (insbesondere Öl, Gas, Uran und Steinkohle) importiert wird, sind die Erneuerbaren Energien heimische Energien, die somit die Wertschöpfung vor Ort erhöhen und die Importabhängigkeit reduzieren.

Hauptsatz der Baake’schen Deutschen Energiewende: Die zwölf zusätzlichen Thesen

Was ist der Grund für diese sehr deutsche Entwicklung?  

Ein Rückblick auf ein halbes Jahrhundert

***

*) genaue Erläuterungen zu den Einzelthemen sind in meinen Veröffentlichungen enthalten und bei Google unter den genannten Titeln zu finden.




Unter die Lupe genommen: Der „menschengemachte Klimawandel“

  Daher sei das CO2 schädlich, ja lebensbedrohlich. Daher die Abkehr von der Energiegewinnung aus fossilen Brennstoffen und Umstieg auf regenerative Energiequellen. Diese Angsteinflößungen und der Umstieg kostete den Bundesbürgern allein im Jahr 2015 für Ökostrom aus Wind-, Photvoltaik- und Biogasanlagen 24,1 Milliarden €. Diese hohe Summe fordert dazu auf, zu hinterfragen, ob die Ursachen, die zuvor aufgezeigten Bedrohnugen, ursächlich stimmen und diese Kosten gerechtfertigt sind?

Eine Klimareligion hat sich aufgetan

1989 verkündete der Weltklimarat (IPCC) der UNO: Ganze Länder werden in Meeren untergehen, wenn nicht bis zum Jahr 2000 die Erwärmung umgekehrt werde. 2005 zelebrierte der politische Direktor von New Economist Foundation, dass bis 2010 50 Millionen Menschen aufgrund des Klimawandels mit seinen steigenden Meerespiegeln, Zunahmen an Wüsten und ausgetrockneten Wasservorräten ihren Lebensraum verlieren werden. AL Gore prophezeite 2009 mit 75%-iger Sicherheit, dass ab 2014 die Nordpol-Eiskappen während der Sommermonate komplett frei sein werden. Die Krönung zur „Seelenwäsche“ in Sachen Klimaschutz brachte im November 2015 der Chefberater der Kanzlerin, Prof. Schellnhuber. Im Vorfeld der Pariser Klimakonferenz prophezeite er den Tod aller Menschen, denn die Erde werde sich um " .. 6 bis 8 bis 10°C“ aufheizen (Schellnhuber, 16.11.2015 RBB) wenn die fossilen Energieträger weiter benutzt werden. Die Menschen würden, selbst wenn sie draußen nackend herumlaufen und sich mit Wasser abkühlen würden, in 4 bis 5 Stunden sterben. DIE WELT setzte am 30.12.2015 noch eine Meldung oben drauf und titelte: „Am Nordpol wird es bis zu 50 Grad wärmer als üblich“. Damit wir unseren Seelenfrieden erreichen, nutzt ganz aktuell (SJ 17.1.) auch Schulpastor Hölterhoff dieses Klischee der „Erdaufwärmung“ mit seinem Bild, dass ganz Norddeutschland unter Wasser stehe und wir nach Senegal flüchten müssen. Da haben wir Glück, dass uns nicht mehr mit der Hölle gedroht wird.

Fakten sind

Keine dieser reißerischen Aussagen ist eingetroffen. Die Polkappen sind nach wie vor da. Keine Stadt ist im Meereswasser untergegangen, die Wüstengebiete der Sahara z. B. nehmen messbar ab. Es gibt keine 50 Millionen Klimaflüchtlinge, sondern aktuell 60 Millionen Kriegsflüchtlinge. Insgesamt muss man zu diesen Fällen Al Gore zitieren: „Wenn hochentwickelter Schwachsinn an die Stelle ernsthafter Analyse tritt“, dann entstehen derartige Meldungen.

Klima – was ist das?

Der Begriff Klima ist ein statistischer Begriff. Er ist international definiert. Alle Wetterparameter eines Tages (Temperatur, Windgeschwindigkeit, Luftdruck, Sonnenscheindauer, Regenmenge usw.) werden erfasst, täglich und monatlich verrechnet und erst die Durchschnittswerte für einen Zeitraum von 30 Jahren bilden die Klimawerte. 30 Jahre umfassen 10950 Tage. Ein einzelner Tag trägt zu den Gesamtdurchschnittswerten des Klimas beispielsweise für den Zeitraum 1986 bis 2015 also nur 1/10950tel bei. Eine Woche ist mit einem 1/1560tel und ein Monat einem 1/360tel an einem Klimazeitraum vertreten. Daraus wird deutlich, das Klima ändert sich noch nicht einmal wesentlich, wenn es mal einen sehr kalten oder sehr warmen Sommer gibt. Ein Jahr hat lediglich einen Einfluss eines 30igstels auf den Klimawert. Wer beispielsweise gleich nach einer Woche großer Hitze oder Kälte meint, das Klima habe sich verändert, liegt mit seiner Feststellung falsch. Leider trifft das auch für einige „kommerzielle Wetterfrösche“ im Fernsehen zu, die nach wenigen Tagen hoher oder niedriger Temperaturen oder Niederschlagsmengen gleich mit Klimaveränderungen aufwarten.

Das Klima war noch nie konstant. Das Klima ändert sich stetig. Und es hat sich immer geändert, obwohl es in der Vergangenheit (vor etwa 1850) nie eine industrielle Verbrennung fossiler Rohstoffe gab. Wer wie Klimaforscher Latif glaubt, das Klima regeln zu können, leidet unter ausgeprägter Selbstüberschätzung.

CO2 – das lebenswichtige Gas

Zunehmend stellen Wissenschaftler vor allem aus dem Bereich der Biologie und Agrarwissenschaften aber auch aus der Meteorologie klar, dass  steigende CO2-Gehalte der Luft positiv für das Wachstum der Pflanzen gegen Hunger und Armut der Menschheit zu bewerten sind. CO2 ist für die Pflanzen ein essentielles, lebensnotwendiges Nährion. Ohne CO2 ist eine Existenz von Pflanzen, Tieren und Menschen nicht möglich! CO2 ist keinesfalls schädlich! Aus dem CO2 der Luft und Wasser bilden die Pflanzen als „Abfallprodukt“ den Sauerstoff O2, den wir zum Atmen brauchen. CO2 ist daher ein äußerst lebenswichtiger, natürlicher „Rohstoff“.

Dass es in der Erdgeschichte einst extrem höhere CO2-Werte gab als heute, beweisen allein die riesigen Kohlenlagerstätten (einstige Urwälder) und Kalksteingebirge (einstige Meere), in denen der Kohlenstoff in unfassbar großen Mengen gebunden ist..

Tropische Regenwälder – Widersprechende Messergebnisse

Uns Bundesbürgern wird seit Jahren infiltriert, wie wichtig die tropischen Regenwälder als natürliche CO2 (= Einlagerung, dauerhafte Festlegung von CO2 für das Weltklima seien. Uns wird eingehämmert, dass in diesen Gebieten der CO2-Gehalt der Luft niedrig sei, weil es die tropischen Pflanzen ständig verbrauchen und wie in einem Speicher einlagern. Die NASA zeigte 2006 Simulationsfilme mit äußerst bedrohlichen, gefährlichen, feuerrot kreisenden CO2-Wolken über der Nordhalbkugel und sehr niedrigen CO2-Werten über den tropischen Regionen. Man kann bei Betrachtung dieser Filme wirklich Angst bekommen.

Erstmalige Satellitenaufnahmen der American Geophysical Union (AGU) vom Herbst 2014 zeigen allerdings etwas anderes: Über den tropischen Regionen ist die CO2-Konzentration deutlich höher als in benachbarten Regionen (wegen des ständigen Stoffauf- und -abbau) und zu dem Zeitpunkt auch deutlich höher als über der Nordhalbkugel, bei uns im industriellen Europa.

Auch diese Märchen von den Tropen müssen nun umgeschrieben werden.

Der Grundsatz, man solle erst messen und dann reden, erweist sich wieder einmal als richtig.

Steigende Meeresspiegel?

Der Meeresspiegel steigt an den Küsten seit Jahrtausenden. Nicht etwa durch Temperaturveränderungen wie Herr Latif es darstellt (BZ11.1.), sondern durch Krustenbewegungen und den  immer noch vorhandenen Verschiebungen der Kontinente. Der Anstieg war in Vorzeiten viel stärker als im letzten Jahrtausend und extrem viel höher als im letzten Jahrhundert. Wer steigende Meeresspiegel mit dem CO2 in Zusammenhang stellt, hat anderes als Aufklärung im Sinn. Er setzt auf die Unmündigkeit der Bürger und will weiterhin lukrative Forschungsaufträge erhalten.

Aussagen zu den Temperaturen hinterfragen

Zum Beweis, dass es auf der Erde wärmer geworden sei, wird gern auf den Zeitraum ab 1850 verwiesen. Danach sei es wegen des CO2-Ausstoßes durch die Industrialisierung unnatürlich wärmer geworden. Wer dieses Argument gebraucht, vertuscht, dass es vorher die „kleine Eiszeit“ von etwa 1400 bis 1850 gab. Ein Zeitabschnitt, in dem es wegen der  ca. 2 bis etwa 5 Grad niedrigeren Temperaturen der Bevölkerung Europas schlecht ging. Ausgeprägte Hungersnöte durch Missernten, Krankheiten und Auswanderungen kennzeichnen vor allem die Zeit um 1800 bis 1850. Die danach allmählich beginnende Erwärmung auf das in der früheren Vergangenheit vorhandene Niveau, kann man nur als „Glücksfall“ für Menschen und Tiere bezeichnen. 

Dieser Temperaturanstieg ist natürlich und unterliegt – so belegt es u. a. auch der Meteorologe Prof. Malberg, Berlin – mit seinen langjährigen Untersuchungen dem Zyklus der hohen und niedrigen Sonnenaktivitäten. Diese Beziehung ist nach seinen Untersuchungen zu 70 bis 80 % bestimmend für die schwankenden Temperaturverläufe in der Erdgeschichte. Die Wolken, also der Wasserdampf in der Atmosphäre, haben einen für jedermann fühlbaren Einfluss auf die Tages- und Nachttemperatur. Das CO2 und die anderen Gase spielen dabei eine untergeordnete Rolle. Seit Jahrzehnten steigt der CO2-Gehalt der Luft aber die Temperatur bleibt davon unbeeinflusst. Seit etwa 18 Jahren hat sich die globale Temperatur kaum verändert, der CO2- Gehalt ist dagegen ständig gestiegen.

Kein nachgewiesener Temperatureinfluss durch CO2

Im Übrigen hat bisher weder der Weltklimarat, die Bundesregierung, noch irgend ein Klimaalarmist den Beweis erbracht, dass steigende CO2-Gehalte der Luft höhere Temperaturen zur Folge haben (Wissenschaftlich: Besteht eine Korrelation zwischen der Lufttemperatur und dem CO2-Gehalt der Luft?). In einer seriösen Wissenschaft wäre dies die erste Arbeitsaufgabe, die geklärt sein müsste, um darauf aufbauend weitere Folgerungen zu ziehen.

Die aktuellen kommunalen Aktionen zum Klimaschutz – Einstellung von Klimamanagern – sind zwar politisch erwünscht, fachlich gibt es jedoch keinen Beweis dafür, dass sie mit ihrer Arbeit das Klima beeinflussen.

Überhaupt die Wissenschaft …

Heutzutage wird jedes politische Vorhaben „wissenschaftlich“ von „Experten“ begründet. Im Bereich des „menschengemachten Klimawandels“ hat sich ein schwungbarer Handel mit gut bezahlten „Projekten“ und „Forschungsvorhaben“ sowie ein teilweise krimineller Handel mit CO2-Zertifikaten entwickelt. Expertisen werden von den „Experten“ gegenseitig begutachtet, um sicher zu stellen, dass die Richtung der Aussagen auch passt. Daten werden geschönt. Zweifler werden gar nicht erst zu Stellungnahmen zugelassen und verunglimpft. Der Weltklimarat selber liefert dazu zahlreiche Beispiele. Oder das gibt es auch bei uns in Deutschland: Wissenschaftler, die abweichende Meinungen publizieren, erhalten einen Maulkorb und werden von ihren Aufgaben entbunden und versetzt. Insgesamt eine bedenkliche Entwicklung, denn eine freie Diskussion ist auf diesem Sektor nicht mehr gegeben.

Politik will unmündige Bürger

Die UNO mit dem Weltklimarat und besonders intensiv in weltweiter Vorreiterrolle benutzt unsere Bundesregierung mittelalterliche, angsteinflößende Scheinargumente für einen angeblich CO2-bedingten und menschengemachten Klimawandel. Die Bundesregierung erklärt uns Bürger für unmündig. Sie setzt alles daran, diesen Status der Unwissenheit aufrecht zu erhalten, um uns ihre allein im Jahr 2015 24,1 Millarden € teure, extrem unsoziale Energiepolitik zu begründen und aufzuzwingen.

Sehr langfristig betrachtet ist es richtig, nach alternativen Energiequellen zu suchen, da die fossilen  endlich sind. Diesen Umstieg allerdings mit einem „menschengemachten“ und „CO2-bedingten Klimawandel“ zu begründen und dafür einer vierköpfiger Familie dauerhaft ca. 1200 € pro Jahr – Tendenz stark steigend –  aufzubürden, ist eine politische Dreistigkeit, die kritische Nachfragen erlauben muss.

====================================================================

)* Dieser Artikel ist zuerst erschienen in:Bremervörder Zeitung, 30.01.2016, S.15 ;

EIKE-Redaktion dankt der Bremv.Z. und Herrn Nitsch für die Gestattung

====================================================================




Kann die Windindustrie sich noch lächerlicher machen?!?!

Das vor kurzem in Schweden aufgenommene Bild zeigt, dass Frost die Rotorblätter einer Windkraftanlage vereist und zum Stillstand gebracht hat.

Um dieses "Problem" zu beheben, wurde ein Hubschrauber eingesetzt (verbrennt Flugbenzin), um die Rotorblätter zum Enteisen mit heißem Wasser zu besprühen (das bei den eisigen Temperaturen auf einem LKW mit einem 260 kW Öl-Brenner erhitzt wird).

Bild: WUWT

Das Flugbenzin, der Diesel für den LKW und den Ölbrenner zum Erhitzen des Wassers, könnte mehr Strom (zur richtigen Zeit um die Nachfrage zu befriedigen) produzieren als die nicht eingefrorene Windkraftanlage (Bevor sie wieder einfriert) jemals produzieren könnte.

Das beigefügte Bild ist eine Metapher des kompletten Wahnsinns der Debatte über den Klimawandel.

In den kommenden Jahrzehnten zeigt allein diese eine Foto die Summe einer Ära der Dummheit auf, als das rationale Denken, Logik und gesunder Menschenverstand verlassen wurde und immenser Wohlstand und Ressourcen unnötig geopfert wurden.

Gefunden auf Stop These Things am 05. Feb. 2016,

http://stopthesethings.com/2016/02/05/could-the-wind-industry-get-any-more-ridiculous/

Übernommen von WUWT vom 23.Jan. 2016

Saturday Silliness – wind turbine photo of the year

Einer der Kommentare auf SST gab einen Hinweis, wo weitere Informationen zu finden sind:

http://www.winterwind.se/sundsvall-2014/presentations-2014/

Ich habe dann die Präsentation gefunden. (weiter unten: De-Icing)

Diese Präsentation zeigt andere Bilder / WKAs als das Bild von SST.

file:///C:/Users/nur%20Internet/Downloads/P01_011_De-Icing-of-wind-turbine-blade-with-an-helicopter-opem-new-opportunities.pdf

  1. Übersetzt durch Andreas Demmig




Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Bild 1 rechts (Foto: Malene Thyssen/Wikimedia Commons)

Unsere Regierung im stetigen Bemühen, das Volk (auf seine eigenen Kosten) vor jedem nur entfernt simulierbaren Risiko zu schützen, hat die Rechner anwerfen lassen und präzise bis in das Jahr 2100 ermittelt, welche Gefahren auf jedem 25 km-Quadrat Deutschlands vom Klima drohen (könnten) und wie viel Geld man ihm schon einmal abknöpfen kann, um sein Simulations-Quadrat im Jahr 2100 klimafest zu machen.

Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

Methodik

Heerscharen an Beamten und Beratern stellten auf 690 Seiten zusammen, wie verletzlich Deutschland ist. Um dies zu ermitteln, simulierte man über ganz Deutschland viele verschiedene Klima-Szenarienvarianten. Und zu den (vielen) Themen wo dies nicht möglich war befragte man Experten welche wissen, wie in 85 Jahren ein Platzregen Gebäude schädigen wird, Hangrutschungen auftreten oder sich die Vereisung von Flugzeugen auswirkt.

Wer erwartet, eine neutrale Analyse zu erhalten sollte beachten:

Die Methodik wurde vom IPCC übernommen. Dieser definiert: „Vulnerabilität das Maß, zu dem ein System gegenüber nachteiligen Auswirkungen der Klimaänderung, einschließlich Klimavariabilität und Extremwerte, anfällig ist und nicht damit umgehen kann.

Und so IPCC-konform wurde vorgegangen. 

Erstes Gebot: Keine Zweifel erlaubt

[1] Einleitung
Das Klima ändert sich mit zunehmender Geschwindigkeit. Steigende Durchschnittstemperaturen und veränderte Niederschlagsmuster sind auch in Deutschland schon nachweisbar. So ist es zum Beispiel im Winter deutlich feuchter geworden (Umweltbundesamt 2015). Klimamodelle sagen uns – bei weiter ansteigenden Treibhausgasemissionen – bis zum Ende des Jahrhunderts zudem häufigere Extremwetterereignisse voraus (siehe Kapitel 3).

Nichts davon ist wirklich war, wie schon oft gezeigt wurde[2], aber konsequentes Wiederholen „belegt“ es eben. Und soll es eine  Fachbehörde überhaupt wissen? Die Leiterin hat kein Fachwissen (Studium: Soziologie) und wurde wohl eher  danach ausgesucht, für die Umsetzung der politischen Vorgaben und nicht für Kritik zu garantieren.

Zweites Gebot: Nicht an der Wirklichkeit orientieren, sondern fröhlich simulieren

[3] Für die ferne Zukunft konnte nicht auf plausible, räumlich differenzierte und quantitative sozio-
ökonomische Szenarien – etwa zur Bevölkerung oder Landnutzung – aufgebaut werden. Daher basierte die Einschätzung der Klimawirkungen im Zeitraum 2071 bis 2100 nur auf den Klimaprojektionen.

Drittes Gebot: Vergleichen mit den Werten der kleinen „Eiszeit“ des letzten Jahrhunderts.

[3] … Verhältnis zum Referenzzeitraum 1961 bis 1990 dargestellt.

Das hat natürlich seine meteorologische  Richtigkeit, DWD-Info:

„Dieser Zeitraum wurde von der Weltorganisation für Meteorologie (WMO) als international gültige Referenzperiode festgelegt. Dieser 30-jährige Mittelwert kann als "Normalwert" bezeichnet werden“.

Warum dieser kurze Zeitraum des letzten Jahrhunderts ein „Klimanormal“ abbilden soll, kann kein Meteorologe oder Klimawissenschaftler erklären. Es ist ganz einfach eine Bequemlichkeit aus dem Vor-Computerzeitalter die nicht berichtigt wird, weil sie das Klimawandeldogma aufgrund der damaligen tieferen Temperaturen unterstützt. Man hätte ja genau so gut die Zeit „vor Beginn der Industrialisierung“, oder „vor der mittelalterlichen Kaltzeit“, „nach der letzten Eiszeit“ oder einfach nur irgendetwas nehmen können. 

Kein Aufwand wurde gescheut, um auch jedes noch so kleine „Verletzlichkeits-Szenario“ aufzuspüren.

[1] Mittels der Vulnerabilitätsanalyse wurden in einem Screeningverfahren deutschlandweit und handlungsfeldübergreifend die Regionen und Systeme identifiziert, die besonders durch den Klimawandel gefährdet, das heißt vulnerabel, sind.

Von einer großen Zahl identifizierter möglicher Auswirkungen des Klimawandels in den 15 Handlungsfeldern der DAS wurden von den Netzwerkpartnern insgesamt 72 Klimawirkungen als potenziell relevant ausgewählt.

Indikatoren
Für die ausgewählten 72 Auswirkungen des Klimawandels wurden rund 100 Impact- und etwa 40 Sensitivitäts-Indikatoren identifiziert
 

Verknüpfung der Handlungsfelder
[3] Insgesamt wurden 636 Wirkungsbeziehungen zwischen einzelnen Handlungsfeldern für die Auswertung berücksichtigt.

 

Bild 2 [3] Betrachtete Wirkungsbeziehungen zwischen den Handlungsfeldern 

Man war sich bewusst, dass die Projektionen fehlerhaft sein können. Als Lösung führte man viele durch, nach dem Motto: Viele Fehler mitteln sich bestimmt irgendwie aus. 

[3] …..sollten sich aufgrund von Unsicherheiten in der zukünftigen Entwicklung nicht auf einzelne Modellläufe stützen. Daher werden möglichst viele Klimaprojektionen gesammelt und kollektiv ausgewertet, um die Bandbreite der möglichen Entwicklung einschätzen zu können. 

Dabei „übersah“ man konsequent, dass zum statistischen Mitteln eine Unabhängigkeit der Stichproben gehört. Diese ist bei den IPCC-Klimaprojektionen nirgends gegeben.

Als Abschluss dann die Bewertung über Deutschlands Klimagefährdung: Wenn`s schlimmer wird – wird`s schlimmer. Und im Jahr 2100 – zu dem  die Simulationen kaum noch etwas aussagen können – , könnte es noch schlimmer werden. 

[3] Gesamtbewertung
Eine weitere Verstärkung des Klimawandels in den kommenden Jahrzehnten erhöht das Schadenspotenzial für Natur, Gesellschaft und Wirtschaft. In vielen Handlungsfeldern sind bereits bis zur Mitte des Jahrhunderts Beeinträchtigungen zu erwarten. In Anbetracht dessen, dass für viele der zentralen Klimasignale gerade gegen Ende des Jahrhunderts eine deutlich größere Änderung erwartet wird, ist davon auszugehen, dass die Stärke und damit auch die Bedeutung vieler Klimawirkungen für Deutschland weiter zunehmen werden.

Die quantifizierten Ergebnisse

In der Langfassung findet sich die folgende Tabelle (Bild 3). Im Kern bildet diese das Ergebnis ab, denn der Rest ist Fleißarbeit und Detaillierung durch endlose Simulierungen und Befragungsdaten.

 

Bild3 [1] Merkmalsausprägungen der untersuchten Klimaparameter für Deutschland bei starkem Wandel (Tabelle 7, vom Autor reduziert auf die  Summenwerte)

Ergebnisdiskussion 

Zuerst sehe man sich die Zahlen in der Tabelle Bild 3 an. Die Abweichung Tropennächte im Jahr 2100 zum Jahr 2015 wird auf ca. 0,2 ‰ genau angegeben.

Man sieht sofort, dass da ein Computer wüten durfte und der Mensch davor nicht die geringste Ahnung hatte, was dieser wirklich tat. Leider sieht man auch, dass die gesamte Kette danach bis zur Schlussredaktion sie auch nicht hatte. In einer mathematisch orientierten Studie eines Bundesamtes darf man erwarten, dass es irgendjemanden gibt welcher zumindest weiß, dass  6 ausnotiert Stellen bei einer Angabe die eher um 500 % toleriert, der Wissenschaft widersprechen welche eindeutig sagt: Es sollen nur Stellen angegeben werden, die auch stimmen. Das Gesagte gilt für praktisch alle Angeben in dieser Tabelle.

Nach dieser eher formellen Basiskritik zu den Detailwerten.

Vulnerabilität Starkwind 

Eine Vulnerabilität entfällt: ‐4,50% Schwankung bis zum Jahr 2100 erschreckt hoffentlich niemanden 

Vulnerabilität Starkregen

Vulnerabilität entfällt: 13,20% Schwankung bis zum Jahr 2100 erschreckt hoffentlich niemanden 

Vulnerabilität Heiße Tage

Die Tabelle besagt, dass diese bis zum Jahr 2100 um präzise 399,50 % zunehmen werden, nämlich von aktuell 4,17 auf 16,66 Tage.

Im Textteil wird es dann (un-)genauer. Leider ohne die Berechnung für das Mittel der Anzahl heißer Tage Deutschlands offenzulegen.

[1]. Gegenwärtig zeigt das Muster insbesondere entlang des Ober und Mittelrheins sowie in Teilen Ostdeutschlands zehn bis über zwölf Heiße Tage pro Jahr.

Für die ferne Zukunft ist bei einem starken Wandel eine maximale Zunahme der Heißen Tage um zehn bis 15 Tage (Norddeutschland) beziehungsweise 30 bis 40 Tage (Südwestdeutschland) zu erwarten. Bei einem schwachen Wandel könnte es in der Mitte Deutschlands zu einer Zunahme um fünf bis zehn Tage, in Süddeutschland um bis zu 15 Tage und im Südosten Bayerns um bis zu 20 Tage kommen.

Parallel wurden diese Simulationen auch in einem eigenen Report für Bayern durchgeführt:

Klima-Report Bayern 2015:

[5] Das Modellensemble zeigt für die heißen Tage in der nahen Zukunft eine Spannbreite von keiner Veränderung bis zu einer jährlichen Zunahme von 14 Tagen (10 Tagen in höheren Lagen) und einer Änderung von 2 bis über 30 Tagen in der fernen Zukunft. 

Somit simulieren die Modelle für das Jahr 2100 irgendetwas zwischen +2 …+40 Tage irgendwo in Deutschland. 

Für tiefer gehende Analysen fehlen in der Studie generell die Daten. Zum Glück gibt es den DWD Klimaatlas Deutschland. Darin sind die Simulationsprojektionen dargestellt und die Zahlengebirge der Studie lassen sich nachverfolgen. Und dabei zeigt sich deutlich der ganze Unsinn solcher Projektionen:

Man zeigt keine Daten vor 1951 und legt einfach fest, dass der Zeitraum von 1961 – 1990 bezüglich der Anzahl einen „Normwert“ darstellen würde. Dann simuliert man munter drauf los und bekommt im Jahr 2100 eine Spanne von 6 … 45 Tagen. Davon bildet man einen Mittelwert = 16,66 (-10,66 / + 28,34) Tage, die als eine Zunahme von 399,50 % angegeben werden. 

Man erkennt, dass so ab dem Jahr 2050 die Projektionsversuche dem Ruder laufen und teils nur noch unkontrollierte Ausschläge generieren. Und man sieht:

Das Jahr 2015 hatte im Mittel bereits 17,5 heiße Tage, also mehr als bei starkem Wandel im Jahr 2100. Nimmt man nicht die Kaltzeit vom letzten Jahrhundert als Referenz, sondern den aktuellen Mittelwert von ca. 9 Tagen, relativiert sich die Erhöhung selbst bei einem starken Wandel auf zusätzliche 7 Tage und damit nur noch auf + 78 % anstelle +399,50 %.  Womit man feststellen darf:

Wenn der Sommer im Jahr 2100 selbst bei einem angenommenen starken Wandel nicht einmal so schön ist wie im Jahr 2015 oder 2003, kann die Vulnerabilität durch heiße Tage nicht gefährdend sein. Dass Deutschland dann „ … nicht damit umgehen“ kann, darf mit Sicherheit bezweifelt werden.

 

Bild 4[6] DWD Klimaatlas Deutschland, Anzahl Heißer Tage mit Projektion

Die Frage ist nun: Was besagen die Heißen Tage?

Die Anzahl heißer Tage (Tage mit Spitzentemperaturen > 30 °C) ist eine attributive Aussage um einen Grenzwert. Bei dieser geht gegenüber einer messenden Aussage extrem viel „Wissen“ über die Probanten verloren was dazu führt, dass die Streuung extrem hoch wird. Das sieht man, wenn man sich beispielhaft die Tages-Spitzenwerte von Nürnberg (welches im durch Hitze gerade gebeutelten Franken liegt) betrachtet. Sieht jemand eine Gefahr durch stetig steigende, sommerliche Überhitzung, wie es  die attributive Darstellung der Heißen Tage suggerieren will?

 

Bild 5 Anzahl Heißer Tage aus [4] und Tages-Maximalwerte von Nürnberg (DWD Datensatz, Stand 11.2015) mit gleichen Jahreszeiträumen (mit Ergänzungen durch den Autor)

Vulnerabilität Tropennächte

Tropennächte nehmen bei starker Änderung  lt. Studie von 0,08 auf 4,83, also um 6037,50% zu.

Würde man den Schwellwert um wenige hundertstell Grad verändern, könnte man auch eine unendliche Zunahme angeben (mit einer 0 im Divisor wird jede positive Zahl durch die Division unendlich). Doch auf 6 Stellen genau ausgewiesen sieht so ein mit Sturheit berechneter statistischer Unsinn irgendwie wissenschaftlich aus. Und erhellen ist, dass es niemanden an der Studie Beteiligten gestört hat. Zur attributiven Auswertung gilt das bereits im vorherigen Kapitel gesagte – nur dass es hier noch augenscheinlicher wird. 

Zur weiteren Analyse hilft auch hier wieder nicht die Studie, sondern erst der Klimaatlas mit den Projektionskurven. Die Darstellung (Bild 6) zeigt im Jahr 2100 eine Spanne von ca. 0,7 … 34 Tagen, was mit einem Mittelwert von 4,83 Tagen angegeben wird. Der aktuelle Wert liegt bei ca. 1 Tag, womit sich im Jahr 2100 bei starker Erhöhung ca. +4 Tage oder +1,1 % des Jahres ergäben.

Womit man sagen darf: Wenn es im Jahr 2100 selbst bei einem angenommenen starken Wandel an Stelle von aktuell einem dann vielleicht 4,83 Tropennächte gäbe, wäre Deutschland bestimmt nicht gefährdend.

Allerdings hätte man diese Betrachtung gar nicht durchführen dürfen. Denn in den Simulationsprojektionen sieht man, dass diese bereits aktuell schon hoffnungslos daneben liegen und danach kaum noch wissen, was sie tun (sollen). Aber eingestehen, dass Klimasimulationen nicht funktionieren und abbrechen – wo käme man da hin.

Bild 6 [6] DWD Klimaatlas Deutschland, Anzahl Tropennächte mit Projektion 

Um wieder vergleichend das „wahre Klima“ zu zeigen, die Daten von Nürnberg (im hitzegebeutelten Franken). Werte über 20 Grad (schwarze Linie) sind Tropennächte (Nächte mit Minimaltemperaturen nicht kühler als 20 °C). Nun versuche man darin den stetigen Aufwärtstrend zu finden, wie ihn die Simulationen bereits aktuell ausweisen.

 

Bild 7 DWD Daten Nürnberg 1955 – 2015 Minimaltemperaturen Tagesauflösung

Vulnerabilität Frosttage

Diese nehmen bei starkem Wandel von 89,54 auf 38,76 Tage ab, stur gerechnet also um -56,7 %. Leider steht dann nichts mehr dazu in der Studie. Es ist aber offensichtlich, dass die Frosttage abnehmen, weil es in Deutschland nicht heißer wird sondern die Kälte abnimmt, wodurch einzig der Mittelwert ansteigt. In der Publizierung: „Das Phänomen der Temperaturstufen“ wurde dies mit vielen Temperaturgängen Deutschlands dargestellt.

Es stellt sich zudem die Frage, ob die „Sehnsucht“ nach Kälte Sinn macht. Warum sich die Klimaforscher bei uns die gerade auch diesen Winter wieder fürchterlich zuschlagenden Kältewellen wie in USA und Asien herbeisehnen – dazu ganz aktuelle die (in keiner Deutschen Zeitschrift gefundene)  Meldung: in Kuwait hat es diesen Winter das erste Mal in der Geschichte geschneit -, bleibt wohl jedem Normalbürger ein Rätsel.

Ob es jedoch realistisch ist, diese Verringerung der Frosttage einfach in die ferne Zukunft weiter zu projizieren, wie es die Simulationen machen, darf sehr bezweifelt werden. Auch hier zeigen die Attributive und die messende Darstellung den Unterschied.

Bild 8 [6] DWD Klimaatlas Deutschland, Anzahl Frosttage mit Projektion 

Wieder die Daten von Nürnberg. Alles unter der roten Linie sind Frosttage.

Bild 9 DWD Datensatz Nürnberg, Minimaltemperaturen von 1955 bis 2015 in Tagesauflösung (Daten wie Bild 7, nur anders eingefärbt)

Vulnerabilität Mitteltemperaturen Winter und Sommer

Es ist ein endloses Thema, ob das Klima stetig steigt oder doch zyklisch verläuft und damit auch wieder fallen könnte. Simulationen (nach IPCC-Vorschrift) lieben keine Zyklen, also muss es danach stetig steigen. Wie viel, ist heftig umstritten „Temperaturen heute knapp unterhalb der niedrigsten Schätzung“. Bereits in den aktuellen Projektionen (Bild 11) sieht man, wie vollkommen daneben sie bereits liegen.

Aber unabhängig davon, wie es eventuell steigen würde, die simulierten Änderungen ändern am Klima wenig, sobald man dazu die Variabilitäten betrachtet.

Deshalb kann man sagen:

Eine Änderung von ca. +3 °C, dazu bei maximaler Auswirkung verletzt Deutschland nicht. Denn ca. 30 % der Temperaturerhöhung sind bereits vor dem Jahr 2000 erfolgt (+1 °C) und wurden somit schon 15 Jahre problemlos überlebt. Der Rest von maximal +2 Grad sind +22 % vom Mittelwert und +6,6 % von der typischen Temperaturspanne in Deutschland mit ca. 30 °C. Wie will man das dem Klima verbieten? Natürlich ist das rein hypothetisch gemeint, denn Deutschland verbietet es dem Klima mit der Dekarbonisierung. 

Ob die Projektionen realistisch sind, soll jeder selbst entscheiden. Aktuell liegen sie schon mal arg daneben. Und dass das „starke Szenario“  nicht realistisch ist, wurde erst auf EIKE gezeigt: „Temperaturen heute knapp unterhalb der niedrigsten Schätzung“.

 

Bild 10 Temperaturen Deutschland nach DWD-Datensatz. Die Hochrechnungen sind aus Bild 3

Bild 11 [6] DWD Klimaatlas Deutschland, Temperatur-Mittelwert Deutschland mit Projektion (gestrichelte, rote Linien vom Autor zugefügt)

Vulnerabilität Trockentage Sommer

Eine Vulnerabilität entfällt: + 14 % Schwankung bis zum Jahr 2100 erschrecken hoffentlich niemanden 

Vulnerabilität Niederschlag Winter und Sommer 

Leider liefert die Studie außer den Zahlenwerten der Tabelle auch dazu keine Aussage. Deshalb wieder die Projektion aus dem Klimaatlas. In diesem Fall sind sogar die Projektionen fast „Geraden“ und zeigen auf, dass der Niederschlag kein Problem ist. Allerdings ist gerade dies zusätzlich ein Beleg, dass die IPCC-nahen Klimasimulationen die Wirklichkeit nicht abbilden. Denn in den Publizierungen „Extremwetter und Hochwasser“ [7]  und „Der Klimawandel bedroht die Wüste Namib“ [8]wurde dargestellt, wie extrem Variabel das Wetter in der Vergangenheit gerade bezüglich dem Niederschlag war (z.B. Bild 13 mit Darstellung anhand eines Hochwasserverlaufs seit dem Mittelalter) und keine direkte Korrelation zur Temperatur vorliegt. Es dürfte also überhaupt nicht wundern, wenn die Simulationen auch hier wieder vollkommen daneben liegen. Diesmal allerdings, indem sie die Variabilität drastisch unterschätzen. In einem späteren Studienkapitel klingt diese Erkenntnis an: … Mit höherer Unsicherheit belastet sind Aussagen zur Veränderung der Niederschläge (hier reicht die Spanne von „es wird feuchter“ bis zu „es wird trockener“).

Fazit: Die Vulnerabilität Niederschlag ist laut der Simulationen gering

 

Bild 12 [6] DWD Klimaatlas Deutschland, Niederschlagsmittel Deutschland

 

Bild 13 [7]  Hochwasserverlauf Main bei Würzburg von 1340 -2014

Vulnerabilität Vegetationsperiode

Die Vegetationsperiode ist in der Tabelle nicht gelistet, sondern wie viel Andere Beobachtungspunkte nur textlich ausgeführt. Interessant ist aber die Beschreibung zur hohen Genauigkeit der Simulationen: 

[1] Da die Zusammenhänge zwischen Temperatursummen und Phänologie sehr direkt sind und die Modelle gut an der Vergangenheit validiert werden können, ist von einer geringen Modellunsicherheit auszugehen. Der Klimaparameter „Temperatur“ ist von allen Klimaparametern der robusteste, unterliegt aber auch einer Unsicherheit, die sich in den unterschiedlich starken Temperaturerhöhungen in den einzelnen Szenarien zeigt. Der Proxyindikator „Stachelbeere“ ist gut geeignet, um Aussagen über andere Pflanzen treffen zu können, da hier von einem weitgehen linearen Zusammenhang ausgegangen werden kann. Für sehr frühe oder sehr späte Arten ergeben sich etwas größere Unsicherheiten.
Insgesamt kann die Gewissheit für diese Klimawirkung als mittel bis hoch angesehen werden.
 

Das Bild dazu findet sich wieder im Klimaatlas [6]. Man betrachte die extreme Variabilität des Vegetationsbeginns, den (zugefügten) Trendkanal und den aktuellen Wert – und dann glaube man der Studie: „ … ist von einer geringen Modellunsicherheit auszugehen …“.

 

Bild 14 [6] DWD Klimaatlas Deutschland, Vegtationsbeginn (mit Ergänzungen durch den Autor)

Wie kritisch analysiert die Studie

Bereits in den vorhergehenden Detaildarstellungen wurde vom Autor Kritik an den Auswertungen geäußert. Wie zweifelhaft die Ergebnisse wirklich sind, lässt sich jedoch exemplarisch beim Thema Sturmfluten zeigen. 

Zuerst kommt eine Alarm-Darstellung: 

[1] Für die Klimawirkung „Sturmfluten“ wurde im Rahmen des Projekts keine Betrachtung der fernen Zukunft durchgeführt. Das Norddeutsche Klimabüro hält jedoch fest: „Windbedingt können Nordseesturmfluten Ende des Jahrhunderts (2071 bis 2100) ein bis drei Dezimeter höher auflaufen als heute (1961 bis 1990). Dazu kommen bis zum Ende des Jahrhunderts noch zwei bis acht Dezimeter Meeresspiegelanstieg. Insgesamt können Sturmfluten in der Deutschen Bucht dann drei bis elf Dezimeter höher auflaufen als heute“ (Norddeutsches Klimabüro ohne Jahr). 

An anderer Stelle wird dieser Angabe dann widersprochen: 

 [1] … hat sich der allmähliche Meeresspiegelanstieg an der Nordsee in den letzten Jahrzehnten allerdings noch nicht verstärkt und weist keine signifikanten Veränderungen auf, da der Anstieg gleichbleibend bei etwa 25 Zentimetern pro Jahrhundert bleibt (Müller-Navarra 2014 mündlich; Berkenbrink 2014 mündlich). 

Anm.: Diese Feststellung entspricht genau dem Analyseergebnis des Autors in der Recherchereihe Reihe „Gehen die Südseeinseln wirklich wegen des Klimawandels unter“ und der Darstellung zum Nordseepegel in der Analyse „In  Deutschland kein Klimawandel in Sicht T2“, wonach  für Cuxhaven seit dem Jahr 1840 ein Anstieg von 2,35 mm pa (23,5 cm pro Jahrhundert) gemessen wurde ohne  ein Anzeichen steigender Tendenz.  Diese Daten liegen nicht nur mündlich vor, sondern bei Universitäts-Instituten. Man hätte sie also in den vier Jahren während denen an der Studie gearbeitet wurde sicher finden können (der Auto fand sie mittels google sofort).

Anstatt diese eklatanten Widersprüche und zweifelhaften Datenangaben „ … mündlich …, … ohne Jahr …“ anhand der sogar öffentlich zugänglichen Messergebnisse zu verifizieren oder wenigstens darzustellen, wird es ignoriert und eine erkennbar politisch motivierte Aussage abgeleitet: 

[1] Zentrale Klimawirkungen und handlungsfeldübergreifende Schwerpunkte

… Schäden an Küsten durch vor allem in der fernen Zukunft möglichen erhöhten Seegang und steigende Sturmflutgefahr aufgrund eines weiteren Anstiegs des Meeresspiegels …

Und zusätzlich sogar mit einem Haupt-Handlungshinweis versehen:

[1] … Das deckt sich mit der Einschätzung der vorliegenden Studie, in der den Handlungsfeldern „Bauwesen“ sowie „Küsten- und Meeresschutz“ … die höchste Betroffenheit aller Handlungsfelder attestiert werden.

Gesamtbewertung Vulnerabilität

[1] Gesamtbewertung
Eine weitere Verstärkung des Klimawandels in den kommenden Jahrzehnten erhöht das Schadenspotenzial für Umwelt, Gesellschaft und Wirtschaft. In vielen Handlungsfeldern sind bereits bis zur Mitte des Jahrhunderts Beeinträchtigungen zu erwarten. In Anbetracht dessen, dass für viele der zentralen Klimasignale gerade gegen Ende des Jahrhunderts eine deutlich größere Änderung erwartet wird, ist davon auszugehen, dass die Stärke und damit auch die Bedeutung vieler Klimawirkungen für Deutschland weiter zunehmen werden.

Wie bewertet es der Autor

Diese ellenlange und aufwendige Vulnerabilitätsstudie hat wie schon der Klima-Monitoringbericht keine wirkliche Bedrohung ausfindig machen können. Zusammen mit dem Klimaatlas belegt es nur, dass die Klimasimulationen so schlecht und entfernt von der Wirklichkeit sind, dass sie die Aussage einer Glaskugel oder eines Würfelns nicht übersteigen. Gerade die Simulationskurven ab dem Jahr 2050 zeigen häufig, dass die Algorithmen nur noch Unsinn berechnen. Diesen offensichtlichen Unsinn mit „ … gerade gegen Ende des Jahrhunderts eine deutlich größere Änderung erwartet wird …“ als bewertbare Aussagen zu erklären, zeigt die Unfähigkeit (bzw. eher den fehlenden Willen) der Studienautoren Simulationen kritisch zu hinterfragen.

Einzig sinnvoll wäre, dieses Vulnerabilitätsverfahren  einzustellen und das Geld für aus der Wettererfahrung der Vergangenheit abgeleitete Maßnahmen einzusetzen.

Doch das wird nicht geschehen. Nachdem immer offensichtlicher wird (siehe bei [2], speziell die Auswertung des Uba-Klimamonitoringberichtes) dass Deutschland zwar starke Wettervariabilitäten, aber keinen Klimawandel erlebt, heißt die Devise nicht:

Wir haben dank der vielen Untersuchungen eine beruhigende, unalarmistische Feststellung erhalten und können jetzt aufhören, sondern: Wir haben bis jetzt nichts gefunden, aber genau deshalb eine furchtbare Zukunftsangst und müssen deshalb verstärkt danach suchen.

Wie es der Klima-Monitoringbericht 2015 schon ausweist, empfindet die Politik die Klimabetroffenheit der Bevölkerung als viel zu gering ein. Es gibt immer noch zu viele Personen, welche nicht konsequent daran glauben, dass alles schlimmer werden muss.

UBA Klimamonitoringbericht 2015:

Betroffenheit durch Stürme und Hochwasser
Das Risikobewusstsein in der deutschen Bevölkerung ist trotz der extremen Wetterereignisse der vergangenen Jahre noch immer gering. Nicht einmal ein Viertel der befragten Bürgerinnen und Bürger geht davon aus, dass für ihr Haus oder ihre Wohnung ein reales Schadensrisiko durch Stürme und Hochwasser besteht. Entsprechend gering ist damit auch die Bereitschaft, eine Versicherung abzuschließen.
 

Für eine solche Klimawandel-Ignoranz des Volkes haben unsere höchsten Klimasachverständigen natürlich überhaupt kein Verständnis. Denn von ihren hohen Positionen aus haben sie einen ganz anderen Blickwinkel und können dadurch sogar „ … dem Klimawandel bei der Arbeit zusehen“ wie es die bayerische Umweltministerin jüngst verkündete:

Kopie von der Homepage der bayerischen Umweltministerin am 01.02.2016 (Hervorhebung durch den Autor):

http://www.ulrike-scharf.de/: Klimaschutz wird zum Mitmach-Projekt / Neue Bayerische Klima-Börse geplant

Die weltweite Durchschnittstemperatur lag im Jahr 2015 laut Weltorganisation für Meteorologie erstmals knapp ein Grad über dem vorindustriellen Wert. Der Schutz des Klimas bleibt damit auch 2016 ein Top-Thema. Das betonte die Bayerische Umweltministerin Ulrike Scharf heute in München: "Wir nehmen den Rückenwind des Klimagipfels in Paris mit ins neue Jahr. Jetzt sind die Weichen für die Zukunft gestellt. Und die Staaten müssen liefern. Wir wollen in Bayern bis 2050 auf unter zwei Tonnen Treibhausgasemissionen pro Einwohner und Jahr kommen. Denn wir können dem Klimawandel beim Arbeiten zusehen.

Eine Frage stellt sich dabei dem Autor: Was würde passieren, wenn man dem Klimawandel seine Arbeiten nicht mehr bezahlen würde. Würde er dann vielleicht einfach aufhören? die klimabedingte Risiken abdeckt.

Folgerung:

Diese Vulnerabilitätsanalyse wird nun mit vielen Untermaßnahmen regelmäßig wiederholt und erweiternd EU-weit und dann Welt-weit eingebunden. Eine risikolose Beschäftigungsorgie für eine schlecht ausgebildete, aber politisch richtig indoktrinierte Akademikerschwemme und Politiker. Dass diese bei so viel Arbeit für die Zukunft dann nicht mehr dazu kommen, ihre aktuellen politischen Hausaufgaben zu machen, ist verständlich.

Andere Meinungen

Der Autor will den EIKE Lesern nicht verheimlichen, dass es auch vollkommen gegensätzliche Bewertungen zu dieser Studie gibt. Eine auf dem Portal von  KLIMARETTER.INFO (Mit-Herausgeberin: Claudia Kemfert, Klima- und EEG-Expertin des DIW) sei exemplarisch gelistet. 

Klimaretter.info: Deutschland 30-Grad-Tage verdoppeln sich

Deutschland wird bis Mitte des Jahrhunderts die Folgen des Klimawandels deutlich zu spüren bekommen. Davor haben fünf Tage vor Beginn der UN-Klimakonferenz das Umweltbundesamt und der Deutsche Wetterdienst gewarnt. Besonders die Gefahr von Hitzewellen und Hochwasser werde drastisch ansteigen. Das ist das Ergebnis einer Studie, die untersucht hat, wie verwundbar Deutschland durch den Klimawandel ist.

"Vor dem Hintergrund der bevorstehenden Klimakonferenz und den aktuellen Warnungen über die möglichen Folgen der Klimaänderung wird deutlich, dass wir bis 2050 nicht nur die Dekarbonisierung erreichen, sondern Deutschland auch klimasicher machen müssen", sagte die parlamentarische Staatssekretärin im Bundesumweltministerium Rita Schwarzelühr-Sutter bei der Vorstellung der Studie. Inzwischen gehen die Experten davon aus, dass sie relativ klar voraussagen können, was auf Deutschland zukommt. "Zwar brauchen wir auch weiterhin noch Forschung, aber unsere Ergebnisse zur Klimazukunft in Deutschland sind schon jetzt so belastbar, dass sie für die Begründung politischen Handelns nutzbar sind", sagte Paul Becker, Vizepräsident des Deutschen Wetterdienstes (DWD). 

Die Frage stellt sich, ob man von der Frau Staatssekretärin eine neutrale, geschweige kritische Beurteilung erwarten darf: Studium Wirtschaft, Mitglied bei: „KLAR  – kein Leben mit atomaren Risiken“, und Mitglied beim Lobbyverein: „EUROSOLAR – Europäische Vereinigung für Erneuerbare Energien e.V.“. Zu dem lukrativen Job gekommen, weil sie Mitglied im Landesvorstand der SPD Baden-Württemberg und Bundestagsabgeordnete ist.

Der DWD  profitiert davon. Er weiß: Kritik wird von dieser Seite wird nie kommen, so lange die Prognosen in die politisch geforderte Richtung zeigen, egal wie (un-)belastbar seine Expertisen wirklich sind.

Quellen

[1]

Umweltbundesamt Uba: Climate Change 24/2015 Vulnerabilität Deutschlands gegenüber dem Klimawandel (Langfassung 690 Seiten)

[2]

EIKE 24.08.2015: Die Süddeutsche Zeitung im Klimarausch 

http://www.eike-klima-energie.eu/klima-anzeige/die-sueddeutsche-zeitung-im-klimarausch/

EIKE 01.06.2015: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil2) 

http://www.eike-klima-energie.eu/climategate-anzeige/in-deutschland-kein-klimawandel-in-sicht-das-kann-die-sz-nicht-auf-sich-sitzen-lassen-teil2/

EIKE 30.06.2015: Ernteerträge und Klimawandel 30.06.2015

http://www.eike-klima-energie.eu/klima-anzeige/ernteertraege-und-klimawandel/

EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis 

http://www.eike-klima-energie.eu/news-cache/kann-man-den-klimawandel-in-deutschland-wirklich-taeglich-spueren-eine-suche-mit-ueberraschendem-ergebnis/

EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

http://www.eike-klima-energie.eu/news-cache/die-bayerische-umweltministerin-frau-scharf-extremwetter-extrem-hochwasser-und-die-unberechenbarkeit-des-wetters-nehmen-zu-doch-stimmt-das-wirklich/

[3]

Umweltbundesamt Uba: Climate Change 24/2015 Vulnerabilität Deutschlands gegenüber dem Klimawandel (Kurzfassung 66 Seiten)

[4]

Uba Klimamonitoringbericht Deutschland 2015

[5]

Klima-Report Bayern 2015

[6]

DWD Klimaatlas

[7]

EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[8]

EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur




Über die Wahrscheinlichkeit der jüngsten Rekordwärme

Vor kurzem in Nature veröffentlich:

The Likelihood of Recent Record Warmth
[Die Wahrscheinlichkeit der jüngsten Rekordwärme]

Autoren: M.E. Mann, S. Rahmstorf, B.A. Steinman, M. Tingley, and S.K. Miller

Zusammenfassung aus Nature, o.g. Link

2014 war nominell das wärmste Jahr der Aufzeichnung sowohl für den Globus als auch der Nordhalbkugel, basierend auf historischen Aufzeichnungen der letzten anderthalb Jahrhunderte (1), (2). Es war der jüngste in einer letzten Serie von Temperaturen Rekorden der letzten fünfzehn Jahre. Die Presse berichtet von Chancen wie eins zu 650 Millionen, dass die beobachteten Temperatur-aufzeichnungen auch in der Abwesenheit der von Menschen verursachten globalen Erwärmung auftreten würden. Ungeachtet der Frage, wie wahrscheinlich die beobachteten Temperaturaufzeichnungen sowohl mit als auch ohne Einfluss des Menschen gewesen sein könnten, ist das als eigene Frage interessant. Hier versuchen wir diese Frage mit einem semi-empirischen Ansatz anzugehen, die die neuesten (CMIP53) Klimamodellsimulationen mit Beobachtungen der globalen und hemisphärischen Temperatur kombiniert. Wir fanden, dass einzelne Rekordjahre und die beobachteten Rekord-Temperaturen in Abwesenheit vom Menschen verursachten Klimawandel extrem unwahrscheinlich stattgefunden haben könnten, wenn auch bei weitem nicht so unwahrscheinlich, wie nach den Presseberichten vorgeschlagen. Dieselben Rekordtemperaturen können im Gegensatz dazu sehr wahrscheinlich in Gegenwart von anthropogenem Klima stattgefunden haben.

Die Abhandlung wird einige mediale Aufmerksamkeit bekommen, hier sind zwei Artikel die die Bandbreite anzeigen:

Die Rekorde von heißen Jahren sind mit ziemlicher Sicherheit durch von Menschen gemachter Erwärmung verursacht

Die neue von Prof. Mann gemachte Studie zur Erderwärmung ist eine „wissenschaftlich wertlose Abhandlung“

Judith Curry: Mein Kommentar wurde für den Examiner Artikel erbeten:

Die Analyse von Mann et al. beschönigt 3 große Streitigkeiten in der Klimaforschung:

a) Fehler und Unsicherheiten in der Temperaturaufzeichnung, um den Rekord der Oberflächentemperaturen in Einklang zu bringen (die eine gewisse Erwärmung in den letzten Jahrzehnten zeigen) gegen den globalen Datensatz der Satelliten (die im Wesentlichen keine Erwärmung für die letzten 18 Jahre zeigen).

b) Die Klimamodelle, die deutlich zu heiß laufen. Für die letzten zehn Jahre waren die globalen durchschnittlichen Oberflächentemperaturen an der Unterseite des Toleranzbandes von Klimamodell – Simulationen gewesen. Selbst das sehr warme Jahr 2015 (anomal warm aufgrund eines sehr starken El Nino) ist kühler als die Vorhersage des Multi-Modell-Ensembles.

c) Wie die vom Menschen verursachte Klimavariabilität aus natürlichen Klimaschwankungen zu trennen ist, bleibt ein herausforderndes und ungelöstes Problem. Mann et al. verwendet die Methode von Steinmann et al. um die Zwangs Variabilität (zB. CO2, Sonne, Vulkane) abzuleiten, als Berechnung der internen Variabilität (zB. von Meereszirkulationen) als Rest. In der Tat, das von Steinmann et al verwendete Multi-Modell-Ensemble geht davon aus, dass alle jüngste Erwärmung durch CO2 angetrieben wurde. Meine Kollegen, angeführt von Sergey Kravtsov, veröffentlichten vor kurzem eine Abhandlung in Science; [siehe auch diesen blog post] und argumentieren, dass die Methode von Steinman et al. fehlerhaft ist und zu einer erheblichen Unterschätzung führt, der internen Variabilität der in großem Maßstab multi-dekadischen Ozean Schwingungen.

Die globalen Temperaturen haben sich insgesamt schon seit mehr als 200 Jahren erhöht. Menschliche verursachte CO2-Emissionen können eine erhebliche Menge dieser Erwärmung vor 1950 nicht erklären. Worauf die jüngsten Schwankungen der globalen Temperatur zu zuschreiben ist, ist weiterhin ein mit erheblichen Unsicherheiten behaftetes Problem. Die Arbeitsberichte des IPCC kommen zu dem Schluss: "mehr als die Hälfte" der Erwärmung seit 1950 wird durch den Menschen verursacht, mehr als die Hälfte Implizieren> 50% [wer weiß, was das tatsächlich bedeutet, siehe meine Meinungsverschiedenheiten mit Gavin]. Diese Einschätzung räumt Unsicherheiten in den Klimamodellen ein, die feststellen, dass seit 1950 alle Erwärmung durch den Menschen verursacht wird. Die Mann et al. Abhandlung geht von der Annahme aus, dass alle Erwärmung durch den Menschen verursacht wurde, nach unserem aktuellen Wissensstand ist das eine ungerechtfertigte Annahme.

Ein weiterer Kommentar, zu technisch, um ihn an den Examiner zu senden:

d) Die Verwendung des Multimodell-Ensemble auf diese Weise ist aus einer statistischen Perspektive einfach unangemessen. Siehe mein früheren Post: Wie sollen wir ein Ensemble von Klimamodelle deuten? Auszüge:

Wie sollen wir Angesichts der Unzulänglichkeiten der gegenwärtigen Klimamodelle, die Multi-Modell-Ensemble-Simulationen des Klimas im 21. Jahrhunderts interpretieren, die in den IPCC-Berichten verwendet werden? Dieses Ensemble-von-Gelegenheiten, besteht aus Modellen mit allgemein ähnlichen Strukturen, aber unterschiedlichen Parametern an Auswahl und Kalibrierung. McWilliams (2007) und Parker (2010) argumentieren, dass die derzeitigen Klimamodell Ensembles nicht darauf ausgelegt sind, gegenständliche Unsicherheit auf gründliche oder strategische Weise darzustellen.

Stainforth et al. (2007) argumentieren, dass Modell Unzulänglichkeiten und eine unzureichende Anzahl von Simulationen im Ensemble sinnvolle Wahrscheinlichkeitsverteilungen von der Frequenz [Häufigkeit / Dichte] der Modellergebnisse des zukünftigen Klimas erzeugen. Bei Stainforth et al. heißt es: "Bei gegebenen, nichtlinearen Modellen, die unter den gegenwärtigen Bedingungen große systematische Fehler haben, wurde keine Verbindung bezüglich der Verteilung der Modellzustände unter veränderten Bedingungen zu entscheidungsrelevanten Wahrscheinlichkeitsverteilungen auch nur annähernd feststellt. . . Darüber hinaus sind sie irreführend, weil die Schlussfolgerungen, in der Regel in Form von PDF-Dateien, viel mehr Vertrauen implizieren als die zugrunde liegenden Annahmen rechtfertigen."

[Hinweis des Übersetzers: Das Thema der Klimasimulationen gehört nicht zu meiner Expertise. Einige unter den Lesern können das bestimmt besser. Hier der Originaltext zu vorstehender Übersetzung:

Given nonlinear models with large systematic errors under current conditions, no connection has been even remotely established for relating the distribution of model states under altered conditions to decision-relevant probability distributions. . . Furthermore, they are liable to be misleading because the conclusions, usually in the form of PDFs, imply much greater confidence than the underlying assumptions justify.”]

Kommentar Nic Lewis:

Ich bat Nic Lewis um seinen Kommentar zu der Abhandlung, er schickte ein paar schnelle Anfangsüberlegungen dazu, die überarbeitete Version ist unten eingearbeitet:

  Hallo Judy, Es ist eine Abhandlung, die sehr wenig wissenschaftlichen Wert hat,   auch wenn sie zu 100% korrekt wäre. Ich habe einige besondere Bemerkungen:

1. Sie sagen: "Es ist angemessen, ein stationäres, stochastisches Zeitreihenmodell zu definieren, mit Parametern aus dem Rest der Serie geschätzt." Dies ist eine nicht unterstützte Behauptung. Im Gegenteil, diese Methode mit Restgrößen zwischen den aufgezeichneten und den im Modell simulierten Temperaturänderungen die interne Variabilität zu schätzen, ist unzureichend; der beobachtete Datensatz ist zu kurz um die interne Variabilität vollständig abzutasten und es gibt nur eine Instanz davon. Darüber hinaus sind die Modellparameter und ihre Antriebskräfte sehr wahrscheinlich aufeinander abgestimmt, so dass Modellsimulationen von historischen Zeiten die beobachteten Temperaturänderungen sehr gut treffen (zB. durch stark negative Einflüsse der Aerosole im dritten Viertel des 20. Jahrhunderts, um eine bessere Übereinstimmung mit dem „großen Pause" zu erreichen). Dadurch werden die Restgrößen künstlich reduziert. Schätzungen, die auf Testläufen über lange Perioden und nicht angetriebenen AOGCM [Atmosphere-Ocean General Circulation Model, gefunden hier] beruhen, routinemäßig zur Erkennung und Zuordnung von Studien durchgeführt, sind ein viel weniger unbefriedigendes Verfahren, allerdings bei weitem nicht perfekt.

2. Der bessere Weg anthropogene Antriebe von natürlichen Klimaänderungen und von internen Variabilitäten zu trennen ist es, einen Nachweis und eine Zuordnungsanalyse der Multimodelle durchzuführen und Rasterdaten zu verwenden und nicht nur globale oder der nördlichen Hemisphäre. Zwei gründlichere neuere Studien, die es so machten, wurden im IPCC AR5 Bericht verwendet, um ihre anthropogenen Aussagen [Zuordnung] zu erreichen. Diese Studie hat keine vergleichbare Komplexität und ermöglicht keine Aussagen stärker als in AR5 [bereits] gemacht wurden.

3. Sie sagen, dass eine Langzeitkorrelation (Langzeitspeicher) des Rauschens [noise process] nicht unterstützt wird: "Einige Forscher haben argumentiert, dass das Klima Rauschen erster Ordnung ein nichtstationäres Verhalten aufweisen könnte, dh. so genannte „Langzeit-Abhängigkeit". Analysen von modernen und Paläoklima Beobachtungen unterstützen jedoch den Schluss, dass es nur das anthropogene Klimawandel Signal ist, das nicht-stationäres Verhalten erster Ordnung zeigt, mit klimatischen Störgrößen am besten durch ein stationary noise model [stationäres Modell der Störgrößen(?); A.D.] beschrieben wird. Wir haben dennoch den zusätzlichen Fall von (3) „des anhaltenden“ roten Rauschens berücksichtigt, wobei das Rauschmodell die Roh – Beobachtungsreihe trifft."

[Rotes Rauschen: Leistungsdichte umgekehrt proportional zum Quadrat der Frequenz (~ 1/f^2)]

Drei Probleme gibt es:

a) Die "Analyse" die sie zitieren, ist ein redaktioneller Kommentar von Michael Mann.

b) Langzeitkorrelation betrifft im Allgemeinen NICHT das nicht-stationäre Verhalten erster Ordnung. Ein klassischer Fall von Langzeit-Abhängigkeit ist ein fraktionelles Differenzmodell, welches nicht-stationärer erster Ordnung ist unter der Bedingung, dass der Differenzparameter kleiner als 0,5 ist.

Ein solches Modell wird als eine physikalisch plausible, einfache Ein-Parameter-adjustierbare Charakterisierung der internen Klimaviariabilität betrachtet, genau wie das autoregressive Modell mit Abhängigkeit im Kurzfrist-Zeitraum, das sie verwenden (AR 1). … Imbers et al. fanden heraus, dass beide Modelle zu der internen Variabilität des Klimas angemessen im GMST über die historische Zeitperiode passten, dass jedoch im Modell mit der langfristigen Abhängigkeit die Unsicherheitsbereiche größer waren.

c) Das „anhaltende“ roten Rauschen Modell hat überhaupt keine Langzeitkorrelation (es ist ein AR (1) -Modell mit einem unterschiedlich geschätzten Autokorrelationsparameter), es bietet es wenig oder gar keine Prüfung der Auswirkungen der wahren internen Variabilität bei Langzeit Beziehungen.

4. Nichts in dieser Studie betrachtet die Wahrscheinlichkeit, dass die hohen, letzten aufgezeichneten Temperaturen den Fall ergeben haben, wo es eine anthropogene Komponente gibt, aber diese ist weniger stark als von den CMIP5 Modellen simuliert, d.h. weil sie zu sensitiv sind. Darüber hinaus haben einfache Modelle eine geringere Empfindlichkeit gegenüber Antrieben von Treibhausgasen, aber auch weniger Aerosol-Kühlung, als in den meisten CMIP5 Modellen und können eine genauso gute oder bessere Übereinstimmung mit den historischen Aufzeichnungen als das CMIP5 Multimodell bieten – besser, wenn bekannte, natürliche Multidekade Variabilität (AMO) berücksichtigt wird. Das ist / diese sind wirklich die Schlüsselfragen – ist die ganze Erwärmung über [den Zeitraum] der historischen Periode anthropogenen; und unter der Annahme, sie ist es auch, kann sie durch Modelle berücksichtigt werden, die weniger empfindlich auf steigende Konzentration von Treibhausgasen reagieren? Nur wenige ernsthafte Menschen behaupten in diesen Tagen, das kein Teil der Erwärmung in der historischen Periode eine anthropogene Ursache hat, was alles ist, was Manns Verfahren versuchen kann auszuschließen.

5. Ich denke, dass ihre Erweiterung der CMIP5 auf historische Simulationen 2005-2014 höchst fragwürdig ist. Sie sagen, "Wir haben die CMIP5 Serie bis 2014 erstreckt, die durch Referenz 13 bereitgestellten Schätzungen genutzt (Hintergrundinformationen)." Das heißt, ich glaube, dass sie die CMIP5 Modell Temperaturtrends nach 2005 reduzieren, um angeblich niedrigere [Temperaturen] als die tatsächlichen zu erzwingen. In der Simulation bezieht er sich stattdessen auf Referenz 12. Weder Ref. 12 noch Ref. 13 scheinen solche Schätzungen zu erzeugen. Ref 14, die in ihrer Referenzliste den Titel eines anderen Berichtes trägt (der korrekte Titel ist "Die Vereinbarkeit von Erwärmungstrends“) ist sehr wahrscheinlich falsch in der Schlussfolgerung, dass die Antriebe in CMIP5 Modellen in den letzten zehn Jahren oder so überschätzt wurden. Sie berücksichtigten nur Antriebe, von denen sie dachten, sie würden in den Modellen positiv geändert. Die Frage wurde in einer neueren Arbeit korrekt untersucht, Outen et al 2015, die alle Antriebe berücksichtigten und feststellten, dass es "keinen Beweis gibt, dass Fehler bei der Erklärung der Pause eine bedeutende Rolle spielen" – sie fanden einen vernachlässigbaren Unterschied, wenn sie die letzten Beobachtungs-Schätzungen substituieren mit diejenigen, die in einem CMIP5 Modell verwendet werden.

6. Sie verwenden modellierte SST (TOS) [Sea surface temperature] [Temperature over surface] eher als Lufttemperatur (TAS) in 2m Höhe über dem Ozean. Im Prinzip ist dies sinnvoll, wenn es mit HadCRUT4 und alte Versionen von GISTEMP verglichen wird, aber nicht mit der neuesten Version von GISTEMP oder mit den neuen NOAA (Karl et al – MLOST?) Aufzeichnungen, da es die SST anpasst um, mit der oberflächennahen Lufttemperatur zu übereinstimmen auf einer dekadischen und multidekadischen Zeitskala.

Ich hoffe das hilft Dir, Nic

Fazit, Judith Curry 

Die Abhandlung von Mann et al. produziert sicherlich eine schlagkräftige Titelzeile und es ist eine Herausforderung, die Probleme mit der Abhandlung an die Öffentlichkeit zu kommunizieren.

Wie ich es sehe, ist diese Arbeit eine riesige Übung im Zirkelschluss:

1. Nehmen Sie an, die globalen Oberflächentemperatur Schätzungen sind zutreffend; dann ignorieren sie die Unterschiede mit den durch atmosphärische Satelliten gemessenen Temperaturen.

2. Nehmen Sie an, dass CMIP5 Multimodell Ensemble kann verwendet werden, um Wahrscheinlichkeiten genau darzustellen.

3. Nehmen Sie an, die CMIP5 Modelle simulieren eine ausreichend interne Variabilität

4. Nehmen Sie an, externe Daten über Antriebe sind ausreichend sicher,

5. Nehmen Sie an, dass die Klimamodelle im Wesentlichen 100% der jüngsten Erwärmung durch CO2 korrekt erklären,

Damit die Mann et al. Analyse funktioniert, muss man ihm jede dieser fünf Annahmen abkaufen; jede davon ist fraglich, in unterschiedlichem Ausmaß.

Erschienen auf Judith Curry am 26. Januar 2016

Übersetzt durch Andreas Demmig

http://judithcurry.com/2016/01/26/on-the-likelihood-of-recent-record-warmth/




Mojib Latif – Predigt oder Wahrheit?

Dabei ist es für die ihm gebannt lauschenden Zuhörer fast nie möglich, zu erkennen, ob das, was da gesagt wird, wahr ist, oder nur die Meinung eines Predigers, der vor keiner Übertreibung, keiner verbogenen Fakten-Interpretation zurückschreckt, um die Menschen, die ihm gläubig zuhören, zur Umkehr in seinem Sinne, Klimaschutz genannt, zu zwingen.

Leider wird den meisten nicht gewahr, dass sich hinter der Maske des Wissenschaftlers ein fanatischer Weltende-Prediger verbirgt.

Video: Das Team vom Klimamanifest von Heiligenroth hat die wildesten Widersprüche und falschen Prophezeiungen der letzten beiden Jahrzehnte des Predigers Latif nachgezeichnet.

Bild 1: Die „Pause“ klar zu erkennen, die El-Nino-Jahre 1998+2015 auch; Bild K-E-Puls 

Disclaimer: Das Team vom Klimamanifest von Heiligenroth bezeichnet Mojib Latif in diesem Video häufiger als Scharlatan. Wir lehnen diese Bezeichnung ab, obwohl auch M. Latif – wie gezeigt wird – einen anderen Wissenschaftler, die nicht seiner Meinung ist – öffentlich und vor laufender Kamera- fälschlich auch schon mal des Betruges bezichtigt. Trotzdem machen wir uns diese Charakterisierung nicht zu eigen, denn es könnte ja sein, dass Latif das glaubt, was er da sagt und lehrt. Wir sehen daher in Herrn Latif eher einen Endzeit-Prediger, denn einen Wissenschaftler, der die Fakten, komme was da wolle, über den Glauben stellen müsste. Und die sehen im großen und Ganzen anders aus, als Herr Latif uns und seinen Zuschauern weismachen will.




Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

Der Autor konnte die im Artikel erkennbare Euphorie des Lokalredakteurs zur Vorstellungen dieses Vorstands der NERGIE (der höchst-bezahlte Versorger-Vorstand in Bayern: „stadtwerke-manager-verdienst“) und sein Riesengeschäft nicht teilen. Er meint sogar, dass die parallele Geschäftsführung in einer Firma, welche ausschließlich von der „Energiewende“ profitiert die Unabhängigkeit kommerzieller wie auch fachlicher Entscheidungen eklatant in Frage stellt, was sich z.B. anhand der Propagierung von Akkuspeichern – den teuersten Energiespeichern überhaupt und zur Lösung des EEG-Speicherproblems vollkommen untauglich – vermuten lässt.  Auch die Art der Präsentation mit Unterstützung durch den wohl grünsten CSU-Abgeordneten  – von welchem dem Autor bisher ausschließlich ideologisch begründete (und  haarsträubende) Statements zum Thema bekannt sind und der immer noch davon überzeugt ist, dass die Erhöhung der Stromkosten niemals vom EEG verschuldet ist: „wird-die-energiewende-zurueckgedreht“ – als „Beleg“ lässt auf fehlende Unabhängigkeit und im Wesentlichen politisch motivierte Entscheidungs-Orientierung schließen.

Deshalb mailte er eine Nachfrage an die Pressestelle. Dieses Mail und die Antwort der N-Ergie ohne Kommentar anbei.

An die Pressestelle der N-Ergie

Sehr geehrte Ansprechpartner(-innen) der Pressestelle,

mit Verwunderung habe ich in der Zeitung den Artikel „N-Ergie will Macht der Stromgiganten brechen“ gelesen. Ich beschäftige mich als Privatmann ebenfalls etwas mit dem EEG und dem Strommarkt – mit dem Ergebnis, dass ich leider einige der im Artikel vom  N-Ergie Chef J. Hasler gemachten Aussagen nicht nachvollziehen kann.

Nachdem kein Vorstand eine solche Präsentation  durchführt, ohne ein sorgfältig ausgeführtes Konzept vorliegen zu haben, sollte die Beantwortung meiner Fragen – bzw. eine Übersendung des zugrunde liegenden Strategiekonzeptes – problemlos möglich sein.

Hinweis: Diese Anfrage und Ihre Beantwortung erlaube ich mir im Blog EIKE (Europäisches Institut für Klima und Energie e.V.) zu publizieren, da es von allgemeinem Interesse ist, wie moderne Versorger sich die Energiezukunft vorstellen, umsetzen und lösen. Für N-Ergie auch eine gute Gelegenheit, ihre innovativen Ideen einer kritischen Leserschaft vorzustellen und im Kommentarteil bewerten zu lassen.

Meine Nachfragen

Artikel

Der Vorstand der N-Ergie sieht es als großen Nutzen, 45.000 EEG-Anlagen in den vergangenen Jahren angeschlossen zu haben.

Frage

Meines Wissens bekommt jede EEG-Anlage bisher eine höhere Einspeisevergütung als die Energie auf dem Strommarkt Wert ist (z.B. die Großanlagen auf der Nürnberger Kongresshalle über 45 ct/kWh). Wo sehen Sie da den  Vorteil für den Endkunden?

Artikel

Ein Versorger, der „die Macht der Stromgiganten brechen will“ hat damit das Ziel für seine Kunden einen bisher nicht vorhandenen Nutzen zu generieren. Bisher war der Nutzen der „Stromgiganten“ eine extrem stabile Stromversorgung und ein  billiger Strompreis. Dies klingt im Artikel auch an „ … So war es schließlich all die Jahrzehnte, so hat es sich bewährt, so soll es bleiben“.

Man kann beim Lesen des Artikels den Eindruck gewinnen, dass seitens der N-Ergie eher die EEG-Erzeuger als das ursprüngliche Klientel, die Stromkunden unterstützt werden. Zu den Zeiten die im Artikel so negativ dargestellt werden kam überhaupt niemand auf die Idee, seinen Strom selbst zu erzeugen. Der wesentliche Grund war, dass es sich nie gelohnt hätte.

Frage

Welches Basis-Konzept hat die N-Ergie um mit dem Brechen „der Macht der Stromgiganten“ einen Nutzen für seine Stromkunden zu generieren. Ab wann rechnet die N-Ergie damit, dass grüner Strom dann Marktpreis-fähig sein wird?

Warum ist es in den Augen der N-Ergie ein Vorteil, privat Strom selbst erzeugen zu müssen, nur weil der vom Versorger gelieferte so hochpreisig geworden ist (mit steigender Tendenz), dass sich sogar teurer Selbstversorger-Strom zum Eigenverbrauch inzwischen lohnt.

Artikel

Herr Hasler sagt: „… die Zukunft sei denzentral“ und „… es ist volkswirtschaftlich am Günstigsten, wenn jede Region ihr erneuerbares Potential selbst nutzt und nur Überschüsse ausgetauscht werden“.

Frage

Wieso gibt es im dezentralen EEG-Zukunftsnetz nur Überschüsse? Wenn man sich die Leistungs-Ganglinien der Ökostromerzeugung Wind und Solar ansieht (Solar ist dafür extrem typisch) dann gibt es über sehr lange Zeiten auch massivste Unterdeckungen. Wo kommt dann die Energie im lokalen Versorgungssystem her?

Dazu die Präzisierung: Mit welchem Ausbaufaktor rechnet die N-Ergie, um den Bedarf autark decken zu können (z.B. bezogen auf den Ausbau von 2015).

Artikel

Wie im Artikel zwischen den Zeilen angemerkt ist neben vielen anderen ein ganz großes Problem die Speicherung  „ … die mehr Energie erzeugen könnten. Als im Netz überhaupt verbraucht wird. Zwar nur auf dem Papier ….“,

Dazu wird in den folgenden Ausführen verkündet, dass N-Ergie selbst „… und sie arbeiten daran“ Lösungen zur Speicherung von Elektroenergie durchführt, wozu mit einer Firma von Akkuspeichern zusammen gearbeitet wird.

Ergänzende Information

In der N-Ergie „Studie“: Innovative Stromspeicher wissenschaftlich beleuchtet, wird mit keinem Wort auf Kosten eingegangen. Gleichzeitig wird seitens N-Ergie für Stromspeicher zur Steigerung des Selbstverbrauchs geworden.

Meiner Information nach (Bezug z.B. die umfassende Speicherstudie: Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“) sind Akkuspeicher die teuersten Speicher überhaupt und (aus Kostengründen) zudem ausschließlich als Kuzzeitspeicher geeignet (weshalb sie in seriösen Studien oft gar nicht erwähnt werden). Bei einem weiteren Ausbau der grünen Energie benötigt man jedoch in erheblichem Umfang auch Langzeitspeicher. Die dafür bisher einzig verfügbaren sind Powert to Gas mit Rückverstromung. Diese haben einen Wirkungsgrad von max. 40 % und erhöhen den Strompreis bei einer Einspeisung mit 11 c/kWh (aktuelle EEG-Vergütung Windstrom) auf weit über 30 ct/kWh.

Fragen

Darf man von der N-Ergie erfahren, wie sie generell das Speicherproblem lösen will und wie sie die Kostensituation einschätzt.

Stromspeicher zum Selbstverbrauch konterkarieren das Geschäftsfeld als Versorger. Welche strategische Zielsetzung verfolgt die N-Ergie damit?

Artikel

Darin steht (wohl als Aussage von Herrn Hasler): „ … Umgekehrt stützt jede neue Solaranlage, jedes neue Windrad die dezentrale Idee“.

Frage (wiederholend zur Frage nach dem grundlegenden Strategiekonzept)

Diese möchte ich allgemein stellen: Welches Zukunftskonzept mit detaillierter Betrachtung der erforderlichen Ausbaumaßnahmen Wind und Solar, der Netzstruktur zur Spannungshaltung, erforderlichen Speichervolumens mit Aufteilung für Kurzzeit / Langzeit und vor allem der Kosten inclusive der gewaltigen Investitionsmaßnahmen liegt bei der N-Ergie vor.

Artikel

Im Artíkel steht, dass CSU-MdB Herr Göppel von N-Ergie Chef J. Hasler  extra eingeladen wurde mit der Begründung: „ … ein Mitglied einer Regierungspartei, das den eigenen Leuten einheizt, genau dafür hat er Göppel als CSUler mit bekannt grünem Herzen eingeladen“.

Mir als Kunde ist bekannt, dass die Stadtwerke München durch ihre Ökostrom-Investitionen das erste Mal in ihrer Geschichte Verlust ausweisen.

Frage

Sind die Energieentscheidungen der N-Ergie inzwischen rein politisch begründet? Welchen Beitrag liefert Herr Göppel (Ausbildung Forstwirt)  bei der Beurteilung der wichtigen technischen und ökonomischen Fragestellungen zukünftiger Energieformen. Kann N-Ergie dazu welche benennen (z.B. fundiert ausgearbeitete Publizierungen zum Thema).

Wie verhindert die N-Ergie, nicht das gleiche Problem wie die Stadtwerke München zu bekommen. Die Mit-Investition am Kraftwerk Irsching hat bereits gezeigt, dass N-Ergie Vorstände sogar bei überschaubaren mittelfristigen Zukunfts-Planungen vollkommen daneben liegen können.

Artikel

Herr Göppel erklärt lt. Artikel auf die Forderung von Bayerns Energieministerin Frau Aigner, den Ausbau der Windkraft zu bremsen „ … Da spricht die völlige Unkenntnis der der realen Situation …“. Über die Ideen zu einer Reform des EEG erklärt er „… Widersprechen in ihrem Geiste der Vernunft“. Beide wurden (lt. Artikel) von Hrn. Hasler mit einem zustimmenden Lächeln quittiert.

Frage

Mich würde sowohl die Argumentation der N-Ergie Leitung bezüglich der  Forderung von Fr. Aigner zur Reduzierung des Windausbaus (Grund war meines Wissens das Begrenzen des Energiepreises für die Stromkunden – also das Haupt-Klientel der N-Ergie) sowie zur angedachten EEG-Novellierung interessieren.

Ein Versorger (-Geschäftsführer) welcher öffentlich diesen Ausführungen von Herrn Göppel zustimmt, hat ganz bestimmt sehr schlüssige Argumente, weshalb die Bayerische Ministerin eine völlige Unkenntnis der realen Situation hat und die Bundesregierung dem Geist der Vernunft widerspricht.

Zusatz

Herr Hasler ist gleichzeitig Geschäftsführer der N-Ergie und der N-ERGIE Regenerativ GmbH.

Lt. Homepage plant, entwickelt, realisiert und betreibt diese Schwesterfirma Photovoltaikkraftwerke und Windparks und bietet interessierten Bürgern die Möglichkeit zur finanziellen Beteiligung an diesen Anlagen.

Der genannte Artikel liest sich auch eher wie eine Präsentationsveranstaltung dieser „Nebenfirma“ und weniger der N-Ergie als Versorger.

Frage

Welche Kundenstrategie verfolgt die N-Ergie als Versorger. Wie wird Konflikt zwischen den zwei Geschäftsbereichen verhindert?

Die Antwort der N-Ergie

Sehr geehrter Herr Kuntz,

hier nun unsere Stellungnahme zu Ihren Fragen.

Die N-ERGIE betrachtet es als ihre Aufgabe, die politischen Vorgaben entsprechend des geltenden gesetzlichen Handlungsrahmens möglichst effizient umzusetzen. Dies ist die Vorgabe des EnWG. 

Gesellschaftliches und politisches Ziel in Deutschland ist die Entwicklung einer vieldimensional nachhaltigen Energiewirtschaft auf der Grundlage der Zieltrias aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit. Der notwendige Beitrag regenerativer Energiequellen zur Stromerzeugung steigt nach dem deutschen Energiekonzept sukzessive auf bis zu 80 % im Jahr 2050; fossile Energieträger werden nur mehr ergänzende Funktion im zukünftigen Energiesystem einnehmen. Dies ist die aktuelle Vorgabe der Politik.

Die Einbindung von 45.000 EEG-Anlagen in unserem Netzgebiet ist z.B. eine solche politische Vorgabe. Die N-ERGIE sucht nun Lösungen, um diese Anlagen auch nach dem Auslaufen ihrer gesetzlich zugesicherten Einspeisevergütung effizient in das Energiesystem zu integrieren. Denn unsere Aufgabe als Energieversorgungsunternehmen ist es, bei der Herausforderung zur Transformation der Infrastruktur angemessene Gestaltungsoptionen zu finden.

Eine der wesentlichen neuen Aufgaben wird der Ausgleich zwischen der natürlicherweise fluktuierenden Einspeisung elektrischer Energie aus regenerativen Quellen und der ebenfalls schwankenden Entnahme des Stroms aus dem Netz sein. Zur Erreichung des physikalisch-technisch stets notwendigen Gleichgewichts von ein- und ausgespeister Leistung sowie Arbeit in elektrischen Netzen ergeben sich durch die kleinteilige und großtechnische Flexibilisierung von Bedarf und Erzeugung zukunftsweisende Lösungsmöglichkeiten.

Hier verfolgen wir mit dem Projekt SWARM eine Optimierung zwischen Kundeninteresse (Eigenverbrauch) und Systemdienstleistung (Poolen der Speicherkapazität für Systemdienstleistungen).

Als Regionalversorger unterstützt die N-ERGIE gerade auch dezentrale Lösungen, da diese nach unserer Überzeugung ein größeres Potenzial für die Entwicklung innovativer Lösungen beinhalten als beispielsweise der Ausbau der Höchstspannungsinfrastruktur. Dezentrale Lösungen bedeuten Wertschöpfung und damit Stärkung der Wirtschaftskraft auch in der Region.

Der gesellschaftliche Grundkonsens der deutschen Energiewende mit ihren neuen Strukturen, Rollen, Vorgehensweisen, Geschäftsmodellen und Märkten gründet in der Erkenntnis, dass die Energieversorgung im Strom nahezu vollständig dekarbonisiert werden muss und hierzu die Kernenergie keine akzeptable Option für Deutschland darstellt . Dazu bekennt sich die N-ERGIE.

Mit freundlichen Grüßen

Dr. Heidi Willer
Pressesprecherin

Unternehmens- und Marketingkommunikation

—————————————————————————————————————————-

N-ERGIE Aktiengesellschaft Nürnberg




Elektroautos: Ein weiteres, nicht eingehaltenes Versprechen der Obama-Kampagne – und das ist gut so!

Nach seiner Amtseinführung legte er im März 2009 nach, und zwar in Gestalt einer executive order, in der er „2,4 Milliarden Dollar Förderung anbot für die nächste Generation von Elektrofahrzeugen (EV)“. Dies sollte helfen, „das Ziel des Präsidenten zu erreichen, bis zum Jahr 2015 eine Million Hybrid-Fahrzeuge auf die Straße zu bringen“. In seiner Rede zur Lage der Nation im Januar 2011 (hier) setzte er seinen Feldzug fort: „Wir können unsere Abhängigkeit von Öl durchbrechen … und zum ersten Land werden, das bis zum Jahr 2015 1 Million Elektroautos auf die Straße bringt“.

Eine im Februar 2011 im Scientific American erschienene Analyse trug den Titel [übersetzt] „Ist Obamas Ziel bzgl. 1 Million Elektroautos auf den US-Autobahnen bis 2015 realistisch?“ In dem Artikel heißt es: „Die Obama-Administration erkennt, dass das Erreichen eines solchen Zieles ohne Hilfen seitens der [US-]Bundesregierung unmöglich sein wird“. Dann skizzierte der Beitrag, wie die Dollarmilliarden aus der öffentlichen Förderung das erreichen sollten, was zugegebenermaßen „immer noch ein Luftschloss“ sein könnte. Der Artikel kommt zu der Schlussfolgerung: „So viel regierungsamtliche Beteiligung hat den Regierungen der US-Staaten und der privaten Industrie geholfen, auch bedeutende Investitionen im EV-Bereich vorzunehmen“.

Im gleichen Monat bezeichnete das Energieministerium DOE in einem Bericht die 1 Million Elektrofahrzeuge bis 2015 als „ambitioniert“ und „erreichbar“. Weiter heißt es darin: „Aus diesem Grunde hat Präsident Obama Schritte vorgeschlagen, die amerikanische Führung bei der Entwicklung von Elektrofahrzeugen auszubauen, einschließlich Verbesserungen der bestehenden Steuervorteile für Verbraucher. Die Programme sollen Städten helfen, sich auf die wachsende Nachfrage nach Elektrofahrzeugen vorzubereiten sowie auf Unterstützung für Forschung und Entwicklung“.

Im Jahre 2013 hat das DOE diese „überspannte [quixotic]“ Objektive „abgeschwächt“, wie es bei Cleantechnica.com bezeichnet wurde. Reuters zufolge sagte das DOE im Januar 2013: „Ob wir jenes Ziel 2015 oder 2016 erreichen, ist nicht so wichtig im Vergleich dazu, dass wir auf dem richtigen Pfad sind, viele Millionen dieser Fahrzeuge auf die Straße zu bekommen“. Dann, vor einem Jahr mit nur noch 11 verbleibenden Monaten bis zur Erfüllung von Obamas Versprechen, stellte sich Energieminister Ernest Moniz der Realität: „Wir hinken dem ambitionierten Ziel von Präsident Obama (Ende 2015) einige Jahre hinterher, aber ich glaube, dass wir dieses Ziel innerhalb weniger Jahre erreichen werden“.

2015 steht jetzt in den Geschichtsbüchern, und nachdem Milliarden Dollar von den US-Steuerzahlern für Subventionen für EV ausgegeben worden waren an Verbraucher und die Industrie berichtet Reuters: „Nur etwa 400.000 Elektroautos sind verkauft worden. Im vorigen Jahr ging der Verkauf um 6% im Vergleich zum Vorjahr auf 115.000 zurück; und dies, obwohl die Industrie etwa 30 Plug-In-Modelle angeboten hat, oftmals mit gewaltigen Rabatten“. Aber obwohl vielleicht 400.000 EVs verkauft worden sein könnten, ist deren tatsächliche Anzahl auf den Straßen wahrscheinlich viel geringer. Die meisten der „Verkäufe“ sind in Wirklichkeit Verpachtungen, und wenn die Pachtzeit abgelaufen ist, rollen die EVs zurück zum Händler und von dort zum Hersteller. Fahrer wollen sie einfach nicht haben, selbst wenn generöse Anreize geboten werden, dass gemietete Modell auch zu kaufen. Dem Wall Street Journal zufolge gibt es kaum eine Nachfrage nach Gebraucht-Elektrofahrzeugen.

Unabhängig von den geringen Verkaufszahlen sagt Reuters: „Die Industrie fährt damit fort, neue Modelle auf den Markt zu bringen als Reaktion auf Aufträge der Regierung und aufgrund des eigenen Wunsches, Marken zu kreieren, die für Umwelt-Innovation stehen“. Und da gibt es die Krux der EV-Bemühungen: „Umwelt-Innovation“ – es gibt ein Gefühl, dass EVs das Richtige für die Umwelt sind. Bei reuters heißt es weiter: „Viele Autobauer machen sich Sorgen, weil die Verbraucher sie als technologisch rückständig betrachten, wenn sie keine elektrischen Autos herstellen – selbst falls sie diese nicht in großer Zahl verkaufen können“. Befürworter grüner Autos sagen: EVs sind ein Standbein der Bemühungen, Treibhausgas-Emissionen zu reduzieren“.

Während der Verkauf enttäuschend war, steigert die Industrie die Herstellung von EVs als Folge „eines Zustromes staatlicher und öffentlicher Gelder sowie damit zusammen hängende Aufträge“. Dies drängt die EVs in den Markt „weit unter den Herstellungskosten“. Nachdem weiterhin gutes Geld schlechtem hinterher geschmissen wurde,  erklärte Moniz vor einem Jahr, dass das Energieministerium „56 Millionen Dollar neue Zuwendungen auslobt für Forschungsprojekte, die zum Ziel haben, die Effizienz von Elektroautos zu reduzieren und zu verbessern“.

All dies, dazu gedacht, CO2-Emissionen zu reduzieren und umweltlich innovativ zu erscheinen, aber das geht am Ziel vorbei.

Im Dezember 2014 wurde eine Studie veröffentlicht, in der behauptet wird, dass Elektroautos „3,6 mal mehr Ruß und Smog erzeugen als mit Benzin betriebene Fahrzeuge“. Der Mitautor der Studie Julian Marshall, Ingenieur-Professor an der University of Minnesota, sagt: „Es ist irgendwie schwierig, Benzin aus dem Feld zu schlagen. … Viele Technologien, die wir als sauber ansehen, sind nicht besser als Benzin“. In Wirklichkeit werden diese Null-Emissions-Fahrzeuge allgemein durch Kohle angetrieben.

Mit der Lektüre der Kommentare zu der Berichterstattung bei CBS verwerfen EV-Befürworter die Schlussfolgerung, dass EVs nicht so grün sind als wir vorgeben.In einem Kommentar heißt es sogar: „Ich bekomme einen Hauch des nicht so schwachen Geruchs von Big Oil in die Nase. Hat man vielleicht die Ergebnisse der Studien adjustiert???“.

Popular Mechanics zufolge „schwärmen Forscher aus, um die Auswirkungen verschiedener Alternativen, ein Auto anzutreiben, auf die menschliche Gesundheit zu studieren“. Überraschenderweise „waren Fahrzeuge mit innerer Verbrennung, die mit Äthanol aus Mais betrieben wurden, sowie mit Kohlestrom betriebene Elektroautos die wirklichen Sünder“.

Während EV-Befürworter behaupten wollen, wie es einer getan hat, dass EVs durch Wind- und Solarenergie angetrieben werden, stützen die Fakten diese Phantasterei nicht.

Im November war in der Washington Post (WP) eine große Story erschienen: „Elektroautos und die Kohle, die sie antreibt“. Darin heißt es: „Parallel zu dem Boom gab es eine rasant steigende Nachfrage nach Energie, um die Fahrzeuge aufzuladen, welche mit einem einzigen Ladevorgang genauso viel Energie verbrauchen können wie ein normaler Kühlschrank während eineinhalb Monate Betriebszeit“.

Die niederländische Stadt Rotterdam verbannt „die ältesten Abgas ausspuckenden Fahrzeuge“ aus der Stadt. „Dank großzügiger Steueranreize, hat der Anteil elektrischer Fahrzeuge in den Niederlanden schneller zugenommen als in fast jedem anderen Land der Welt“. Und wie stillen sie die „rasant steigende Nachfrage nach Energie“? Mit drei neuen Kohlekraftwerken.

Die WP folgert: „Aber trotz all dieser Bemühungen auf lokaler und nationaler Ebene werden die Niederlande ihre Emissionsziele bis 2020 verfehlen – als Folge der neuen Kohlekraftwerke“. Noch mehr Kohlekraftwerke – befeuert mit billiger amerikanischer Kohle – sind wegen der gestiegenen Nachfrage von EVs in Planung.

In China sind die Auswirkungen ähnlich; dort haben sich die EV-Verkaufszahlen vervierfacht. Die WP stellt fest: „Chinesische Führer haben Elektroautos als eine Möglichkeit begrüßt, Städte mit der schlimmsten Luftqualität weltweit sauberer zu machen. Aber der chinesische Energiemarkt hängt sehr stark von Kohle ab; die Verschmutzung wird einfach aus den Zentren der Städte zu deren Außenbezirken verlagert“. Jüngst hat Reuters eine Reihe von Studien der Tsinghua University angesprochen. Die Ergebnisse? „In China aufgeladene Elektroautos erzeugen zwei bis fünf mal so viel Partikel und Chemikalien, die zu Smog beitragen, wie mit Benzinmotoren angetriebene Autos“.

Seit den siebziger Jahren haben Autohersteller dank amerikanischer Innovation und Initiativen Abgase und Schmutz dramatisch eingedämmt. Die globale Flotte von Transportfahrzeugen auf EVs umzurüsten, wie es mit Steueranreizen versucht wurde, machen weder umweltlich noch ökonomisch Sinn. Der ehemalige GM-Vize-Vorsitzende Bob Lutz, der die Entwicklung des originalen Chevy Volt geleitet hatte, erklärt: „Falls Benzin 8 Dollar pro Gallone [ca. 4 Liter] kosten würde, würden sich für die Verbraucher die Kosten von Elektroautos ziemlich schnell amortisieren. Aber bei einem Preis von 1,50 Dollar pro Gallone – wer will da die 8000 oder 10.000 Dollar Aufschlag hinblättern?“

Es zeigt sich, dass Obamas 1 Million EVs bis 2015 ein „Luftschloss“ war. Selbst die [US-]Bundesregierung hat die projizierten Zahlen nie geglaubt. Seine Ideale sind weder mit den Interessen der Verbraucher noch mit der Technologie konsistent.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Übersetzt von Chris Frey EIKE




Eine Welt – Ein Mensch – Ein Klima – Eine Temperatur!

Ehrgeizig ist der Vertrag ohne Zweifel, ist er aber auch praktikabel und umsetzbar? Und wie bekommt dem Planet, unserer Erde, die „Revolution für den Klimawandel“? Wie soll diese Revolution aussehen und vonstatten gehen? Das Wort „Revolutio“ kommt aus dem Altlateinischen und bedeutet „Umdrehung“. Den Begriff verwandte Nikolaus Kopernikus 1543 in seinem berühmten Werk „De revolutionibus orbium coelestum“. Mit ihm musste das geozentrische dem heliozentrischen Weltbild weichen. Nicht die Erde, die Sonne war fortan das Zentrum unseres Sonnensytems. Steht mit Paris ein Systemwechsel an, wird die Sonne ihrer „Allmachtposition“ beraubt? Ist es der selbstherrliche Mensch, der das „Eine Klima“ auf der Erde macht und die Sonne zum Zuträger degradiert, der für die regionale Klimavielfalt und das inferiore, ungezogene Wetter zuständig ist?

Dieser Gedankengang wäre in der Tat eine Revolution, aber können die Staatsmänner dieser Erde mitsamt dem Heiligen Stuhl so unrealistisch sein? Will man im Sinne von Nicolo Machiavelli (1469-1527) und dessen Werk „Il Principe“ die heutige Unordnung wieder in die alte Ordnung (Ritorno al principi) zurückführen? Das Pariser Ziel ist es ja, wieder in vorindustrielle Verhältnisse zurückzukehren, bei denen der Mensch noch nicht zum „Herrn des Klimas“ aufgeschwungen hatte und daher nach Hans Joachim Schellnhuber keine „Selbstverbrennung“ des Planeten drohte? Es war England, von dem aus sich zwischen 1750 und 1850 die „Industrielle Revolution“ zunächst über Europa und dann mit den dazu gehörenden Ideologien über die gesamte Welt ausbreitete. 

Ein Hauptfeld der Forschung in der Frühphase der Industriellen Revolution galt der Elektrizität. Die Stromerzeugung brachte im Jahr 1866 Werner von Siemens zur Serienreife. Strom ist heute das „Blut“, das in den Adern der modernen Industriegesellschaften zirkuliert und unverzichtbar geworden ist. 1770 hatte Luigi Galvani (1737-1798) an den Schenkeln eines toten Frosches beobachtet, dass Elektrizität auch Bewegungen auslösen kann. Auch Menschen kann man „unter Strom“ setzen und mit elektronischer Musik in rhythmisch-ekstatische Bewegungen versetzen.

Elektronische und ideologisch-geistige Gleichrichter

Noch aus der Schule ist bekannt, dass Gleichrichter einen Wechselstrom in einen pulsierenden Gleichstrom umwandeln kann. Für diesen Zweck können viele elektrische Bauelemente eingesetzt werden, die Strom nur in eine Richtung passieren lassen. Dies ist bei Diodengleichrichtern oder Röhrengleichrichtern der Fall. Glühkathoden besitzen eine Heizwendel, welche die Elektronenabgabedurch Erhitzung des Kathodenmaterials zuerst ermöglicht und dann auch beschleunigt. 

Was beim Strom möglich ist, das wurde und wird auch beim Menschen praktiziert, mit zunehmendem Erfolg. Die Leichtgläubigkeit des Menschen und seine Manipulierbarkeit wie Verführbarkeit, zusammen mit einer Autoritätsgläubigkeit mit anerzogenem Gehorsam sind schon seit Urzeiten bekannt. Relativ neu ist die Erkenntnis, dass der Mensch nicht nur ein soziales Wesen ist, sondern auch einen Hang zur Vermassung hat, der mehr und mehr von herrschenden Ideologien ausgenutzt wird, um Massen in bestimmten Richtungen zu bewegen und sich hörig zu machen. 

Das Phänomen „Masse“ entdeckte zuerst Gustave Le Bon (1841-1931), der 1895 sein Hauptwerk „Psychologie der Massen“ veröffentlichte und als Begründer der Massenpsychologie gilt. An ihm wird aus heutiger „linker“ Sicht kritisiert, dass er Massen und ihr Verhalten extrem negativ bewertet. Insbesondere gilt dies in Hinblick auf das „Arbeiter-Proletariat“, das sich  von sozialistischen Vorstellungen beherrschen und beliebig manipulieren lasse. Diese Kritik geht gezielt fehl! Le Bon setzte sich mit der Rolle des Unbewussten auseinander und seine Übermacht über die Vernunft, die von Demagogen leicht ausgeschaltet werden kann. Aber die Entwicklung des Neomarxismus wie der 68er Studenten-Revolte zeigen, dass die Analyse von Le Bon gleichermaßen auf das „Intellektuelle Proletariat“ übertragen werden kann.

Als am 20. Januar 1986 die „Deutsche Physikalische Gesellschaft e.V.“ (DPG) wie ein „Blitz aus heiterem Himmel“ die „Warnung vor der drohenden Klimakatastrophe“ den Medien präsentierte, war es der SPIEGEL, das Leib- und Magenblatt der Intellektuellen, der diese Story aufgriff und derart dramatisierte, dass er die Politik auf den Plan rief. Die „Klimapolitik“ war geboren, „Klimaschutz“ wurde zum Schlagwort der Zeit! Die DPG beherzigte Le Bon, der erkannte: „Je bestimmter eine Behauptung ist, je freier sie von Beweisen und belegen ist, desto mehr Ehrfurcht erweckt sie.“ Quasi starr vor Ehrfurcht trägt seitdem jeder Intellektuelle die Parole „Klimaschutz“ vor sich her wie eine Monstranz.

Der Psychoanalytiker Sigmund Freud (1856-1939) ging einen Schritt weiter als Le Bon und stellte fest, dass menschliche Handlungen von unbewussten Impulsen beherrscht werden und irrational seien. Er sagte auch, dass Ideen die Institutionen formen und nicht umgekehrt. Es war die Idee von der drohenden „Klimakatastrophe“, die den Institutionen „Umweltbundesamt“ wie „Umweltministerium“ voranging, auch dem PIK, dem „Potsdam-Institut für Klimafolgenforschung“. Diese Institutionen werden nicht an dem Ast sägen, auf dem sie sitzen und der königliche Früchte trägt.

Da für die Hypothese der treibhausbedingten „Klimakatastrophe“ samt der dadurch verursachten „Erderwärmung“ bis heute keine Beweise vorgelegt wurden, hat man „Klimaexperten-Runden“ eingerichtet, die sich im Kreis drehen, sich gegenseitig belobigen und bestätigen, dann einen „Konsens“ formulieren, den sie zu einem „Dogma“ mit wissenschaftlichem Charakter erheben und außer Diskussion stellen. Sie lassen sich als „Elite“ feiern und hoffen auf die „Dummheit der Welt“ wie die „Macht des Konformismus“. Wie die Worte von François Hollande zum Schluss des COP21 zeigen, hat die Idee „Klimaschutz“ weltweit die staatlichen Institutionen im Griff.

Pawlows Hund und die klassische Konditionierung des Menschen 

Von Le Bon stammt der Satz: „Das Wiederholte befestigt sich so sehr in den Köpfen, dass es schließlich als eine bewiesene Wahrheit angenommen wird.“ Gerade deswegen wird die Hypothese vom „menschengemachten Klimawandel“  wieder und wieder gebetsmühlenartig wiederholt! In einer Presseerklärung des PIK vom 25. Januar 2015 erklärt Stefan Rahmstorf: „2015 ist wieder das wärmste je gemessene Jahr, und das kann kaum Zufall sein“. Mit einer „extrem hoher Wahrscheinlichkeit sind die jährlichen Wärmerekorde Ergebnis des von Menschen ausgelösten Klimawandels“. Diese „beträgt zwischen 1 zu 5000 und 1 zu 170.000“! Bei diesen Werten würde ich sehr vorsichtig sein, zumal die „Globaltemperatur“ eines Jahres kein gemessener Wert ist. Sie ist ein berechneter Wert ohne Wert, eine abstrakte Zahl, die für keinen Ort auf der Erde gilt. Sie ist ein Spielwert und auch kein „Klimawert“, denn der setzt eine 30jährige Mittelung voraus. 

Er wird über die Medien den Massen vorgeworfen und von ihnen konsumiert. Auch hier hat Le Bon recht: „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen missfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären versucht, stets ihr Opfer.“ Diese Erfahrung macht jeder, der nur gelinde darauf hinweist, dass alle Maßnahmen zum „Klimaschutz“ nichts am Wetter ändern und damit alle „Klimaabgaben“ für die Katz sind. 

Selbst der Physik-Nobelpreisträger Richard Feynman (1918-1988) wird ignoriert, wenn er zu Theorien sagt: „Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt; egal, wie elegant sie ist; egal, wie plausibel sie klingt; egal, wer sie unterstützt – wenn sie nicht durch Beobachtungen und Messungen bestätigt wird, dann ist sie falsch.“ Dabei zeigen alle bisher gemachten Beobachtungen und Parallelmessungen von CO2-Gehalt und Temperatur der Luft, dass keine Kausalbeziehung, ja nicht einmal eine Korrelation zwischen beiden Elementen besteht. Wenn morgens die Sonne „aufgeht“, dann wird zuerst der Boden und von ihm die Luft erwärmt, die Pflanze beginnt gleichzeitig aus der Luft CO2 zu assimilieren mit der Folge, dass der CO2-Gehalt sinkt, bis zum Sonnen„untergang“.

Unser Verhalten ähnelt dem, was der Nobelpreisträger Iwan Petrowitsch Pawlow (1849-1936) an seinem „Pawlowschen Hund“ erforschte. Er entdeckte das Prinzip der „Klassischen Konditionierung“. Pawlow hatte den „bedingten Reflex“ gefunden, der das verhalten des Hundes steuerte. Diese Art von „Konditionierung“ ist auch bei Menschen gelungen und wird auf Neudeutsch „nudgen“ genannt. Man kann Menschen „anschubsen“ zu „richtigem“ Verhalten, z. B. sich „klimafreundlich“ zu verhalten. Dies funktioniert, weil Menschen Informationen meist peripher verarbeiten. Wir treffen Entscheide vielfach unbewusst, nur basierend auf Emotionen oder heuristisch, weil meist die Zeit fehlt, komplexe Sachverhalte mühselig zu entschlüsseln und alle Faktoren rational zu verarbeiten.

Die „Revolution für den Klimawandel“ ist eine politische Revolution 

Die einseitige Konditionierung und Fixierung der Menschheit in Hinblick auf den „Klimaschutz“ lässt sie nicht mehr die Gefahren erkennen, die aus dieser politischen Revolution erwachsen. Der Verweis des französischen Staatspräsidenten François Hollande auf die Französische Revolution von 1789 mit der Parole „Freiheit, Gleichheit, Brüderlichkeit“ hat zwar „Freiheiten“ gebracht, aber eines befördert, die „Gleichheit“. Die unsinnigste Forderung ist die nach „Klimagerechtigkeit“, die verbal suggeriert, dass der „Eine Mensch“ das Recht aus „Ein Klima“ hätte. Der Wunsch nach dem „Einen Wetter“ wäre  pure Illusion und ein Fall für den Psychiater! 

Der Wetterwandel ist ein natürlicher Zustand, der dem „Klimawandel“, wie er vom Menschen definiert ist, stets und immer vorausgeht. Deswegen kann letzterer partout nicht beeinflusst werden.

In welche Richtung soll die politische Klimarevolution gehen? Darüber hat Präsident Hollande konkret nichts ausgesagt. Er blieb sibyllinisch, offen und unkonkret. Vielleicht hat der Gegenwartsphilosoph Jürgen Habermas, der sich als „polemisches Talent“ und „prototypischen Alarmist“ bezeichnete, einen Hinweis. Er war am 28. Mai 1968 Mitbegründer des „Aktionskomitees Demokratie im Notstand“.

Im Doppelband 1000 des Suhrkamp Verlages im Jahr 1979 „Stichworte zur >Geistigen Situation< der Zeit“ fasste Jürgen Habermas die Absichten der rot-grünen Bewegung in fünf Punkten zusammen

–       Entinstitutionalisierung der Gesellschaft

–       Entethisierung des Rechts

–       Entkriminalisierung des Verbrechens

–       Entpathologisierung der Krankheit

–       Entchristlichung. 

Das ist im Grund ein Kulturauslöschungsprogramm, der finale Untergang des Christlichen Abendlandes. Nach Jürgen Habermas erfordere die epochale Dynamik der Globalisierung eine offensive Programmatik im Sinne einer kosmopolitischen Demokratie und kosmopolitischen Staatsbürgerschaft. Jürgen Habermas persönlich verfolgte die Idee einer „Weltinnenpolitik ohne Weltregierung“, eine „Weltgesellschaft ohne Weltregierung“, ohne anzudeuten, wie die kulturellen und religiösen Unterschiede auf der Welt nivelliert und egalisiert werden können. 

Dieser Traum der „rot-grünen Bewegung“ von 1979 von einer Welt ohne Institutionen und ohne „Weltregierung“, wie sie die Vereinten Nationen anstreben, ist Makulatur. Alle Zeichen deuten auf eine Weltregierung hin, die aber gesellschaftspolitisch in die rot-grüne Richtung geht. Diese braucht zuerst eine strukturlose Masse mit Einheitsmoral, von „Gutmenschen“ und „Klimaschützern“. Wir sind unbewusst auf dem Weg, die geistige Freiheit, die freie Rede und damit letztlich die persönliche Identität abzuschaffen. Mag intellektuell das Ziel eines funktional ausgerichteten, zentral gesteuerten und auf eine „Klimareligion“ eingeschworenen Menschen auch attraktiv sein, die Wirklichkeit wird da wohl nicht mitspielen. Dies gilt vor allem für das Wetter mit seiner unendlichen Vielfalt an Freiheitsgraden.

Die Angst des Menschen vor dem Wetter ist berechtigt, aber wie kann man ihm die Angst vor dem Gespenst „Klima“, das seine eigene Erfindung ist, zu nehmen? Zuerst muss man sich von den eingeredeten Klimaängsten zu emanzipieren, denn Ängste lähmen den Verstand.




Warum die Ozeane nicht versauern können

Um zu verstehen, was es damit auf sich hat, müssen wir uns die Eigenschaften der entsprechenden Moleküle näher ansehen. Wasser ist neben Kohlenstoff eine entscheidende Voraussetzung für alles Leben auf der Erde. Es ist zugleich das beste in der Chemie bekannte Lösungsmittel, das eine Vielzahl organischer und anorganischer Substanzen lösen kann. Ohne die besonderen Eigenschaften des Wassers wäre die komplexe Chemie, auf welcher der gesamte Stoffwechsel in unseren Zellen beruht, gar nicht möglich. Diese Löslichkeit ist abhängig von der Natur der zu lösenden Stoffe. Teils ist sie erstaunlich hoch, beispielsweise bei Zucker oder Salz, teils mäßiger wie z.B. beim Kalkstein, der von Regenwasser langsam, aber stetig angelöst wird, so dass sich im Lauf vieler Jahre Höhlen und Tropfsteine bilden. Aber selbst Stoffe, die man normalerweise als unlösbar einstufen würde – wie die meisten Steine, Erze und Metalle – sind in den Weltmeeren in erstaunlich großen Mengen anzutreffen. Zwar sind die Löslichkeiten teilweise im Bereich Milliardstel g/l oder noch niedriger, doch muss man sich auf der anderen Seite auch die ungeheure Größe der Weltmeere vergegenwärtigen. In den rund 1,37 Mrd. Kubikkilometer der Ozeane befinden sich immerhin 20 Mio. t Gold [GOLD] und sogar 4,5 Mrd. t Uran [URAN]. Man vergleiche dies z.B. mit den weltweiten Goldvorräte von lediglich rund 30.000 t.

Bild 1. Auch diese wunderschöne Rote Helmschnecke (Cassis Rufa) soll von der angeblichen Meeresversauerung bedroht sein

Ursachen der hohen Löslichkeit: Ein „krummes“ Molekül…

Ein entscheidender Grund für die hohe Löslichkeit des Wassers liegt in der besonderen Anordnung seiner Atome. Beim H2O-Molekül befinden sich die beiden Wasserstoff-Atome nämlich nicht auf genau gegenüberliegenden Seiten des Sauerstoffatoms. Stattdessen bilden sie ein Dreieck, Bild 2.

Bild 2. Das Wassermolekül hat die Form eines Dreiecks mit einem Öffnungswinkel von etwa 104° (Grafik: Sakurambo, [WIDI])

Die Folge dieser unsymmetrischen Anordnung ist eine ungleichmäßige Verteilung der elektrischen Ladungen innerhalb des Moleküls. Während die beiden positiv geladenen Wasserstoffkerne („Protonen“) auf ihrer Seite ein Übergewicht an positiver elektrischer Ladung bedingen, wird dies auf der anderen Seite des Sauerstoffatoms durch eine entsprechend negative Ladung ausbalanciert. Obwohl das Molekül als Ganzes gesehen elektrisch neutral ist, stimmen in seinem Inneren die „Schwerpunkte“ der positiven und der negativen Ladungen nicht überein. Man spricht in einem solchen Fall von einem permanenten elektrischen Dipol. Diese Eigenschaft ist beim Wassermolekül besonders ausgeprägt. In der Praxis führt das dazu, dass sich das Molekül sowohl an positiv als auch an negativ geladene Ionen anlagern kann, indem es dem betreffenden Ion die jeweils „passende“ Seite zukehrt, Bild 3. Um dieses Ion herum bildet sich dadurch eine sogenannte Hydratationshülle.

Bild 3. Bei einem Ionenkristall wie dem NaCl (Kochsalz) drehen zahlreiche Wassermoleküle den einzelnen Ionen des Salzes die jeweils „passende“ Seite zu und maskieren so deren Ladung (Grafik: [INTE])

Aufgrund dessen verlieren diese „hydratisierten“ Gitterionen – ausgehend von den Ecken, wo die elektrostatischen Anziehungskräfte des Gitters geringer sind als auf den Flächen – den Kontakt zum restlichen Kristall und werden durch die ständige Bewegung der Flüssigkeitsteilchen gleichmäßig im gesamten Volumen verteilt.

Dies ist die Ursache für die sehr gute Löslichkeit von Wasser für viele Salze. Darüber hinaus gibt es auch zahlreiche sogenannte hydrophile Stoffe wie z.B. Harnstoff, die sich ebenfalls leicht in Wasser lösen, sowie manche Gase wie Stickstoff, Sauerstoff oder CO2.

…und „Brücken“ aus Wasserstoff

Eine weitere Folge des Dipolmoments der Wassermoleküle ist ihre Fähigkeit, sogenannte Wasserstoffbrücken zu bilden. Dies erfolgt durch Andocken der elektropositiv geladenen Wasserstoffatome zweier fremder Wassermoleküle am elektronegativ geladenen Sauerstoffatom eines weiteren Wassermoleküls. Somit kann jedes Wassermolekül vier Wasserstoffbrückenbindungen eingehen: Mit seinen Wasserstoffatomen bindet es sich an die Sauerstoffatome von zwei fremden Wassermolekülen, mit seinem eigenen Sauerstoffatom koppelt es an die Wasserstoffatome von zwei weiteren Wassermolekülen, Bild 4. Deshalb haben wir es im flüssigen und festen Zustand immer mit großen Gruppen von Molekülen zu tun, die über Wasserstoffbrücken verbunden sind. Nur als Gas („Wasserdampf“) liegen die Wassermoleküle tatsächlich einzeln vor.

Diese Wasserstoffbrückenbindung ist zwar erheblich schwächer als die bekannte kovalente (atomare) Bindung oder als die Ionenbindung, doch reicht sie immerhin aus, um die Siedetemperatur von Wasser von den eigentlich zu erwartenden -80 °C auf die bekannten 100 °C anzuheben. Erst bei 100 °C reicht die thermische Bewegungsenergie der Wassermoleküle aus, um die Bindungskräfte der Wasserstoffbrücken quantitativ zu überwinden und in die Gasphase überzugehen. Diese Wasserstoffbrückenbindung ist entscheidend für zahlreiche biochemische Reaktionen, darunter auch für den Zusammenhalt der DNA-Helix im Erbgut. Auch die Auflösung von Zucker erfolgt über die Bildung von Wasserstoffbrücken zwischen den Molekülen des Zuckers und des Wassers.

Bild 4. Wasserstoffbrücke (Grafik: [CHEM])

Sauer und basisch – die Dissoziation des Wassers

Dritter „Pfeil“ im Köcher des Wassers, wenn es um die Möglichkeit einer Reaktion mit anderen Molekülen und Verbindungen geht, ist der Zerfall einer geringen Zahl von H2O-Molekülen in positiv geladene Wasserstoffionen (Protonen, H+) einerseits und negativ geladene OH–Ionen andererseits. Von dieser Dissoziation ist im Prinzip nur ein verschwindend geringer Anteil betroffen: Bei 25 °C ist es gerade mal eines von 10 Mio. Molekülen.

Aufgrund eines physikalischen Gesetzes (Massenwirkungsgesetz) liegt die Konzentration der Protonen multipliziert mit der Konzentration der OH–Ionen bei recht exakt 10-14. Dieses sogenannte Ionenprodukt des Wassers ist eine in erster Näherung lediglich von der Temperatur abhängige Konstante. Bei Neutralität gilt, dass die Zahl der positiv und negativ geladenen Ionen identisch ist: Beide liegen demnach in einer Konzentration von 10-7 vor, solange sich die Partner der Reaktion im Gleichgewicht befinden:

H2O H+ + OH

(Die gegenläufigen Halbpfeile weisen darauf hin, dass sich zwischen dem rechten und dem linken Teil der Gleichung ein Gleichgewicht bildet). Bringt man in das Wasser jetzt Reagenzien ein, welche einen der beiden Partner bevorzugt binden, so erhöht bzw. senkt man die jeweiligen Konzentrationen im exakten Gegenlauf , weil ihr Produkt ja konstant bleibt. Nimmt man beispielsweise einen Säurebildner wie das Oxid des Phosphors (P2O5, Phosphorpentoxid) so reagiert dieses mit drei Wassermolekülen zu Phosphorsäure:

P2O5 (S) + 3 H2O 2 H3PO4 (AQ) 6 H+ (AQ) + 2 PO43-(AQ)

(das (S) steht für Festkörper (solid) und das (AQ) für wässrige Lösung (aqua).

Das Resultat ist, dass der Lösung drei OH–Ionen entzogen werden, während gleichzeitig sechs Protonen hinzukommen. Dadurch steigt die Konzentration der Protonen, während diejenige der OH–Ionen zurückgeht. Der Chemiker definiert nun, dass eine Erhöhung der Protonenkonzentration auf mehr als 10^-7 bewirkt, dass sich die Lösung „sauer“ verhält, während sie im anderen Fall eine auf weniger als 10^-7 verringerte Protonenkonzentration als „basisch“ bezeichnet wird. Als Kenngröße für solche Verschiebungen dient den Chemikern traditionell der sogenannte pH-Wert. Da die Protonenkonzentration eine enorme Variationsbreite von 10^14 Stellen überstreicht, verwendet man zur Vereinfachung einen Logarithmuswert, und zwar den negativen 10er-Logarithmus der Protonenkonzentration. Der pH-Wert variiert in der Regel zwischen 0 (stark sauer) und 14 (stark basisch), Bild 5, kann bei sehr starken Säuren bzw. Basen aber auch über diese Skala hinausgehen.

Bild 5. Schematische Darstellung der pH-Skala und der gegenläufigen pOH-Skala. Rot kennzeichnet den sauren und blau den basischen Bereich (Grafik: PatríciaR [WIPH])

Reines Wasser ist ein unerreichbares Ideal

Alle drei beschriebenen Mechanismen bewirken in ihrem Zusammenwirken die bereits angesprochene enorme Bandbreite an Stoffen, welche Wasser lösen kann, selbst wenn die Löslichkeit fallweise nur gering ist. Deshalb findet man in den Meeren auch eine geradezu unübersehbare Vielzahl an Elementen und Verbindungen in gelöster Form. Auf der anderen Seite bedingt dies, dass es in der Praxis kein „reines“ Wasser gibt. Deshalb reagieren selbst die Regentropfen, sie sich in der Atmosphäre bilden und im Prinzip aus destilliertem Wasser bestehen, sofort mit der Atmosphäre, indem sie Gase aufnehmen. Besonders haben sie es dabei auf ein eigentlich recht stabiles Molekül abgesehen, das bei der Oxidation von Kohle entsteht: Das Kohlenstoffdioxid CO2.

Was ist eigentlich Kohlen-„Säure“?

Die sogenannte Kohlensäure entsteht, nachdem sich das atmosphärische Spurengas CO2 in Wasser gelöst hat. Dabei reagiert ein (sehr kleiner) Teil der CO2-Moleküle mit Wassermolekülen und bildet dabei die Kohlensäure H2CO3. Diese dissoziiert teilweise wiederum in zwei Stufen. Zunächst zerfällt sie zu einem Proton und dem sogenannten Bicarbonat-Ion HCO3-, welches dann nochmals weiter zu einem weiteren Proton und dem Carbonation CO32- dissoziiert, Bild 6.

Bild 6. Darstellung der Reaktionen von CO2, Kohlesäure und Carbonat sowie Hydrogencarbonat in Wasser (Grafik: [OZEA])

Zu diesen Reaktionen ist anzumerken, dass das Gleichgewicht dann, wenn keine Pufferung (Erklärung hierzu folgt weiter unten) vorliegt, auf der linken Seite liegt, d.h. das CO2 überwiegt. Sein Verhältnis zur Kohlensäure beträgt ca. 700/ 1. Als relativ schwache Säure dissoziiert die Kohlensäure nur in geringem Maße.

Dies trifft beispielsweise auf frisch gefallenes Regenwasser zu, das sogenannte pristine Regenwasser. Solches Wasser hat noch keinen Kontakt zum Erdboden gehabt und deshalb noch keine nennenswerte Fracht an mineralischen oder organischen Säure- oder Basebildnern wie z.B. Calciumionen aufgenommen, welche ihrerseits mit Protonen oder OH–Ionen reagieren und dadurch deren Konzentration (und damit den pH-Wert) beeinflussen könnten. Solange solche Einflüsse fehlen, reagiert das Regenwasser schon auf die vergleichsweise geringe Menge des während des Falls durch die Atmosphäre aufgenommenen CO2 mit einer erheblichen Absenkung des pH-Werts. Es hat deshalb häufig einen pH-Wert von um die 5,5 (schwach sauer). Dennoch reicht dieser „saure“ Charakter aus, um Gesteine anzugreifen, aus denen unter anderem Calciumcarbonat CaCO3 (Kalk) gelöst wird, der mit den Hydrogencarbonationen dann zu Calciumhydrogencarbonat (Ca(HCO3)2) reagiert. Während Kalk in Wasser nur in geringem Umfang löslich ist, weist das Calciumhydrogencarbonat eine recht gute Löslichkeit auf. Es gelangt mit dem Trinkwasser z.B. in Hausleitungen, wo es bei Erwärmung zu Kalk CaCO3 und CO2 zerfällt. Der Gehalt des Calciumhydrogencarbonats im Wasser ist als sogenannte Carbonathärte die Hauptursache für die Verkalkung von Wasserleitungen und Armaturen. Letztlich landet jedoch der größte Teil dieser Mineralfracht über die Flüsse in den Ozeanen.

Von „Gleichgewichten“, „Puffern“ und „Milieus“

An dieser Stelle kommen noch einige weitere Mechanismen ins Spiel, die für das Verständnis der Wasserchemie unabdingbar sind. Dazu gehört zunächst einmal der Begriff des „Gleichgewichts“. Wenn wir beispielsweise Kohle verbrennen, so ist dies eine „Einweg“-Reaktion. Bei dieser verbinden sich Kohlenstoff und Sauerstoff zu CO2, das in die Luft entweicht. Eine Umkehr ist auf normalem Wege nicht möglich.

Im Wasser verlaufen sehr viele Reaktionen dagegen reversibel und nur bis zu einem gewissen Punkt, ab dem sie zum Stillstand kommen. Ähnlich wie bei der Dissoziation des Wassers selbst befinden sich die Reaktionspartner auf beiden Seiten der Gleichung dann in einem dynamischen Gleichgewicht. Anders ausgedrückt heißt dies, dass auf der molekularen Ebene ständig beide Reaktionsrichtungen durchlaufen werden. Dieses Gleichgewicht bestimmt die Massenverhältnisse zwischen der einen und der anderen Seite. Verändert man jetzt wesentliche Parameter auf einer Seite, dann verschieben sich auch die Massenverhältnisse zwischen den beiden Seiten der Reaktionsgleichung.

Das zweite Grundprinzip ist der Puffer. Ein Puffer ist – vereinfacht ausgedrückt – ein Speicher bzw. ein Vorrat, der einen der Reaktionspartner eines Gleichgewichtssystems enthält. Einfaches Analogon ist ein Glas Wasser, das man zu etwa 1/3 mit Kochsalz füllt, um dann Wasser bis zum ¾-Stand hinzuzufügen. Dadurch wird sich zunächst Salz auflösen, bis ein Sättigungsgrenzwert von etwa 26,3 % erreicht ist. Das restliche Salz bildet einen Bodensatz, der sich selbst durch noch so intensives Rühren nicht auflösen wird. Ab diesem Punkt wird an den Grenzflächen zwischen den Kristallen und dem Wasser ständig Salz in Lösung gehen und im Gegenzug genausoviel Salz aus dem Wasser wieder auskristallisieren. Fügt man jetzt Wasser hinzu, so wird weiteres Salz aufgelöst. Verdunstet dagegen ein Teil des Wassers, so wird die dem Gleichgewichtszustand entsprechende Menge Salz am Boden ausfallen. Solange noch festes Salz vorhanden ist, sorgt dieser Puffer demnach dafür, dass die Salzlösung darüber auch bei Schwankungen des Wasserstands immer die gleiche Konzentration aufweist. Bei diesem Beispiel finden übrigens keine chemischen Reaktionen statt, man könnte daher streng genommen von einem physikalischen Puffer sprechen. Aber auch die Partner von chemischen Gleichgewichtsreaktionen wirken oft als Puffersysteme, so z.B. beim Zusammenwirken von schwachen Säuren und starken Basen.

Der dritte Aspekt betrifft schließlich die Berücksichtigung des physikochemischen Gesamtumfeldes, des sogenannten Milieus. Wasser bzw. wässrige Lösungen können eine Vielzahl weiterer Moleküle und Ionen enthalten, die Einfluss sowohl auf die Löslichkeit einer Substanz als auch auf den pH-Wert haben und/ oder eine Pufferwirkung entfalten. Entscheidender Faktor ist hierbei die Fixierung des pH-Werts auf einem bestimmtem Niveau. So gelten für die Reaktionen von CO2 mit Wasser im Ozean mit seiner riesigen Fracht an Reagenzien ganz andere Voraussetzungen als z.B. bei pristinem Regenwasser, Bild 7.

Bild 7. Ergänzte Darstellung der Konzentrationsverhältnisse von HCO3, CO32- und CO2/H2CO3. Diese hängen vom pH-Wert ab. Der rote Pfeil gilt für pristines Regenwasser, der blaue Bereich kennzeichnet die Zustände in Meerwasser (Grafik BeAr, [WIME])

Der Blut-Carbonatpuffer des CO2

Ein anschauliches Beispiel für die Wirkungsweise eines chemischen Puffers liefern die Reaktionsprodukte des CO2 in bestimmten wässrigen Milieus. Besonders bekannt ist der sogenannte Carbonatpuffer im menschlichen Blut, das bekanntlich eine Vielzahl weiterer anorganischer und organischer Reagenzien enthält. Hier wirkt die oben bereits vorgestellte Kohlensäure-Carbonat-Reaktion, statt wie beim Regenwasser eine schwache Säure zu bilden, als Puffer zum Auffangen von pH-Schwankungen im Blutkreislauf. Der pH-Wert des Bluts wird dabei im leicht alkalischen Bereich bei pH 7,4 stabilisiert [WIPU].

CO2 + H2O H2CO3 HCO3 + H+

Der Puffer besteht – analog zur Reaktion aus Bild 6 – aus der Kohlensäure (H2CO3) auf der einen Seite und Protonen sowie Carbonationen (HCO3−) auf der anderen Seite. Wenn das Blut nicht sauer genug ist, dissoziiert die Kohlensäure zu einem Proton und einem Carbonation. Wenn das Blut dagegen zu viele Protonen enthält, also zu sauer wird, bindet das Carbonation ein Proton und wird zur undissoziierten Kohlensäure, die anschließend zu Wasser und Kohlenstoffdioxid zerfällt. Das Gleichgewicht liegt hierbei aufgrund des Einflusses zahlreicher weiterer Reagenzien auf der Carbonatseite: In der Lösung ist rund 400 Mal soviel Carbonat wie Kohlensäure vorhanden. Im Endeffekt wird dadurch der pH-Wert des Blutes in engen Grenzen im leicht alkalischen Bereich (zwischen 7,35 und 7,45) stabilisiert. Die Regulierung erfolgt – von einem speziellen Bereich des Gehirns gesteuert – durch eine Steigerung oder Absenkung der CO2-Konzentration im Blut über die Atmung.

Bemerkenswert ist hieran, dass es sich im Prinzip um die gleiche chemische Reaktion handelt, wie sie auch in Regenwasser abläuft. Doch während sie beim ungepufferten Regenwasser bewirkt, dass dieses zu einer leichten Säure mit einem pH-Wert von um die 5,5 wird, stabilisiert sie im Blut einen viel höheren pH-Wert, der eindeutig im alkalischen Bereich liegt. Grund hierfür ist das ganz andere chemische Milieu, das durch die Anwesenheit einer Reihe biologisch wichtiger Ionen geprägt wird: Natrium (Na+), Kalium (K+), Calcium (Ca2+) und Chlorid (Cl–). Im Blut ist ein möglichst genau ausbalanciertes Verhältnis dieser vier Ionen von etwa 94:3:2:70 von essentieller Bedeutung [BLUT].

Das Erbe der Urzeit

Der Carbonatpuffer wirkt interessanterweise nicht nur im menschlichen Körper, sondern in modifizierter Form auch im Meer. Und nicht nur zufällig entspricht das Ionenverhältnis in unserem Blut auch recht gut demjenigen im Meer (Bild 8), wo es bei 94:2:2:100 liegt. Diese Zusammensetzung des Meerwassers ist eine Konstante der Entwicklung des heutigen Lebens, denn sie hat sich in den letzten ca. 700 Mio. Jahren kaum verändert. Unsere Zellen werden vom Blut, der Lymphe und anderen Körperflüssigkeiten in einem wässrigen Milieu umspült, ernährt und am Leben erhalten. Dieses Milieu weist bezüglich wesentlicher anorganischer Ionen und des pH-Werts große Übereinstimmungen mit dem Meerwasser auf. Dies ist nach Erkenntnissen der Evolutionsbiologie kein Zufall, sondern als Erbe unserer Abstammung von Meereslebewesen anzusehen [NEKA].

Bild 8. Die Verhältniszahlen essentieller Ionen in unserem Blut stimmen weitgehend mit denen im Meer überein (Grafik: Autor, Daten: [NEKA])

In diesem Zusammenhang fällt noch eine weitere Besonderheit auf: Der CO2-Partialdruck im Blut liegt wegen des im Vergleich zur Atmosphäre 100fach höheren CO2-Anteils in der Ausatemluft (4 % statt 400 ppm) um einen Faktor 100 höher als beim Regenwasser. Obwohl die CO2/-Carbonatreaktion im Prinzip die gleiche ist wie die im Regenwasser, bleibt der pH-Wert im Blut dennoch sicher im basischen Bereich. Im Regenwasser-Milieu würde der pH-Wert bei einem vergleichbar hohen CO2-Partialdruck mit etwa 3,5 bis 4 dagegen schon deutlich im sauren Bereich liegen. Der Blutpuffer liefert daher einen sehr deutlichen Hinweis darauf, dass selbst ein atmosphärischer CO2-Gehalt, der um den Faktor 100 höher läge als heute, in einem dem Meerwasser sehr ähnlichen Milieu keine „Versauerung“ herbeiführen würde, welche das Überleben von Organismen gefährden könnte.

Zudem gibt uns die Wirkungsweise des Blutpuffers auch einen Hinweis auf eine ferne Vergangenheit, in der sich viel mehr CO2 in der Atmosphäre befand als heute: Der sehr hohe CO2-Gehalt in der Ausatemluft bedingt, dass wir selbst gegen einen sehr viel höheren CO2-Partialdruck noch den gasförmigen „Verbrennungs-Abfall“ unseres Stoffwechsels ohne Probleme loswerden könnten. Erst ab 4 % wären wir nicht mehr imstande, CO2 mit der Atemluft abzuführen, was zum Erstickungstod führen würde. Weitere diesbezügliche Hinweise finden sich auch, wenn man die heutigen Erkenntnisse der Arbeitsmedizin einbezieht: Der MAK-Wert für CO2 liegt bei 5.000 ppm, recht nahe bei den vermutlich 6.000-8.000 ppm, die vor rund 550 Mio. Jahren in der Erdatmosphäre vorgelegen haben [MAK, ARBE, CALU]. Unser Körper ist offensichtlich seit Urzeiten darauf konditioniert, auch mit vielfach höheren atmosphärischen CO2-Gehalten als heute zurechtzukommen.

Der Calciumpuffer im Meer

Wie schon weiter oben ausgeführt, wirkt der Carbonatpuffer im Meer sehr ähnlich wie der im menschlichen Körper. Gegenüber der Situation bei pristinem Regenwasser muss man die Betrachtung um eine weitere Reaktion erweitern, nämlich um diejenige des Carbonats bzw. Bicarbonats mit Calcium-Ionen unter Bildung von Calciumcarbonat CaCO3 sowie Calciumdihydrogencarbonat Ca(HCO3)2. Während Regenwasser durch die Reaktion mit dem aus der Luft aufgenommenen CO2 einen pH-Wert von 5,5 annimmt, stellt sich bei zusätzlichem Kontakt von Regenwasser mit Marmor (dass ist ebenfalls Kalk) nach Auflösung von etwas Calciumcarbonat im Gleichgewicht ein pH-Wert von 8,3 ein [HÖLL].

Der Kontakt mit Calciumionen wirkt sich verstärkend auf die Wirkung des Carbonatpuffers aus. Bei den im Meer üblichen pH-Werten von 7,9 – 8,5 ist das Gleichgewicht der Carbonatreaktion soweit zur rechten Seite verschoben, dass fast nur Bicarbonat vorliegt. In diesem System hängt die Gesamtkonzentration von gelöstem, anorganischem Kohlenstoff (DIC = dissolved inorganic carbon; im Meer ca. 2,5 mmol/ l) von der Konzentration der gelösten Erdalkalien (vor allem Ca und Mg, Bild 9) ab. Mit ihnen bildet die Kohlensäure Salze, die dem Gleichgewicht entzogen sind. Dadurch kann weitere Kohlensäure gebildet werden und eine entsprechende Menge CO2 aus der Luft nachdiffundieren. Je mehr Calcium (und Magnesium) im Wasser enthalten sind, umso mehr DIC kann auch gelöst sein. Deshalb ist das erdalkalienreiche Meerwasser stark gepuffert, während weiche Süßwässer nur schwach gepuffert sind [SOMM].

Bild 9. Wesentliche anorganische Ionen im Meerwasser (Grafik: [ETH])

Auch der emeritierte Geologieprofessor Dr. Friedrich-Karl Ewert und der Physikochemiker Dr. Siegfried Dittrich weisen in einer Untersuchung aus dem Jahre 2014 [EWDI] darauf hin, dass die aus magmatischen Gesteinen stammenden stark basischen Alkali- und Erdalkali-Elemente eine stabile Alkalinität des Meerwassers bewirken. Diese großen Mengen starker Basenbildner sind so wirksam, dass sie eine Versauerung der Ozeane durch Bildung von Kohlensäure aufgrund des Zutritts von CO2 aus verschiedenen Quellen zuverlässig verhindern.

Der gleichen Ansicht ist auch Steve Burnett, der mit Blick auf die Puffer-Kapazität der Ozeane feststellt, dass „es chemisch wirklich unmöglich ist, carbonatabhängige Lebewesen im Wege einer Ozean-Versauerung durch CO2 zu schädigen“ [BURN]. Er weist darauf hin, dass sich die meisten kalkschalenbildenden Organismen zu einer Zeit entwickelten, in der die CO2-Konzentration über 8.000 ppm lag. Es sei unverständlich, wieso man annehmen könne, dass solche Organismen, deren Vorgänger in einem Umfeld aufgeblüht seien, das durch CO2-Konzentrationen von bis zu > 8.000 ppm (d.h. um > 2.000 % über dem heutigen Pegel) geprägt war, heute mit einer Zunahme von lediglich 30 % nicht zurecht kommen sollten.

Die Tricks der Pufferleugner

Das Interessante an der Diskussion über die angebliche Meerwasserversauerung ist, dass diejenigen, welche diese These vertreten, im Prinzip selbst Leugner sind: Sie leugnen Tatsachen, die längst als Stand der Wissenschaft gelten. Dabei werden teils plumpe Tricks eingesetzt, vor allem dann, wenn man es mit Laien zu tun hat, welche die Materie nicht kennen.

Bild 10. Die pH-Skala mit Kennzeichnung von Mineralwässern und der natürlichen Variabilität von Meerwasser (Grafik: Steiner [STEI])

Diesen setzt man dann oft falsche, im Prinzip als unredlich einzustufende Erklärungen und Pseudo-Experimente vor und führt sie dadurch in die Irre. Auf diese Weise werden dann Journalisten, Politiker, Lehrer oder Schüler indoktriniert. Ein häufig anzutreffender Kniff besteht darin, die komplexen Wechselwirkungen des realen Milieus „Meerwasser“ zu verschweigen und mit hohen, völlig unrealistischen CO2-Konzentrationen z.B. in Mineralwasser, Bild 10, mit konzentrierten Säuren oder sonstigen unrealistischen Vorgaben zu arbeiten. Schon die Verwendung von Süßwasser bzw. CO2-angereichertem Süßwasser statt Salzwasser für Experimente, welche die „Meeresversauerung“ beweisen sollen, ist, wie oben dargelegt, ein Taschenspielerstrick.

Fred F. Mueller

Quellen

[ARBE] http://tinyurl.com/kheuz5z

[BLUT] http://evobioblog.de/der-evolutionsbeweis-unserem-blut/

[BURN] http://www.eike-klima-energie.eu/news-cache/ozean-versauerung-welche-ozean-versauerung/

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://tinyurl.com/5u8sa7

[CHEM] https://www.chemiezauber.de/inhalt/basic-1/wasser-2/wasserstoffbr%C3%BCcken.html

[ETH] http://e-collection.library.ethz.ch/eserv/eth:2576/eth-2576-05.pdf

[EWDI] http://www.eike-klima-energie.eu/news-cache/versauerung-der-ozeane-geo-chemisch-unmoeglich/

[GOLD] http://oceanservice.noaa.gov/facts/gold.html

[HÖLL] Höll, Karl: Wasser : Nutzung im Kreislauf, Hygiene, Analyse und Bewertung / Karl Höll. Hrsg. von Andreas Grohmann. – 8, völlig neu bearb. Aufl. – Berlin, New York: de Gruyter, 2002, ISBN 3-11-012931-0

[INTE] http://www.chemie-interaktiv.net/bilder/salz_wasser.swf

[MAK] http://tinyurl.com/gwfdeo3

[NEKA] http://evobioblog.de/der-evolutionsbeweis-unserem-blut/

[OZEA] https://fmss12ucheme.wordpress.com/2013/05/05/ocean-acidification-2/

[SOMM] Sommer, Ulrich: biologische Meereskunde, S. 35. (Springer-Lehrbuch). ISBN 978-3-540-63512-3

[STEI] http://www.eike-klima-energie.eu/news-cache/versauern-die-ozeane-die-phaelschung/

[URAN] http://tinyurl.com/lyumzux

[WIDI] https://commons.wikimedia.org/wiki/File:Water_molecule.svg

[WIME] https://commons.wikimedia.org/wiki/File:Karbonatsystem_Meerwasser_de.svg

[WIPH] https://de.wikipedia.org/wiki/PH-Wert

[WIME] https://commons.wikimedia.org/wiki/File:Karbonatsystem_Meerwasser_de.svg

[WIPU] https://de.wikipedia.org/wiki/Kohlens%C3%A4ure-Bicarbonat-System