1

Ein skeptischer Versuch, die gläsernen Grenzen der „kumpelhaften Begutachtungen“ der Wissenschaftsjournale zu durchbrechen

Regelmäßige Leser bei Anthony’s Watts Up With That und EIKE werden wissen, dass ich seit Juli 2013 über Jahre hinweg versucht habe, eine Analyse der Fehler der Klimamodelle zu veröffentlichen.

Die Analyse zeigt die Fortpflanzungsfehler der Klimamodelle durch Kalibrierung an der Untergrenze ihrer Projektionen der Lufttemperatur. Wer das erkannt hat, kann als Ergebnis vorhersagen: Klimamodelle sind äußerst unzuverlässig. Für eine ausführlichere Diskussion siehe meinen früheren WUWT-Beitrag zu diesem Thema (Danke Anthony).

Das Endergebnis ist, dass, wenn es zu einem CO 2-Effekt auf das globale Klima kommt, niemand weiß, wovon er redet.

[[ Eine ganze Passage voll Frust, die ich Ihnen dann doch übersetzt habe – etwas eingerückt. Informationen zur Studie gehen unten (normal formatiert) weiter, der Übersetzer

Bevor ich fortfahre, möchte ich ein herzliches Dankeschön aussprechen an Anthony, dafür, dass er den Klimaskeptikern eine unzensierte Stimme gibt, gegenüber denen, die sie lieber zum Schweigen bringen würden. Mit „Klimaskeptikern“ meine ich, wissenschaftlich denkende Menschen, die den Fall einer anthropogenen globalen Erwärmung beurteilen und ihre kritische Integrität beibehalten haben. Ich jedenfalls habe kürzlich meine sechste Ablehnung erhalten; diesmal von Earth and Space Science, einer AGU-Zeitschrift. [American Geophysical Union ; Die AGU veröffentlicht 20 hoch angesehene, von Experten begutachtete wissenschaftliche Zeitschriften zur Erforschung der Erd- und Weltraumwissenschaften – Eigenwerbung]

 Die Ablehnung folgte den üblichen zwei Runden von gleichmäßig negativen, aber wissenschaftlich verdienstvollen Bewertungen (mehr dazu später).

 Nach sechs Versuchen in mehr als vier Jahren zweifelte ich nun daran, den Artikel jemals in einem Klimaportal zu veröffentlichen. Die Einsätze sind einfach zu groß. Es sind nicht nur die Billionen von Dollar, die für Nachhaltigkeitstreibende verloren gehen würden.

Nee. Wenn die Analyse veröffentlicht würde, würde die Karriere jedes einzelnen Klimamodellierers mit James Hansen beginnend, Ihre Kompetenz würde in Frage gestellt. Zuschüsse verschwinden, Universitäten verlieren enormes Einkommen.

Welcher Konsens-Klimawissenschaftler würde bei all dem Interessenkonflikt möglicherweise eine unpassende Bewertung liefern? Sie werden sich zu Recht bedroht fühlen. Warum sollten sie nicht einen Grund finden, irgendeinem Grund, die Studie abzulehnen?

Irgendwie scheinen Herausgeber von Journalen zur Klimawissenschaft für diesen offensichtlichen Interessenkonflikt blind zu sein, wenn sie ihre Gutachter auswählen.

 Mit nahezu Hoffnungslosigkeit auf Veröffentlichung habe ich beschlossen, das Manuskript als Samisdat-Literatur weithin verfügbar zu machen [ein System …, um die von der Regierung unterdrückte Literatur heimlich zu drucken und verteilen].

]]

Das Manuskript mit seinem Hintergrund ist hier uneingeschränkt verfügbar (13,4 MB pdf).

Bitte beschäftigen Sie sich damit weiter und laden Sie es herunter, prüfen Sie es, kommentieren Sie es und senden Sie es an wen Sie möchten. Ich habe keine Zweifel, dass die Analyse korrekt ist.

Der analytische Kern des Ganzen:

Die Projektionen von Lufttemperatur sind in Klimamodellen nur lineare Extrapolationen der Treibhausgasemissionen. Sie unterliegen daher einer linearen Fehlerfortpflanzung.

Kompliziert, oder nicht? Nun muss ich nur noch auf einen Konsens-Klimawissenschaftler treffen, der dieses Konzept erfassen kann.

Willis Eschenbach hat im Jahr 2011 gezeigt, dass Klimamodelle nur Linearitätsmaschinen sind, so wie ich es in meinem Skeptic-Paper 2008 und bei CA im Jahr 2006 bereits vorgestellt habe.

Diese lineare Gleichung …

… emuliert die Projektion der Lufttemperatur eines Klimamodells nach;  fCO2 spiegelt die Klimasensitivität wider [bei angenommener Verdoppelung des CO2 Gehaltes] und “ a “ ist der Offset. Beide Koeffizienten variieren je nach Modell. Der Ausdruck in Klammer ist nur die partielle Veränderung des [CO2 -] Antriebs. Die Projektionen der Lufttemperatur selbst der fortgeschrittensten Klimamodelle sind kaum besser als y = mx + b.

Das Manuskript zeigt Dutzende erfolgreicher Emulationen wie diese:

Legende: Punkte sind CMIP5 RCP4.5 und RCP8.5 Projektionen. Grafik ‚a‘ [links] ist das GISS GCM Modell-E2-H-p1. Grafik ‚b‘ ist das GCM Modell 1-1 aus Beijing (BCC-CSM1-1). Die PWM-Graphen sind Emulationen aus der linearen Gleichung.

Die CMIP5-Modelle zeigen einen inhärenten Kalibrierungsfehler von ± 4 Wm-2 in ihren Simulationen der Langwellen-Wolkenforcierung (LWCF). Dies ist ein systematischer Fehler, der sich aus falscher physikalischer Theorie ergibt. Es pflanzt sich in jedem einzelnen iterativen Schritt einer Klimasimulation fort. Eine ausführliche Diskussion findet sich im Manuskript.

Die folgende Abbildung zeigt, was passiert, wenn dieser Fehler sich in CMIP5-Lufttemperaturprojektionen (ab 2005) fortpflanzt.

Legende: Grafik ‚a‘ Punkte sind die CMIP5 Multi-Model Mean Anomaly Projektionen der 5AR RCP4.5 und RCP8.5 Szenarien. Die PWM-Linien sind die linearen Emulationen. In der Grafik ‚b‘ sind die farbigen Linien die gleichen zwei RCP-Projektionen. Die Bandbereite der Unsicherheiten stammen aus der Fortpflanzung des Kalibrierungsfehlers des LWCF Modells.

Bei RCP4.5 weicht die Emulation ab der mittleren Projektion des Jahres 2050 ab, weil der GHG [Treibhausgas] Antrieb konstant geworden ist.

Als ein Monument für die außergewöhnliche Inkompetenz, die auf dem Gebiet der Konsens-Klimawissenschaft herrscht, stelle ich die 29 Bewertungen und meine Antworten für alle sechs Vorlagen hier zur öffentlichen Prüfung (44,6 MB Zip-Datei, geprüft mit Norton Antivirus).

 

Wenn ich Inkompetenz sage, hier ist was ich damit meine und was Sie finden:

„Konsens“ Klimawissenschaftler:

  1. sie denken, dass Präzision Genauigkeit ist
  2. sie denken, dass ein quadratischer Mittelwert-Fehler eine energetische Störung im Modell ist
  3. sie denken, dass Klimamodelle zur Validierung von Klimamodellen verwendet werden können
  4. sie habe keine Ahnung von Kalibrierung
  5. Sie wissen nicht, dass der Kalibrierungsfehler sich in nachfolgenden Berechnungen fortpflanzt
  6. sie kennen den Unterschied nicht, zwischen statistischer Unsicherheit und physikalischem Fehler
  7. sie glauben, dass eine „±“ [plus/minus] Unsicherheit einen positiven Fehlerversatz bedeutet
  8. sie glauben, dass die zufällige Annullierung von Fehlern die physikalisch bedingte Unsicherheit beseitigt
  9. sie glauben, dass die Anomalien der Projektionen physikalisch genau sind (das wurde nie bewiesen)
  10. sie glauben, dass die Projektionsvarianz über einen Mittelwert mit dem propagierten Fehler identisch ist
  11. sie denken, dass eine „± K“ -Unschärfe eine physikalisch reale Temperatur wäre
  12. sie denken, dass ein „± K“ -Unschärfebalken bedeutet, dass das Klimamodell selbst heftig zwischen Kältekammer- und Backofen Klima oszilliert
    Punkt 12 ist besonders bezeichnend für die allgemeine Unfähigkeit von Konsens-Klimawissenschaftlern.
    Nicht einer der Doktoren, die diese Annahme machten, bemerkte, dass ein „±“ – Unsicherheitsbalken jeden einzelnen simulierten Temperaturpunkt durchläuft und vertikal durchschneidet. Nicht einer von ihnen hat erkannt, dass ihre „±“ vertikalen Schwingungen bedeuten, dass das Modell die Kältekammer und Backofen Klimazustände gleichzeitig einnehmen muss!

Wenn Sie sie herunterladen, finden Sie diese Fehler wiederholt und verzweigt in den Bewertungen.

 

Meine Manuskriptbegutachter haben diese offensichtlichen Fehler offenbar als gültige Bewertung akzeptiert. Einige [der Gutachter] haben die Erfahrung, um zu erkennen, dass die [meine] Manuskriptanalyse korrekt ist.

Aus diesem Grund habe ich entschieden, dass ihre Bewertungsleistung Applaus verdient. Es sind:

  • Steven Ghan Journal of Geophysical Research-Atmospheres
  • Radan Huth International Journal of Climatology
  • Timothy Li Earth Science Reviews
  • Timothy DelSole Journal of Climate
  • Jorge E. Gonzalez-cruz Advances in Meteorology
  • Jonathan Jiang Earth and Space Science

Bitte kontaktieren oder belästigen Sie keine dieser Herren. Denn man kann hoffen, dass manche Veröffentlichung sie dazu bringt, vor Scham zu erröten.

Nachdem ich meine Antworten eingereicht hatte, die zeigten, dass die Kritiken wissenschaftlich nicht haltbar waren, bat ich einige dieser Redakteure, den Mut eines Wissenschaftlers zu haben und als „verdienstlose Einwände“ zu veröffentlichen. Schließlich werden in der Wissenschaft kritische, analytische Äußerungen oft ignoriert. Keiner von ihnen stellte sich jedoch der Herausforderung.

Wenn irgendein Redakteur oder Verleger nach der Prüfung meines Manuskripts dieses in wissenschaftlichen Journalen veröffentlichen will, wäre ich sehr dankbar.

Die oben genannten Zeitschriften vereinbarten, das Manuskript zur Überprüfung zu versenden. Zielstrebige Leser mögen vielleicht die wenigen eigenartigen Geschichten von nichtgeprüften -Rückweisungen im Anhang unten lesen.

Wirklich seltsam: Mehrere Gutachter haben unabsichtlicher Weise das Manuskript validiert und obwohl sie es ablehnten.

 

Zum Beispiel schrieb der dritte Rezensent der JGR Runde 2 [vom Journal of Geophysical Research]  (JGR-A R2 # 3), dass,

„[Emulation] ist nur bei Situationen möglich, in denen das Forcing [der GHG Antrieb] im Wesentlichen linear ist …“ und „[Emulationen] funktionieren nur mit Szenarien, die annähernd linear zunehmende Forcings haben. Jede Stabilisierung oder Addition großer Transienten (wie Vulkane) führt dazu, dass die Fehlanpassung zwischen diesem Emulator und dem zugrunde liegenden GCM offensichtlich ist. „

 Das Manuskript zeigte sofort, dass jede einzelne Klimamodell-Projektion ein lineares Forcing hatte. Die Überprüfung der Linearität durch den Rezensenten ist gleichbedeutend mit einer Validierung.

Der Gutachter hat aber auch ein Kriterium festgelegt, mit dem die Analyse verifiziert werden kann – eine Projektion mit nichtlinearen Forcierungen nachzuahmen. Offensichtlich überprüfte er  seine Aussage nicht, bevor er sie machte (oh, oh!), obwohl er die Emulationsgleichung hatte.

Meine Antwort beinhaltete diese Grafik:

Legende: Die Punkte von Jim Hansen 1988 Szenario A , B und C. Alle drei Szenarien beinhalten vulkanische Forcings. Die Linien sind die linearen Emulationen.

Die vulkanischen Forcings sind nicht linear, aber Klimamodelle extrapolieren sie linear. Die lineare Gleichung emuliert erfolgreich lineare Extrapolationen von nichtlinearen Forcings. Simpel. Die Emulationen von Jim Hansens GISS Model II Simulationen sind so gut wie die eines jeden anderen Klimamodells.

Der Herausgeber war offenkundig unbeeindruckt von der Demonstration und dass der Rezensent versehentlich die Manuskriptanalyse validiert hatte.

Die gleiche Inkongruenz von unbeabsichtigten Validierungen trat in fünf der sechs Einreichungen auf: AM R1 # 1 und R2 # 1; IJC R1 # 1 und R2 # 1; JoC, # 2; ESS R1 # 6 und R2 # 2 und R2 # 5.

In dem Review bei JGR R2 erwähnt Rezensent 3 sofort Informationen, die er nur in der Debatte gefunden haben konnte, die ich mit Gavin Schmidt bei Realclimate führte (und gewonnen hatte). Der Rezensent verwendete auch eine Gavin-ähnliche Ausdrucksweise. Ich vermute also, dass dieser JGR-Rezensent in der Tat Gavin Schmidt war. Das ist nur meine Meinung. Ich kann nicht ganz sicher sein, weil die Begutachtung anonym war.

Also, nennen wir ihn Gavinoid Schmidt-ähnlich. Drei der Redakteure bemühten diesen Rezensenten. Man erwartet, dass sie die große Waffe auspacken, um den Emporkömmling zu entsorgen.

Der Gavinoid antwortete mit drei meist identischen Bewertungen. Diese Bewertungen gehörten zu den unfähigsten der 29. Jeder dieser drei enthält den Fehler # 12.

Hier ist Gavinoids tiefes Denken:

„Selbst wenn sich die Forcings stabilisiert haben, würde diese Analyse voraussagen, dass die Modelle zwischen den Zuständen „snowball“ [entweder Schneeball = Kälte, oder „expotentiell“ ?] und außer-Kontrolle-laufenden „Gewächshäuser“ immer wilder schwingen werden.“

Und das ist es. Gavinoid denkt, dass die immer größer werdenden „± K“ -Projektions-Unsicherheitsbalken bedeuten, dass das Klimamodell selbst immer stärker zwischen Eis- und Hitze-Klimazuständen oszilliert. Er denkt, dass eine Statistik eine physikalisch reale Temperatur ist.

Ein Fehler eines naiven Neulings und der Gavinoid ist zweifellos ein promovierter Klimamodellierer.

Der Hauptteil von Gavinoids analytischen Fehlern besteht aus den Listenpunkten 2, 5, 6, 10 und 11. Wenn Sie die Studie und die Hintergrundinformationen herunterladen, enthält Abschnitt 10.3 der Hintergrund-Information eine Diskussion des gesamten Hash-Gavinoids aus einer Stefan-Boltzmann-Analyse.

Und wenn Sie eine außergewöhnlich schlechte Bewertung sehen möchten, sehen Sie sich die ESS-Runde 2-Rezension # 2 an [Earth and Space Science]. Es hat anscheinend die redaktionelle Durchsicht passiert.

Ich kann nicht enden, ohne das Video von Dr. Patrick Brown zu erwähnen, da welches die Youtube-Präsentation der Manuskriptanalyse kritisiert. Dies war mein Vortrag in 2016 für die Ärzte der Katastrophenvorsorge. Dr. Browns Vortrag wurde auch in „andthentheresphysics“ (aufgeführt ohne Ironie) und auf youtube veröffentlicht .

Dr. Brown ist Klimamodellierer und Postdoktorand bei Prof. Kenneth Caldiera am Carnegie Institute der Stanford University. Er hat mich freundlich benachrichtigt, nachdem er seine Kritik veröffentlicht hat. Unsere Unterhaltung darüber befindet sich im Kommentarbereich unter seinem Video.

Dr. Browns Einwände waren der klassischen Klimamodellierer, die Listenfehler 2, 4, 5, 6, 7 und 11.

Er machte auch den fast einmaligen Fehler, den quadratischen Mittelwert von statistischen Kalibrierungsfehlern [~?- im Original: root-sum-square average of calibration error statistics] mit einem Durchschnitt physikalischer Größen zu verwechseln; fast einzigartig, weil nur einer der ESS-Gutachter denselben Fehler gemacht hat.

Mr. „andthentheresphysics“ brachte seine eigenen falschen Ansichten sowohl bei Patrick Brown Webseite als auch bei seinen eigenen ein. Seine Blog-Kommentatoren äußerten alberne Unwesentlichkeiten und sein Moderator war mühsam kritisch.

Das ist alles. Leser, die Kritik an der Analyse vorbringen, werden dringend gebeten, zuerst die Liste und dann die Rezensionen zu konsultieren. Wahrscheinlich finden Sie ihre Einwände kritisch angesprochen.

Ich habe die Begutachtungen erleichtert, indem ich sie mit einer Zusammenfassung von Überprüfungsfehlern begann. Allerdings schien das den Redakteuren nicht zu helfen.

Danke, für Ihre Nachsicht, das hier zu lesen.

Ich fühlte ein echtes Bedürfnis, an die Öffentlichkeit zu gehen, anstatt schweigend zu dulden, was ich als reflexive intellektuelle Ablehnung und als einen schädlichen Verrat an der Wissenschaft durch die Menschen betrachte, die mit ihrem Schutz beauftragt sind.

Anhang von Journalen mit redaktionellen ABM* -Antworten

[ABM – anyone but me ~ jeder außer mir]

Risk Analysis. L. Anthony (Tony) Cox, Chefredakteur; James Lambert, Manuskript-Herausgeber.

Dies war meine erste Einreichung. Ich hatte ein positives Ergebnis erwartet, weil sie erkennbare Ambitionen im Klimakampf hatten, ihre Website über Kompetenz in der mathematischen Modellierung verfügt und Veröffentlichungen zur Fehleranalyse numerischer Modelle veröffentlicht hat. Was könnte schiefgehen?

Grund für eine ablehnende Begutachtung: „Der Ansatz ist ziemlich eng gefasst und es gibt wenig Aussicht auf Interesse und Lehren, die sich auf die verschiedenen Disziplinen übertragen, die die Zielgruppe der Zeitschrift RA sind.

Chefredakteur Tony Cox stimmte diesem Urteil zu.

Das Publikum des Online Journals: Risk Analysis, das nicht daran interessiert ist, dass es kein erkennbares Risiko für CO2-Emissionen gibt.

Genau.

Asia-Pacific Journal of Atmospheric Sciences, Songyou Hong, Chefredakteur; Sukyoung Lee, Manuskript-Herausgeber.

Dr. Lee ist Professor für atmosphärische Meteorologie am Penn State, ein Kollege von Dr. Michael Mann [Hockey Stick] und insgesamt bieten sie eine wunderbare Aussicht auf unvoreingenommenes Urteilsvermögen.

Grund für eine ablehnende Begutachtung: „Modellsimulierte atmosphärische Zustände sind weit davon entfernt, in einem strahlenden konvektiven Gleichgewicht zu sein, wie in Manabe und Wetherald (1967), auf dem Ihre Analyse basiert “ Und weil das Klima komplex und nichtlinear ist.

Chefredakteur Songyou Hong unterstützte dieses Urteil.

Das Manuskript handelt von Fehleranalyse, nicht von Klima. Es verwendet Daten von Manabe und Wetherald, basiert aber offensichtlich nicht darauf.

Dr. Lees Ablehnung folgt entweder einer flachen Analyse oder einem bequemen Vorwand.

Ich hoffe, sie wurde trotzdem mit Mike’s [Dr. Mann] Wertschätzung belohnt.

 

Science Bulletin, Xiaoya Chen, Chefredakteur, unsignierte E-Mail-Kommunikation von „Zhixin“.

Grund für eine ablehnende Begutachtung: „Wir haben [dem Manuskript] ernsthafte Aufmerksamkeit geschenkt und es sorgfältig gelesen. Die Kriterien für das Science Bulletin zur Beurteilung von Manuskripten sind die Neuheit und Bedeutung der Forschung und ob sie für ein breites wissenschaftliches Publikum interessant ist. Leider erreicht Ihr Manuskript keine Priorität, die für eine vollständige Überprüfung in unserem Journal ausreichend ist. Wir bedauern, Ihnen mitzuteilen, dass wir es nicht weiter zur Veröffentlichung betrachten werden. 

Eine Analyse, die jede einzelne Klimamodellstudie der letzten 30 Jahre entkräftet – zeigt, dass eine globale Klimawirkung von CO 2-Emissionen, falls vorhanden, gegenwärtig unerkennbar ist und das beweist unbestreitbar die wissenschaftliche Bedeutungslosigkeit des IPCC: „…erreicht keine Priorität ausreichend für eine vollständige Überprüfung im Science Bulletin.

Na klar.

Das Science Bulletin fuhr dann tapfer fort, mein E-Mail-Konto sofort zu sperren.

* * *

Erschienen auf WUWT am

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/10/23/propagation-of-error-and-the-reliability-of-global-air-temperature-projections/




Energiewende mit Batteriespeichern?

„Ja, wollen Sie denn Atomkraftwerke?“ So wurde mir schon mehrfach geantwortet, wenn ich etwas gegen Wind- und Solarkraftwerke gesagt habe. Tatsächlich gibt es Leute, welche glauben, Wind und Solar könnten normale Kraftwerke ersetzen. Dabei ist Öko nicht anstatt, sondern obendrauf. Würde man den ganzen Ökokram jetzt gleich abschalten, wir würden es gar nicht merken. Die normalen Kraftwerke müssen immer zur Verfügung stehen, weil es keine ausreichenden Stromspeicher gibt und auch nie geben wird. Das glauben die Ökos nicht: „Was ich heut nicht speichern kann, speichern werd ich’s künftig.“

Da freut es die Ökogläubigen, dass die Hannoversche Allgemeine Zeitung (HAZ) am 24.10.2017 groß auf der ersten Seite über einen neuartigen Akku-Batteriespeicher berichtet, mit dem sich Schwankungen im Netz ausgleichen ließen. Was für Schwankungen? Nur ganz winzige. Rechnen wir doch einmal, wenn das auch niemand in den „Qualitätsmedien“ nachvollziehen kann und man dort auch noch schlampig in der Wortwahl ist.

Die Zeitung schreibt, diese Akkus hätten gemeinsam „eine Leistung von 17,4 Megawattstunden (MWh)“. Als Wort der Umgangssprache kann man „Leistung“ hier gelten lassen, besser wäre jedoch, das Wort so zu verwenden, wie es in die Elektrotechnik passt. Da stehen MWh für Energie oder Arbeit, und Leistung ist Energie geteilt durch Zeit, N = W : t, Einheit MW.

Einheiten sind an sich beliebig, man wählt sie immer so, wie es am anschaulichsten ist. Wir berechnen einmal die Energie in Megawattminuten. 17,4 MWh ∙ 60 min/h = 1044 MWmin. Nun müssen wir die Formel N = W : t umstellen. Ich weiß, was das für Mühe macht, denn ich helfe Migrantenkindern bei ihren Hausaufgaben. Zwar bin ich gegen Einwanderung, aber das sind Kinder, die nur zu unvorsichtig bei der Wahl ihrer Eltern waren. Selbst denen gelingt teilweise das Umstellen von Formeln, also darf ich das meinen Lesern, wenn auch nicht Journalisten, zumuten: N = W : t; N ∙ t = W; t = W : N. Energie W geteilt durch Leistung N ergibt die Zeit, welche nötig ist, um diese Energie zu erzeugen.

Nehmen wir einmal das Kernkraftwerk Grohnde. Dessen Leistung beträgt durchgehend 1.360 MW. Wegen seiner äußerst geringen Stillstandszeiten ist es Weltmeister; kein anderes der etwa 500 Kernkraftwerke auf der Welt hat bisher so viel Elektroenergie erzeugt wie Grohnde.

Also: 1044 MWmin : 1360 MW = 0,768 min = 46 Sekunden! Das heißt alle die Akkus gemeinsam können so viel, bzw. so wenig elektrische Energie abgeben, wie das KKW Grohnde in 46 Sekunden erzeugt! Etwas länger würde das Kohlekraftwerk Mehrum mit seinen 690 MW brauchen: 1044 MW : 690 MW = 1,51 min, also eine Minute und 31 Sekunden.

Der Zeitungsbericht versucht den Eindruck zu erwecken, als ließen sich mit den Akkus Flauten überbrücken. Frei nach Radio Eriwan: Im Prinzip ja, jedoch nur für 1 Minute.

Wie lautet die Überschrift der HAZ? „Unsere Stadtwerke haben ein kleines Spielzeug“? Nein: „Die Elektro-Zukunft beginnt in Hannover.“ Wer rechnet, wird zwangsläufig zum Feind unserer derzeitigen Politiker und der „Qualitätsmedien“. Auf meinem eigentlichen Gebiet, der Radioaktivität, habe ich mich damit bei Bundesamt für Strahlenschutz unbeliebt gemacht. In deren Info-Blatt „Asse-Einblicke“ vom März 2016 steht über mich: „Neben der Atomkraft hat Hinsch auch ein Faible für Mathematik.“ Offenbar ist das eine so schlimm wie das andere.




Wie die Weltbank arme Nationen noch ärmer macht

Bis vor gar nicht so langer Zeit war das tatsächlich deren Funktion. Ins Leben gerufen zusammen mit dem International Monetary Fund auf der Konferenz 1944 in Bretton Woods, half die Bank in ihren frühen Jahren Ländern wie Frankreich, sich von den Folgen des Krieges zu erholen. Später gab sie hauptsächlich Ländern der Dritten Welt das vitale Startkapital, um Investoren zu riskanten Kapital-Projekten zu überreden. Der Multiplikations-Effekt auf Investitionen kann dabei außerordentlich sein. Im Jahre 2013 gab die Weltbank dem Kosovo 40 Millionen Dollar zum Bau eines Braunkohle-Kraftwerkes. Dies sandte das positive Signal aus, welches den privaten Sektor ermutigen sollte, die Finanzierung mit weiteren 1960 Millionen Dollar zu finanzieren.

Erstaunlich! Nur dass das nicht das ist, was die Weltbank derzeit macht. Sie wird keine Kohlekraftwerke mehr finanzieren, weil sie nicht sauber und grün sind [clean and green]. Stattdessen möchte sie Entwicklungsländer dazu bringen, intermittierende, unzuverlässige und drastisch teure erneuerbare Energien wie Wind und Solar willkommen zu heißen als Teil einer Mission – umrissen vom ehemaligen UN-Generalsekretär Ban Ki-Moon – um „Armut zu bekämpfen und den Planeten zu retten“. Tatsächlich wird sie keines dieser Ziele erreichen. Man betrachte das Beispiel Nigeria. Dessen Hauptstadt Lagos hat Kairo als die größte Stadt Afrikas überholt, aber dort wird so wenig Strom erzeugt, das die Wirtschaft zumeist von privaten (und verschmutzenden) Diesel-Generatoren betrieben wird. Die National Electric Power Authority (NEPA plc) von Nigeria ist bekannt als „niemals konstant Energie erwarten, bitte Kerzen anzünden“. Stromausfälle sind an der Tagesordnung, und das im ganzen Afrika südlich der Sahara, und die Kosten für die Wirtschaft sind gewaltig. Das lokale Handy-Unternehmen MTM mit 62 Millionen Kunden gibt 70% seiner Betriebskosten für Diesel aus, um sein Netzwerk am Laufen zu halten.

Die nigerianische Finanzministerin Kemi Adesoun sagt: „Wir wollen ein Kohlekraftwerk bauen, weil wir ein mit Kohle gesegnetes Land sind, aber trotzdem haben wir ein Energieproblem. Man braucht kein Genie zu sein um zu erkennen, dass es sinnvoll ist, ein solches Kraftwerk zu errichten. Allerdings verwehrt man uns dieses, weil es nicht grün ist. Das ist nicht fair, weil sie eine ganze westliche Industrialisierung auf der Grundlage von Kohle-Energie haben“.

Da hat sie absolut recht: es ist nicht fair. Die UN lamentieren über globale Ungerechtigkeit und räumen ein, dass die Umverteilung von Wohlstand zu ihren Zielen einer nachhaltigen Entwicklung gehört. Und doch zwingt deren Politik des Öko-Imperialismus‘ einer zögernden, aber weitgehend hilflosen Entwicklungswelt Erneuerbare auf – der sicherste Weg zu garantieren, dass die ärmsten Länder der Welt arm bleiben.

Es gibt, 1,2 Milliarden Menschen ohne Zugang zu Strom und 2,7 Milliarden Menschen ohne moderne Kochmöglichkeiten. Es wird geschätzt, dass die Luftverschmutzung in Haushalten durch die Verbrennung fester Treibstoffe im Jahre 2010 3,5 Millionen Menschen den Tod gebracht hat. Die Kosten von Stromausfällen in Afrika südlich der Sahara belaufen sich in einigen Fällen auf über 5% des BIP. Anders als entwickelte Länder brauchen diese Länder nicht ihr Gewissen zu bemühen, wenn sie Fledermäuse und Vögel schreddernde Öko-Kruzifixe ablehnen. Sie brauchen Energie die funktioniert.

Den Zahlen der UN zufolge betragen die Kosten eines universellen Zugangs zu Energie lediglich 50 Milliarden Dollar pro Jahr. Aber das gilt nur für Energie aus fossilen Treibstoffen. Besteht man auf den Gebrauch Erneuerbarer, wird diese Rechnung mindestens verzehnfacht. Erneuerbare sind nicht nur materialintensiver – ein Kilo Stahl in einer Gasturbine kann 1000 mal mehr Energie erzeugen als ein Kilo Stahl in einer Windturbine – sondern sie erfordern auch erheblich komplexere und teurere Netz-Systeme, welche sich Entwicklungsländer einfach nicht leisten können.

Wie war es zu dieser Verrücktheit gekommen? Es begann im Jahre 1995, als ein australisch-amerikanischer Rechtsanwalt und Investmentbanker namens James Wolfensohn zum Präsidenten der Weltbank berufen worden ist. Dieser Erz-Globalist war ein Schützling der unbestritten bösesten und einflussreichsten Person in der Historie der grünen Bewegung, nämlich des kanadischen Milliardärs Maurice Strong.

Strong, welcher dem chinesischen kommunistischen Regime unter Mao sehr nahe stand, war kein Fan der Demokratie. Darum verbrachte er lange Zeit seiner Kariere mit der Arbeit für die UN, welche er als die ideale Institution ansah zur Bildung einer Eine-Welt-Regierung, gebildet aus erlauchten Technokraten wie ihn selbst. Er war auch der Haupthetzer des Erdgipfels 1992 in Rio, auf welchem er 179 Nationen dazu überredete, ein Dokument mit der Bezeichnung Agenda 21 zu unterzeichnen, in welchem der Begriff „Nachhaltigkeit“ in das Herz globaler Politik gebracht werden sollte. Umweltaktivismus, das verstand Strong sehr gut, war perfekt geeignet als Große Krise, welche man dazu heranziehen konnte, die Souveränität von Staaten zu untergraben im Namen der „Rettung des Planeten“.

Unter Wolfensohns Leitung änderten sich die Ziele der Weltbank dramatisch. War es zuvor nur darum gegangen, Armut zu lindern mittels Stützung ökonomischen Wachstums, geht es jetzt mehr um nebulöse „progressive“ Ziele wie Unterstützung der Umwelt, Frauenrechte, Arbeiterrechte und die Stützung von NGOs. Folglich wurde sie zu einer weiteren Welt-Institution, die auf eine Linie mit dem Ersten Gesetz des Kommentators John O’Sullivan einschwenkte: „Alle Organisationen, die nicht explizit rechts ausgerichtet sind, werden mit der Zeit links ausgerichtet werden“.

Diese Entartung hat sich unter dem jetzigen Präsidenten der Weltbank, Dr. Jim Young Kim, einem Kandidaten von Präsident Obama, deutlich beschleunigt. Rupert Darwall schreibt in einem die Weltbank und deren Präsidenten scharf kritisierenden, von der GWPF veröffentlichten Report, dass seine Politik, die Umwelt-Nachhaltigkeit über die Reduktion von Armut zu stellen, unmenschlich ist. Es gibt keinen ökonomischen Grund, geschweige denn einen moralischen, „teure, im Betrieb schadensanfällige Technologien Ländern aufzuzwingen, deren Entwicklung dadurch verzögert wird und die Elektrifizierung erheblich teurer machen“.

Link: http://tinyurl.com/y76fzm47 (paywalled)

Übersetzt von Chris Frey EIKE




Aktueller Stand der deutschen Energie­wende

Als die Flutwellen am Ufer auf das Kernkraftwerk Fukushima trafen, verursachten sie mehrere schwerwiegende Reaktorunfälle bis hin zur Kernschmelze. Die Pumpen für die Kühlwasserversorgung der Reaktoren wurden überflutet und fielen elektrisch aus. Diese Vorgänge führten unter dem starken politischen Druck der Partei Bündnis 90/ Grüne zur Festlegung der Bundesregierung aus der Nutzung der Kernenergie auszusteigen, weil zu gefährlich. Todesopfer durch radioaktive Strahlung gab es in Fukushima keine.

Der Ausstieg aus der Kernenergienutzung ist ein Hauptziel der Energiewende, die 2011 von der Bundeskanzlerin verkündet wurde. Weiter gehören dazu der Klimaschutz als Staatsziel, die Umstellung der Energieversorgung auf Erneuerbare Energien als Primärenergieträger und die Erhöhung der Energieeffizienz bei der Energieanwendung. Für die einzelnen Teile der Energiewende in Deutschland wurden konkrete Zielstellungen formuliert.

Den internationalen Partnern in Politik und Wirtschaft wurde die deutsche Energiewende als Pioniertat für die globale Neuausrichtung der Energieversorgung vorgestellt. Seither sind 6 Jahre vergangen und das Interesse daran, was denn aus der deutschen Energiewende geworden ist, ist groß und ungebrochen.

Die Energiewende zählt nach wie vor zu den größten wirtschaftlichen und ökologischen Projekten und Herausforderungen in Deutschland. Ihr Erfolg bildet die entscheidende Voraussetzung, um Deutschlands Beitrag zur Erfüllung des Pariser Klimaschutzabkommens zu gewährleisten und gleichzeitig unserer Wirtschaftsentwicklung positiv weiter zu führen.

Wie der Stand der Energiewende tatsächlich ist, wird seit 2012 in halbjährlichem Abstand von der renommierten Unternehmensberatung McKinsey & Company objektiv mit einem Energiewende- Index bewertet.
Der Energiewende-Index bildet den Status der Energiewende in Deutschland anhand von 13 Indikatoren ab. Die Ziele der politischen Entscheidungsträger zu Beginn der Energiewende werden dem jeweils erreichten Stand gegenübergestellt. Bewertet werden die Bereiche Klima- und Umweltschutz (4 Indikatoren), Versorgungssicherheit (4 Indikatoren) und Wirtschaftlichkeit (5 Indikatoren). Für die Kernenergienutzung gilt als Ziel, im Jahr 2022 den letzten Reaktor stillzulegen.

Die folgenden Abbildungen zeigen die Gegenüberstellung der Indikatoren für die einzelnen Bereiche für das 2. Halbjahr 2016 und das 1. Halbjahr 2017 im Detail.

Ersichtlich ist, dass nur 5 der 13 Indikatoren im Zielkorridor liegen. Das Erreichen der Zielstellungen für die übrigen 8 Indikatoren gilt als unrealistisch. Es sind die Indikatoren: Haushaltsstrompreise, Industriestrompreise, Erneuerbare-Energien- Umlage (Subventionierung), Ausbau der Übertragungsnetze, Kosten für Netzeingriffe, Senkung des CO2– Ausstoßes, Primärenergieverbrauch und Stromverbrauch. Das ist eine überaus ernüchternde Zwischenbilanz für das Jahresende 2017 und sollte Politikern und Fachleuten gleichermaßen zu denken geben, was den Erfolg der deutschen Energiewende betrifft. Nach der Bundestagswahl 2017 werden jetzt die ersten Stimmen laut, die „ein Neudenken der Energiewende“ fordern. Was dieses Neudenken bedeutet, wird von der nationalen und internationalen Öffentlichkeit sicherlich sehr aufmerksam verfolgt werden.

————————————

Der Autor hat Thermodynamik studiert und im Fach Kraftwerkstechnik promoviert.

Er blickt auf über 50 Jahre Erfahrung in der Energiewirtschaft zurück und hatte unterschiedliche Führungspositionen inne.

Quellen:

Energiewende-Index Deutschland 2020+-Neuer Kompass für die Wende“, Thomas Vahlenkamp u.a. in ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN Heft 10/2017

Website www.mckinsey.de/energiewendeindex

Wikipedia, „Fukushima“

Zum Stand der Energiewende“, Helmut Pöltelt, Aufsatz in 3 Folgen




Ist die Energiewende am Ende?

Ziele wurden nicht erreicht

 Die Ziele der Energiewende wurden nicht erreicht. Die Nutzung fossiler Brennstoffe und damit der Ausstoß von Kohlenstoffdioxid (CO2) wurden  nicht reduziert, obwohl Jahr für Jahr weitere Ökostromanlagen hinzugekommen sind. Inzwischen ist die installierte Leistung allein der Solar- und Windkraftanlagen auf rund 100.000 Megawatt (MW) angewachsen, die allerdings nur eine mittlere Jahresleistung von weniger als 15.000 MW erzeugen, weil nicht immer Wind weht und nachts keine Sonne scheint. Der Leistungsbedarf in Deutschland liegt je nach Tageszeit und Wochentag zwischen 45.000 und 85.000 MW. Doch selbst mit dieser geringen mittleren Ökostromleistung kann kein einziges konventionelles Kraftwerk ersetzt werden, weil der Ökostrom je nach Wetter stark schwankt und immer wieder längerer Dunkelflauten auftreten, also Stunden oder Tage mit kaum Wind und verhangenem Himmel in den Wintermonaten. Dann geht die Ökostromleistung gegen Null.

Die Preise für Strom sollten durch den Ausbau der Ökostromanlagen stabil gehalten werden oder sogar fallen. Dies ist nicht eingetreten. Im Gegenteil. Die Preise steigen Jahr für Jahr weiter an und werden in wenigen Jahren 50 Cent pro Kilowattstunde überschreiten, wenn die Energiewende, wie von der Bundesregierung  geplant, fortgeführt wird. Selbst bei leicht fallenden Vergütungen für Ökostrom steigen die Kosten für den Netzausbau, für Zuzahlungen zur Entsorgung von überschüssigem Ökostrom, für die Bereitschaft konventioneller Kraftwerke, die einspringen müssen, wenn der Wind nachlässt, und für den immer größeren Regelaufwand, um den Strombedarf des Landes jederzeit voll zu decken.

Die Stromversorgung soll sicher bleiben. Dies ist bisher gelungen, jedoch mit immer größerem Aufwand. Der weitere Bau von Ökostromanlagen mit ihren je nach Wetterlage schnell wechselnden Leistungen macht eine stabile Stromversorgung immer aufwendiger und teurer. Wir müssen uns auf Stromausfälle einrichten.

Kaum Kenntnisse über Probleme der Stromversorgung

 Es mag verständlich sein, wenn der Sozialwissenschaftler Jürgen Trittin von den Grünen unsinnigerweise behauptet, der Strom aus Kohlekraftwerken verstopfe die Leitungen für Ökostrom. Seine Physikkenntnisse sind wohl nicht ausreichend. Schlimm ist allerdings, wenn die Volkswirtschaftlerin und Mathematikerin Bärbel Höhn, Vorsitzende des Umweltausschusses des Bundestages, lobt, durch die Energiewende seien 370.000 neue Stellen entstanden, die 33 Prozent des deutschen Strombedarfs erzeugen. In den Kohlkraftwerken arbeiten dagegen nur 20.000 Menschen, die  40 Prozent des Strombedarfs produzieren. Diese Aussage machte Frau Höhn kürzlich in einer ARD Talkshow. Eine bessere Beschreibung der unsinnigen Energie-Wendepolitik kann man sich kaum vorstellen. Denn nach diesen Zahlen werden 20 Ökostrom-Mitarbeiter gebraucht, um die Strommenge zu erzeugen, für die nur ein Mitarbeiter in einem konventionellen Kraftwerk erforderlich ist.

Doch auch in den anderen Bundestagsparteien haben die meisten Abgeordneten kaum Kenntnis von der komplizierten Stromversorgung, die jederzeit die verlangte Leistung zur Verfügung stellt. Bei vielen sind ideologische Scheuklappen, wie Klimarettung und Schonung von fossilen Rohstoffen, eine Sperre, die Schwächen der Ökostromerzeugung zu hinterfragen. Sie bleiben einseitig gepolte Gutmenschen und stimmen entsprechend ab. Zweifellos gibt es in den Reihen der CDU/CSU und der SPD auch Abgeordneten mit gutem Sachwissen. Dies können sie aber nur vorsichtig parteiintern oder in privaten Gesprächen äußern. Offizielle Äußerungen würden gegen die Parteilinie verstoßen und würden zur Folge haben, bei der nächsten Wahl nicht wieder als Kandidat aufgestellt zu werden.

Die wieder erstarkte FDP fordert halbherzig ein Ende der Energiewende. Es ist zu befürchten, dass diese Partei in Kompromissformeln bei den angelaufenen Koalitionsverhandlungen ihre Position noch weiter verwässert. Auch hier dürften die meisten Abgeordneten keine eingehenden Kenntnisse über die physikalischen Grundlagen der Energieversorgung haben.

Nur die AfD hat in ihrem Parteiprogramm die eindeutige Forderung: „Keine Förderung und keine Privilegien für Ökostrom.“ Es ist ein Alleinstellungsmerkmal dieser Partei, mit dem sie in den letzten Wahlkämpfen wenig gewuchert hat. Auch hier dürften Defizite über die Probleme der Energieversorgung eine Rolle gespielt haben. Daher ist es erfreulich, dass der junge Physiker Dr. Christian Blex als energiepolitischer Sprecher der AFD Landtagsfraktion in Nordrhein-Westfalen wirkt und gegen eine ideologische Energiepolitik der anderen Parteien mit fundiertem Sachwissen Front macht.

Widerstand gegen die Wende wächst

Doch langsam nehmen Politiker den wachsenden Widerstand der Bevölkerung gegen die Auswirkungen der Energiewende zur Kenntnis. Dabei spielt vor allem die Umweltzerstörung durch Windgeneratoren und Biogasanlagen eine wichtige Rolle. In den Medien erscheinen vermehrt Berichte, die feststellen, die Ziele der Energiewende würden nicht erreicht. Die CO2 Emissionen haben trotz des massiven Ausbaus der Ökostromanlagen nicht abgenommen. Die Strompreise steigen Jahr für Jahr, statt, wie prognostiziert, zu sinken. Alle Daten zeigen, die Energiewende ist am Ende. Dies machen sich wohl auch immer mehr Politiker klar. Sie bereiten den Abgesang der Energiewende vor. Die Wende wird nicht mehr thematisiert. So können diese Politiker auch nicht für ihre Stützung der Wende  verantwortlich gemacht werden, wenn dieses System zusammenbricht. Man hört nur noch ganz selten von der Bundeskanzlerin die Worte Klimarettung und Energiewende. Dies wird weitgehend ausgeklammert.

Profiteure kämpfen um ihre Pfründen

Für die Wende treten nach wie vor die finanzstarken Profiteure ein. Sie wollen ihre Pfründen behalten. Viele davon sitzen im Bundestag und werden sicher alles tun, um ein Ende der Wende zu verhindern. Es wird spannend, ob es der AfD gelingt, diese Gruppe in ihre Schranken zu weisen. Dazu sind gute Kenntnisse über die Grundlagen und Probleme der Energieversorgung notwendig. Die AfD ist gut beraten, ihren Parlamentariern und Mitgliedern dieses Sachwissen zu vermitteln. Unter anderem sind dazu die Energiefachleute vom Stromverbraucherschutz NAEB e.V. bereit.




Der VDI gratuliert dem PIK zum 25 jährigen!

Das Potsdamer Institut für Klimaforschung besteht seit 25 Jahren. Das war der Anlass, um am Donnerstag, dem 11. Oktober 2017, ein Jubiläumsfest zu feiern. Durch seine Aktivitäten ist dieses Institut weit über die Grenzen Brandenburgs bekannt geworden. Als Arbeits­kreis der Fachgruppe Umwelt des Bezirks Frankfurt-Darmstadt im Verband Deutscher Ingenieure senden wir ebenfalls respektvolle Gratulationsgrüße. Mit großer Aufmerksamkeit lesen wir die zahlreichen publizierten Berichte über Klimawandel und deren mögliche Ursachen. Wenn Ingenieure Wolkenkratzer planen, untersuchen sie zu allererst den Untergrund und seine Tragfähigkeit. Doch wie kann man über das Klima und die Folgen des Klimas forschen, wenn nicht zuerst die Frage geklärt wird, welchen Einfluss die „Treibhausgasemissionen“ auf die weltweite Wettervielfalt und deren Temperaturverläufe haben.

Glückwünsche beinhalten auch Wünsche für die Zukunft für eine fruchtbare kontroverse wissenschaftliche Diskussion. Als VDI-Arbeitsgruppe wünschen wir uns Denkgremien, die frei von polit-ideologischen Vorgaben sind, um die Ursachen des Wetterwech­sels und des „Klimawandels“ auf unserer Erdoberfläche objektiv zu ergründen. Das beginnt schon mit der Wortwahl zur Beschreibung von Fakten; z. B. einen Klimawandel kann man nicht ver­hindern, denn den gab es in allen geologischen Phasen und den wird es auch in Zukunft geben, als Folge des Wetterwandels. Ob Kohlenstoffdioxid dabei eine Rolle spielt, das muss erst wissenschaftlich belegt und nicht nur behauptet werden. Eine Kohlenstoffdioxidpräsenz in der erdnahen Atmosphäre und in den oberen Ozeanschichten ist die Voraussetzung für das „Leben“ auf unserer Erde schlechthin. Zusammen mit Wasser und der Sonnenergie bildet die Fotosynthese die Basis für das Leben aller biologischen Systeme. Ein weiterer unwissenschaftlicher Begriff ist der Ausdruck „Erneuerbare Energien“. Aufgrund der „Thermodynamischen Hauptsätze“ gibt es keine „Erneuerbare Energie“, deshalb wird es auch nicht möglich sein, die fossilen Energieträger (Kohle, Erdöl, Erdgas), in denen die Sonnenenergie als chemische Energie gespeichert ist, durch „Erneuerbare Energien“ zu ersetzen. Der Begriff „Erneuerbare Energie“ ist wissen­schaftlich irreführend, denn Strom durch Sonne und Wind kann man nur erzeugen, wenn der Wind weht und die Sonne scheint. Auch der Ausdruck „Klimaerwärmung“ ist widersprüchlich, denn das „Klima ist ein statistisch errechnetes Konstrukt, eine nackte Zahl wie die „Globaltemperatur“. Weitere Einzelheiten inner­halb eines Leserbriefes anzusprechen, würde zu weit führen. Verwiesen sei auf die VDI-Schrift, „Atmosphäre, Wasser, Sonne, Kohlenstoffdioxid, Wetter, Klima, Leben – einige Grund­begriffe“. Darin werden die Zusammenhänge zwischen Wetter, Klima, Atmosphäre und Kohlenstoff­dioxid ausführlich erklärt.

Prof. Dr.-Ing. Vollrath Hopp, Chemiker; Dr. rer. nat. Gerhard Stehlik, Physikochemiker; Dr. phil. Wolfgang Thüne, Meteorologe (v.i.S.d.P.); Dr.-Ing. Edmund Wagner, Physikochemiker




Welche Krise? Globale CO2-Emissionen stagnieren im dritten Jahr hinter­einander

Der Report präsentiert aktualisierte Ergebnisse der kontinuierlichen Überwachung der drei Haupt-Treibhausgase: Kohlendioxid (CO2), Methan (CH4) und Stickstoffoxid (N2O).

Die globalen GHG-Emissionen werden weiterhin durch fossile CO2-Emissionen dominiert, welche seit dem Jahr 2012 jedoch eine abnehmende Tendenz zeigen und im Jahre 2016 zum dritten Mal hintereinander stagnierten.

Abbildung 1: Gesamt-Emissionen fossilen CO2 in Gton CO2 pro Jahr. Unter den Quellen fossiler CO2-Emissionen sind die Verbrennung fossiler Treibstoffe, industrielle Prozesse und Verbrauch von Produkten (Verbrennung, Abfackeln, Zement, Eisen und Stahl, Chemikalien und Urea) in den EU28 sowie großen Emitter-Staaten, außerdem die Unsicherheit (gestrichelte Linie; linke Achse) und für die Welt insgesamt pro Sektor (rechte Achse).

Russland, China, die USA und Japan reduzierten ihre CO2-Emissionen von 2015 auf 2016, während die Emissionen der EU hinsichtlich des Vorjahres stabil geblieben waren. Die Emissionen in Indien nahmen weiter zu.

Abbildung 2: Pro-Kopf-CO2-Emissionen (in ton CO2 pro Kopf und Jahr) für die EU28 und starke Emitter-Länder mit Unsicherheit (gestrichelte Linie) und für das Weltmittel.

Andere Treibhausgase holen auf

Informationen hinsichtlich der anderen beiden Treibhausgase, also Methan (CH4) und Stickoxid (N2O) stehen nur bis zum Jahr 2012 zur Verfügung, weil internationale Statistiken zu landwirtschaftlichen Aktivitäten – die Hauptquelle dieser Emissionen – nicht so häufig aktualisiert werden wie Angaben zu Energie und industriellen Aktivitäten.

Auch die Unsicherheit ist für diese Emissionen höher als für CO2-Emissionen.

Allerdings zeigen die Daten bis zum Jahr 2012 eine stetige Zunahme der globalen GHG-Emissionen mit einer Gesamt-Zunahme von 91% von 1970 bis 2012.

Methan wird hauptsächlich durch landwirtschaftliche Aktivitäten erzeugt, durch die Herstellung von Kohle und Gas ebenso wie durch Abfallwirtschaft und Entsorgung. Stickoxid wird hauptsächlich durch landwirtschaftliche Erdarbeiten und die Chemieproduktion emittiert.

In der EU werden 60% der CH4 und N2O-Emissionen durch die sechs am meisten emittierenden Länder freigesetzt – Deutschland, UK, Frankreich, Polen, Italien und Spanien.

Der Aufwärtstrend dieser beiden Emissionen zeigt sich auch in den USA, in Chile, Japan und Indien, welche allesamt steigende GHG-Emissionen verzeichnen.

Abwärtstrend in Europa stagniert

Während der letzten zwei Jahrzehnte nahmen die CO2-Emissionen stetig ab, doch machen diese immer noch zwei Drittel der EU-Gesamt-Treibhausgas-Emissionen aus.

Im Jahre 2016 lagen die CO2-Emissionen der EU um 20,8% unter dem Niveau im Jahre 1990 und um 17,9% unter dem Niveau von 2005. Seit 2015 haben sich die CO2-Emissionen der EU stabilisiert und machen 9,6% der globalen Emissionen aus.

Profile der Länder

Der Report basiert auf der Emissions Database for Global Atmospheric Research (EDGAR) des JRC. Diese Daten sind nicht nur einmalig bei der Abdeckung von Zeit und Fläche, sondern auch wegen ihrer Vollständigkeit und Konsistenz bei der Auflistung der Emissionen verschiedener Verschmutzer: Treibhausgase, Luftverschmutzer und Aerosole.

Der neue Report enthält zwei länderspezifische Tabellenblätter für 216 Länder. Die Tabellen zeigen die Entwicklung der CO2-Emissionen nach Ländern von 1990 bis 2016 sowie die Entwicklung von Treibhausgas-Emissionen nach Ländern von 1970 bis 2012.

Der vollständige Bericht (PDF) steht hier.

Link: https://wattsupwiththat.com/2017/10/20/what-crisis-global-co2-emissions-stalled-for-the-third-year-in-a-row/

Übersetzt von Chris Frey EIKE




Gründe für Optimismus trotz Klima Hysterie

Viele meiner Freunde und Bekannten sind Klimaskeptiker, und viele von ihnen erleben oft, sich bei diesem Thema wie auf der Müllhalde zu fühlen. Ihre Argumentation geht so: Hier haben wir etwas, das von jedem selbst denkenden Menschen sofort als Quatsch erkannt werden sollte. Und doch scheinen Tausende und Millionen Menschen dem [Fake] verfallen zu sein. Und nicht nur normale Leute, sondern Menschen, die scheinbar zur Elite der Gesellschaft zu rechnen sind – Akademiker und Journalisten und Regierungsbeamte. Die meisten Medien fungieren als Propaganda-Megaphone, um die Idiotie zu verbreiten. Die Kräfte der Hysterie fordern jährlich Dutzende von Milliarden Dollar an staatlichen Mitteln, für ihr Programm und um ihre Botschaft zu verbreiten. Sie ersticken und unterdrücken jede Opposition. Ihr Programm ruft dazu auf, der Bevölkerung die Freiheit zu nehmen und sie mit höheren Kosten für Energie zu verarmen. Und dennoch scheint das Programm überall angenommen zu werden!

Wie könnte ein gesunder Mensch darüber nicht deprimiert werden? Einfach! Denn auf der anderen Seite dieses Themas haben wir eine Geheimwaffe. Die Geheimwaffe ist, dass die angeblichen CO2 Energiequellen – oder zumindest jene angeblich kohlenstofffreien Energiequellen, die für Klimaschützer akzeptabel sind, aber nicht funktionieren (also Wind und Sonne und definitiv nicht Kernkraft). Schlimmer noch, Wind und Solar sind nicht einmal kohlenstofffrei zu nennen, da große Mengen an zuverlässiger, fossiler Energie benötigt werden, um die Turbinen oder Panels oder was auch immer herzustellen. Betrachten Sie diese beiden Probleme zusammen  und erkennen Sie, dass die Regierungen, die versuchen, ihre CO2-Emissionen zu reduzieren – indem sie Wind und Solar stark subventionieren – sehr schnell auf eine Grenze stoßen, an der die Energiepreise für die Massen „durch das Dach steigen“ – und trotzdem sinken die CO2-Emissionen nicht. In der New York Times oder der Washington Post  werden Sie keinen Bericht darüber finden, aber es wird immer schwerer, es nicht zu bemerken.

Schauen wir uns Deutschland genauer an, das in den letzten Tagen eine Menge Neuigkeiten zu diesem Thema geliefert hat. Auf den ersten Blick würde Deutschland besser als jeder andere Ort erscheinen, um die größte Ursache für Ihre Depression zu sein. Der Übergang von fossiler Energie zu Wind und Sonne ist für Kanzlerin Angela Merkel seit mehr als einem Jahrzehnt das Leitthema und bei den Wahlen am Sonntag scheint [wurde] sie wieder gewählt zu werden. Aber glauben Sie nicht, dass es einen Unterschied machen würde, ob einer der anderen Kandidaten oder Parteien es geschafft haben wird, Merkel zu besiegen, weil es in Deutschland keine politische Partei gibt, die Dissens über das Thema „Klimawandel“ bietet. [außer AfD] Das ganze Land ist der Massenhysterie verfallen! Deutschland hat sich gegenüber der EU verpflichtet, seine CO2 Emissionen bis 2030 auf einen Stand von weniger als 40% ggü. 1990 zu senken. Darüber hinaus hat Deutschland eigene interne Ziele, die Reduzierung um 40% bereits bis 2020 zu erreichen und bis 2050 gar um 95%. !

OK, das ist die Fantasie. Doch wie ist es in der realen Welt? Von Jamie Horgan in The American Interest, vom 20. September: Deutschland wird ein weiteres grünes Ziel verfehlen.

Die große grüne Energiewende der Regierung in Berlin fällt hinter ihre hohen Ziele, die sie angesagt haben. Anfang dieses Monats veröffentlichte die Denkfabrik Agora Energiewende einen Bericht, nach dem Deutschland sein Ziel, die Emissionen von Treibhausgasen (GHG) zu senken, deutlicher verfehlt, als bisher angenommen. In diesem Jahr hat das Land einen Rückgang von „nur“ 28 Prozent erreicht (ein bemerkenswerter Rückgang, wenn auch nicht am Ziel) und es wird erwartet, dass es in den nächsten Jahren nur noch 2 oder 3 Prozent schaffen wird. Eine neue Studie des Bundesverbands für erneuerbare Energien [BEE-Gruppe] kommt zu dem Schluss, dass das Land sein von Brüssel gesetztes Ziel, bis 2020 18% seiner Energieproduktion aus Erneuerbaren zu beziehen, nicht erreichen wird.

Eine gute Sache für Horgan dies zu veröffentlichen.

[US – Wissenschaftsjournalist, In seinem 1996 erschienenen Buch „An den Grenzen der Wissenschaft. Siegeszug und Dilemma der Naturwissenschaften“ vertrat Horgan die skeptizistische These, die Wissenschaft würde aufgrund der rasanten Fortschritte im 19./20. Jahrhundert und aufgrund sozialer, ökonomischer, physikalischer und kognitiver Faktoren kurz vor ihrem Ende stehen., Quelle de.Wiki].

Aber er ist immer noch voreingenommen, wenn er sagt, dass die derzeitige Emissionsreduktion Deutschlands um 28% unter dem Stand von 1990 „ein bemerkenswerter Rückgang“ ist. Nein, ist es nicht. Das Datum 1990 wurde von Deutschland gezielt ausgewählt, um den Rest der Welt zu betrügen. 1989 ist das Jahr, in dem die Berliner Mauer fiel. Im Laufe der nächsten anderthalb Jahrzehnte schlossen die Deutschen im Wesentlichen die ganze ineffiziente sowjetische Schwerindustrie in Ostdeutschland. Deutschland wählte das Startdatum von 1990, damit es für die Reduktionen, die ohnehin geschehen wären, Anerkennung finden und so tun könnte, als hätte dies etwas mit der Rettung des Planeten zu tun.

Hier ein Diagramm der jährlichen Treibhausgasemissionen seit 1990 in Deutschland. Quelle: CleanEnergyWire ; Daten UBA 2017

Sie werden schnell erkennen, dass Deutschland die Grenze der Emissionsreduzierung in 2010 erreicht hat. Seitdem sind die Emissionen in 4 der 7 Jahre wieder gestiegen. Multiplizieren Sie die Veränderungen seit 2009 und Sie werden feststellen, dass die deutschen Emissionen Ende 2016 nur 99,79% des Standes von Ende 2009 ausmachten. Und das, obwohl 2010 das Jahr war, in dem sie das so genannte „Energiewende“ Gesetz erließen. Was für eine „Energiewende“ – 0,21% Emissionsreduktion in sieben Jahren!

Wieso konnten die Dinge sich so schlecht entwickeln? Unter anderem kam Deutschland den „grünen Umweltschützern“ mit der Entscheidung entgegen, die Kernkraftwerke aufgrund des Tsunamis 2011 in Fukushima zu schliessen. Kernkraft emittiert kein CO, Wind und Sonne funktionieren nicht, zumindest nicht oft. Was also bleibt? Kohle! Darüber schrieb auch Bloomberg News: „Wie Merkels grüne Energiepolitik die Nachfrage nach Kohle angeheizt hat“ :

Bis 2030 wird die ostdeutsche Stadt Poedelwitz [bei Leipzig] mit ihren Fachwerkhäusern wahrscheinlich zur Hälfte abgerissen werden, um die reichen Vorkommen an Kohle abzubauen. Die Bemühungen von Bundeskanzlerin Angela Merkel, Deutschland zu grüner Energie zu führen, brachte unerwartet eine boomende Nachfrage nach schmutziger Kohle. „Das ist eine beispiellose Zerstörung der Umwelt“, sagt Jens Hausner, Bürgerinitiative Pro Pödelwitz, der bereits riesige Bagger in seiner Vorstellung sieht. Etwa 84% der Bewohner haben ihre Häuser bereits an die Mibrag (Kohle-Abbauunternehmen) verkauft. Gegen den Kohlabbau ist eine Bürgerinitiative und die Grünen. Jens Hausner von der Bürgerinitiative Pro Pödelwitz erklärte: „Wir werden unser Dorf nicht hergeben, damit der Klimawandel weiter angeheizt werden kann“ [Diesen Absatz aufgrund Recherche aktualisiert, der Übersetzer]

Ich mag den Satz mit „unerwartet“. Beherrscht irgend jemand in Deutschland die Grundlagen der Arithmetik? Scheinbar nicht. Und was ist mit den Kosten?

In den vergangenen Jahrzehnten hat Deutschland rund 650 Milliarden Euro an Subventionen für Ökostrom ausgegeben. Damit wird das Land bestenfalls 30 Prozent CO2 Reduzierung bis 2020 erreichen, so die Berliner Klimaforscher der Agora Energiewende. Emissionsreduktionen „werden kein beinahe Fehlschlag sein, sondern ein dröhnendes Scheitern“

Sogar in einem Land mit einem BIP von fast $ 3,5 Billionen pro Jahr, sind diese 650 Milliarden an „grünen“ Energiesubventionen echt viel Geld.

Deutschlands erklärte Ziele der Emissionsreduzierung sind schlicht Fantasien. Die Emissionsreduzierungen werden nicht erreicht, aber mittlerweile steigen die Preise, die die Leute für Strom und Benzin und Heizöl bezahlen müssen, weiter steigen. (In Deutschland hat bereits etwa dreimal so hohe Strompreise wie der US-Durchschnitt.) Gleiches gilt für Kalifornien und New York und für alle anderen, die eine vergleichbare Strategie anstreben. Bislang lesen Sie nicht viel über das Ausmaß der Katastrophe, aber es ist wirklich eine Katastrophe. Diese Tatsache kann nicht für immer unterdrückt werden, bleiben Sie optimistisch!

Erschienen auf Manhattan Contrarian am 22.09.2017

Übersetzt durch Andreas Demmig

http://manhattancontrarian.com/blog/2017/9/22/reasons-for-optimism-about-climate-hysteria




Nennen Sie Klimaskeptiker nicht “Leugner”, nennen Sie uns “Wahrhaftig”

[[ Einschub durch den Übersetzer: Zitat aus o.g. Beitrag in The Hill, die Argumente:

… Diejenigen, die bestimmte wissenschaftliche Erkenntnisse und Theorien leugnen, sind weder Idioten noch Ludditen. Solche Individuen haben kein Problem mit den Früchten von Wissenschaft und Technologie wie Handys, Medikamente und Computer. Wissenschaftsleugner sind selektiv in ihrer Ablehnung der Wissenschaft, wenn sie sich auf eine spezifische Feststellung konzentrieren, die sie nicht mögen.

… Andererseits ist die Ablehnung der Klimawissenschaft auf den Widerstand gegen Veränderungen in der Wirtschaft und im Lebensstil gerichtet. [Veränderungen,] die zu einer erheblichen Beeinträchtigung bestimmter Lebensweisen führen würden, wenn wir uns von kohlenstoffbasierten Brennstoffen abwenden.

… Aber der Denialismus kann die Gesellschaft einem größeren Risiko aussetzen, indem sie sich nicht auf Worst-Case-Szenarien vorbereiten und Strategien zur Eindämmung unserer Auswirkungen auf die Umwelt ergreifen. Es ist Zeit für diejenigen, die leugnen, sich zu fragen: „Aber was, wenn ich falsch liege?“

Einschub Ende ]]

Dieses entstellende Hass-Wort, das einen lächerlichen Vergleich zwischen Skeptikern an bestimmten Aussagen von „Klimawissenschaftlern“ und denen unterstellt, die sagen, die Nazis hätten nicht sechs Millionen Juden ermordet, sollte von ernsthaften Akademikern nicht in den Mund genommen werden. Der Missbrauch durch intellektuelle Pygmäen zeigt auch hier wie immer, mehr als eine nur kleine Nervosität seitens des Establishments, denn die Welt erwärmt sich weiterhin in einer Geschwindigkeit, die deutlich unter dem liegt, was ursprünglich vorhergesagt wurde und wie sich herausstellt, gibt es eine gute Erklärung für die Diskrepanz.

Die beiden Hassredner trudeln weitschweifig durch die Geschichte von Herausforderer des wissenschaftlichen Establishment, deren Ansichten sich als richtig erwiesen haben (Hypatia, Giordano Bruno, Galileo, Benjamin Franklin und John Scopes), aber sie nehmen es nicht wahr, dass die heutigen Klimaskeptiker die „sciconoclasts“ sind [keine Übersetzung gefunden, meine sinngemäße Schätzung:  „Die, die Beweise in der Natur suchen“; der Übersetzer], und es ist die tief verschanzte und im allgemeinen totalitäre akademische Elite, mit der sie sich pietistisch [~ in Frömmigkeit] identifizieren, die heute genauso falsch liegen wie der Mob, der Hypatia für ihre nichtkonformistischen astronomischen Vorstellungen ermordete. Und auch die Kardinäle hatten unrecht, als sie Bruno zum Tode verurteilten.

[[ Hypatia (und hier) und Galileo habe ich recherchiert. Beide Persönlichkeiten sind nun gerade keine geeigneten Kandidaten als Vorbild für Klimaalarmisten, weil beide die Natur untersuchten und mit ihren Erkenntnissen gegen die Vorgaben der herrschenden Elite standen.

  • War Papst Urban VIII der erste Warmist? Aus dem Bild könnte man auch schließen, dass er sich weigert, durch Galileos Teleskop zu schauen. Die Leute neigen dazu, sich zu weigern, Beweise zu erwägen – wenn das, was sie entdecken könnten, dem widerspricht, was sie glauben.

Venedig 1609: Galileo Galilei zeigt, wie man das Teleskop benutzt.
Quelle: Bundeszentrale für politische Bildung; https://www.hanisauland.de/kalender/201001/galileogalileitodestag

Galileo Galilei war ein Mathematiker und Physiker, der dem Denken in den Naturwissenschaften einen neuen „Kick“ gegeben hat. … Deswegen versuchte er, mit wissenschaftlichen Experimenten einer Sache auf den Grund zu gehen. Er wollte die Gesetzmäßigkeiten in der Natur feststellen – das war ganz neu, das war revolutionär.]]

 

Die beiden Mikrobiologen haben den Punkt völlig verpasst. Sie sprechen von „nahezu einstimmigem Konsens“, dass die Erde vor einer anthropogenen Klimaänderung steht. Die größte Anzahl von akademischen Arbeiten zum Klima, die jemals untersucht wurden – beeindruckende 11.944 Arbeiten in dem Zeitraum von 1991-2011 – zeigen „einen Konsens von nur 0,3 Prozent“, zur Unterstützung der Behauptung: „Der Klimawandel ist vom Menschen verursacht“. Die Frage, ob die zu erwartende kleine Erwärmung gefährlich sein wird, wurde nicht einmal gestellt; der „Konsens“ in dieser Frage ist noch geringer.

Selbst wenn es einen „nahezu einstimmigen Konsens“ gäbe, würde die Wissenschaft nicht durch Konsens, sondern durch informierten Dissens vorangetrieben [abweichende Meinungen]. Die von den Mikrobiologen selbst angeführten Beispiele machen deutlich, dass ein „Konsens“ fast immer falsch ist, zumindest an den Grenzen.

Newtons Himmelsmechanik wurde seit drei Jahrhunderten allgemein als korrekt angesehen, doch die Relativitätstheorie hat sie ersetzt – dank der Arbeit eines skeptischen Patentbeamten aus der Schweiz.

Und wie reagierte dann der wissenschaftliche „Konsens“? In Deutschland haben 100 Wissenschaftler ein Buch gegen Albert Einstein und seine „jüdische Wissenschaft“ geschrieben. Wo sind diese jetzt?

Die Mikrobiologen frönen dem abstoßendem Mantra der harten Linken um das zu bekräftigen: „Die Trump-Administration hat den Wert wissenschaftlicher Expertise immer wieder herabgesetzt und die Wissenschaftler eliminiert, die die Umweltschutzbehörde und das Justizministerium beraten.“

Nein, aber die Trump-Regierung hat politische Aktivisten, die sich als Wissenschaftler ausgeben, eliminiert und sie durch Wissenschaftler ersetzt, die bereit sind, Wissenschaft voranzustellen und totalitäre Politik nirgendwo zu unterstützen.

Die Mikrobiologen behaupten unverschämt: „Niemand leugnet … das Standardmodell der Teilchenphysik.“ Tatsächlich gibt es lebhafte und spekulative Debatten unter Kosmologen über die Entstehung des Universums und daher über das Entstehen und den Einfluss verschiedener Teilchen, deren Zahl und Eigenschaften sich mit verwirrender Schnelligkeit zu ändern scheinen, wenn neue Theorien vorangetrieben werden.

Die Mikrobiologen scheinen die von Klimarealisten vorgebrachten Begründungen nicht zu schätzen, warum diese überhaupt skeptisch sind, dass Klimawissenschaft und Klimaschutzökonomie in vielerlei Hinsicht einfach falsch sind. Es ist jetzt für alle außer einer irredentistischen [~ radikalen] Minderheit klar, dass die Klimamodelle in ihren Vorhersagen die Geschwindigkeit der globalen Erwärmung übertrieben haben, vielleicht sogar um das Dreifache.

Und da die beiden Mikrobiologen „Konsens“ betreiben, es herrscht in den Zeitschriften der Wirtschaftsökonomie nahezu Einigkeit, dass es zwei bis drei Größenordnungen kostspieliger ist, die weitgehend nicht vorhandene globale Erwärmung abzuschwächen, als diese geschehen zu lassen und sich an seine Konsequenzen anzupassen.

Ohne jegliche Beweise behaupten die Mikrobiologen indolent, dass „… die Ablehnung der Klimawissenschaft auf den Widerstand gegen Veränderungen in der Wirtschaft und im Lebensstil gerichtet ist, die zu einer erheblichen Beeinträchtigung bestimmter Lebensweisen führen würden, wenn wir uns von kohlenstoffbasierten Brennstoffen abwenden.“

Erstens: Die Welt „wendet sich nicht ab“ von Kohle, Öl und Gas – ganz im Gegenteil. Zweitens beruht der akademische Widerstand gegen der Parteilinie in Klimafragen auf einer Reihe regelrechter Fehler der offiziellen Klimatologie.

Ein Beispiel: Nur ein Drittel der von den üblichen Verdächtigen vorhergesagten globalen Erwärmung, lässt sich mit den offiziellen Werten der Treibhausgas-Theorie erklären. Die verbleibenden zwei Drittel, so sagen sie, ergeben sich aus Folgewirkungen der direkten Erwärmung, bekannt als „Temperaturfeedback“. Die mittlere Schätzung des „Feedback-Anteils“ der offiziellen Klimatologie – also der Anteil der globalen Temperatur nach der direkten Erwärmung, die auf den Eingang der globalen Erwärmungsberechnung zurückgeführt wird – beträgt 0,65. Bei einer vorindustriellen Oberflächentemperatur von 287,5 Kelvin beträgt der theoretisch maximal mögliche Wert der Rückkopplungsfraktion – angenommen, dass der gesamte [behauptete] 32 K natürliche Treibhauseffekt rückkopplungsgetrieben ist – 32 / 287,5 oder 0,11. Absurderweise beträgt die offizielle beste Schätzung etwa das Sechsfache dieses absoluten Maximums.

Das bedeutet, dass es nicht mehr als 1,5 K globale Erwärmung für jede Verdopplung der CO2-Konzentration geben kann, und nicht die 3,3 K, die die derzeitige mittlere Schätzung der Modelle darstellt. Und 1,5 K Erwärmung, nicht viel mehr als 2,5 Fahrenheit, sind einfach nicht genug, um sich Sorgen zu machen.

Bezeichnenderweise benennen die beiden Mikrobiologen nicht einmal eine einzige wissenschaftliche Quelle, in ihrem rein parteipolitischen Gekreische gegen diejenigen, die ihre trostlos düstere, übersteigert totalitäre Wissenschaft nicht teilen. Von der Wissenschaft, über die diese beiden Wissenschaftler schreiben, wissen sie so wenig, dass sie sagen: „Wissenschaft … betrachtet ihr Wissen immer als provisorisch.“

Ein einziges Gegenbeispiel demonstriert ihre Unwissenheit bei der Verwendung des universellen Vervielfacher (nicht, dass sie es wissen würden, wenn sie darauf gestoßen wären). Sowohl auf einer hyperbolischen als auch auf einer euklidischen Fläche ist das Quadrat der Hypotenuse eines rechten Dreiecks immer gleich der Summe der Quadrate der beiden Katheten. Vielleicht haben sie nicht aufgepasst, als sie das als Schüler beigebracht bekamen. Einige wissenschaftliche Hypothesen, obwohl keineswegs alle, sind tatsächlich definitiv nachweisbar. Wir haben zum Beispiel oben definitiv gezeigt, mit unanfechtbarer Einfachheit, dass die globale Erwärmung, die als Reaktion auf einen verdoppelten CO2 Gehalt zu erwarten ist, 1,5 K nicht überschreiten kann.

Um die angepasst-predigenden Sprache der beiden Mikrobiologen auf sie selbst anzuwenden, es würde sich für totalitäre Wissenschaftler „ziemen“, wenn sie die Maxime aller Wissenschaftler beachtet hätten: „Ich kann mich irren“.

Sie befinden sich im Irrtum, wenn sie die jüngsten Wirbelstürme in der Karibik auf die globalen Erwärmung schieben. Allein aus dem guten und ausreichendem Grund, dass bereits vorher schlimmere und häufigere Wirbelstürme aufgetreten sind – was sie endeckt hätten, wenn sie daran gedacht hätten, dass wissenschaftliche Meinung wertlos ist, wenn sie nicht auf zumindest ein wenig elementarer Forschung besteht.

Daher nennen Sie uns Skeptiker nicht „Leugner“, nennen Sie uns „wahrhaftig“. Es ist die offizielle Parteilinie zum Klimathema, die offensichtlich nicht nur falsch ist, sondern auch selbstsüchtig.

 

* * *

 

Niemand bezahlt mich, wissenschaftliche Fragen zu stellen. Wie es so vielen anderen unterstellt wird, die von einer Hand voll rechthaberischer Konformisten gemobbt und beschimpft werden, und es dann nicht wagen, solche Fragen zu stellen. Ich und diejenigen wie ich, stellen Fragen, denn im Gegensatz zu den Gläubigen, die ihre Köpfe zu Boden senken und sagen:“Ich glaube!“, wenn sie über die Meinung der Parte informiert werden. Unsere Annäherung an die natürliche Welt ist eine heilige Ehe der Neugier und Ehrfurcht, verkörpert in den beiden Wörtern, gefolgt von einem Fragezeichen, das sind die „Fons et Origo“ [lateinisch: Quelle und der Ursprung] aller wahren Wissenschaft: „Ich frage?“

Christopher Monckton von Brenchley, MA (Cantab.), ist Autor mehrerer gelehrsamer Studien zur Klimasensitivität und Klimaschutzökonomie.

 

Erschienen auf Spectator am 13.10.2017

Übersetzt durch Andreas Demmig

https://spectator.org/dont-call-climate-skeptics-deniers-call-us-correct/




DWD: Für die Vergan­genheit gibt es keine belast­baren Auswer­tungen zur Verän­derung von Stärke oder Häufig­keit von Stürmen über Deutsch­land

Vor zwei Jahren (2015) warnte Uwe Kirsche vom Deutschen Wetterdienst auf RP-Online vor vorschnellen Schlüssen:

Deutschland scheint sturmgeplagt. In den vergangenen zehn Jahren gab es im Durchschnitt jedes Jahr einen Orkan. Tritt dieses Naturereignis mittlerweile häufiger auf, als es in der Vergangenheit der Fall war? Werden Stürme in bestimmten Monaten zum alltäglichen Begleiter?

“Das ist ein schwieriges Thema”, antwortet Uwe Kirsche vom Deutschen Wetterdienst (DWD). “Für die Vergangenheit gibt es keine belastbaren Auswertungen zur Veränderung von Stärke oder Häufigkeit von Stürmen über Deutschland”, erklärt er die Situation. Während Temperaturverläufe und Regenmengen über viele Jahrzehnte sehr gut dokumentiert sind, hält sich der DWD bei Stürmen zurück.

Michael Krüger berichtete 2014 im ScienceSkepticalBlog:

Die Sturmaktivität an der Deutschen Nordsee- und Ostseeküste (Sturmindex an der Nordsee- und Ostseeküste/ geostrophische Windgeschwindigkeiten seit 1880) nimmt nicht zu, sondern fällt seit dem Messbeginn im Jahre 1880. Um 1990 wurde ein Zwischenhoch erreicht, seitdem fällt die Aktivität weiter.

Dazu zeigt er zwei Sturmindex-Kurven, allerdings leider ohne Quellenangabe. Forscher des Instituts für Küstenforschung des Helmholtz-Zentrums Geesthacht haben die Sturmentwicklung in Deutschland und Nachbargebieten seit längerem verfolgt und können ebenfalls keinen beunruhigenden Trend erkennen. Auf shz.de war 2014 zu lesen:

Orkan „Christian“ war kein Kind des Klimawandels
[…] Gemeinsam mit Kollegen des Deutschen Wetterdienstes und des dänischen Meteorologischen Instituts haben die Geesthachter Küstenforscher die Daten von „Christian“ und anderer Orkane ausgewertet. Von Storch erlebte den Ausnahme-Sturm am 28. Oktober 2013 hautnah: Beim Versuch, seine Heimatinsel Föhr zu besuchen, strandete er in Dagebüll. Er und seine Kollegen stießen bei ihrer Untersuchung auf  Schwankungen der Sturmintensität über viele Jahrzehnte. „Erkennbar ist eine Verringerung der Sturmaktivität seit den 1880ern bis Mitte der 1960er Jahre und ein darauf folgender Anstieg bis Mitte der 1990er Jahre“, sagt von Storch. Seit Mitte der 1990er Jahre verringere sich die Aktivität wiederum. „Anders als bei Hitzewellen können diese Schwankungen allein auf natürliche Variabilität zurückgeführt werden“, erklärt der Wissenschaftler. […]

Passend dazu ein Interview mit Hans von Storch in der Zeit 2015 (nur für Abonnenten):

“Mal rumst es mehr …”
Warten auf den Orkan: Was extreme Wetterereignisse mit unserem Klimaalltag zu tun haben, weiß der Meteorologe Hans von Storch

Bemerkenswert auch dieser Artikel aus dem Januar 2015 auf proplanta:

Klimaexperten warnen davor, für Stürme und Überschwemmungen vorschnell den Klimawandel verantwortlich zu machen
«Einzelereignisse kann man nicht mit dem Klimawandel in Verbindung bringen», sagte Florian Imbery, Klimaexperte beim Deutschen Wetterdienst in Offenbach, der Deutschen Presse-Agentur am Montag. Verlässliche Aussagen könne man nur machen, wenn man Intervalle von 30 Jahren miteinander vergleiche. Relativ gut feststellen könne man Änderungen bei der Temperatur. Bei Niederschlägen sei das schon schwieriger, nahezu unmöglich sei es bei Stürmen. Der Unterschied: «Temperatur ist eine stabilere Größe, Niederschlag und Wind sind hoch variabel in Raum und Zeit.» Relativ klar ist für Imbery, dass es wärmer wird: «Wir haben öfter Hitzeperioden.» Das sei aber auch die einzige signifikante Veränderung im Klima – bei Regen und Wind gebe es nur «Indizien».

Weiterlesen auf proplanta

Übrigens: Wussten Sie, dass die ausgestoßene Luft beim Husten bis zu 480 km/h schnell ist? Das entspricht etwa der vierfachen Windgeschwindigkeit in einem Orkan (aus: Focus, Januar 2013).

Kommen wir nun zu den Langzeitbetrachtungen. Bierstedt et al. (2016) untersuchten die Veränderlichkeit der täglichen Windgeschwindigkeiten über Nordeuropa für die vergangenen 1000 Jahre in Computersimulationen. Das Ergebnis lässt sich leicht zusammenfassen: Jedes Modell zeigt etwas anderes. So endete die Untersuchung in einem großen Widerspruch und der Erkenntnis, dass die Modelle noch nicht in der Lage sind, Wind und Stürme zu modellieren. Schade. Abstract:

Variabilität der winterlichen Verteilung der Windgeschwindigkeit über Nordeuropa während des vergangenen Jahrtausends in regionalen und globalen Klima-Simulationen

Wir analysieren die Variabilität der Wahrscheinlichkeits-Verteilung der täglichen Windgeschwindigkeit im Winter über Nord- und Mitteleuropa mittels einer Reihe von globalen und regionalen Klimasimulationen, welche die letzten Jahrhunderte erfassen. Die Re-Analyse-Produkte überdecken etwa die letzten 60 Jahre. Der Schwerpunkt der Studie liegt auf der Identifizierung der Verbindung zwischen Variationen der Windgeschwindigkeit und der regionalen Temperatur, zum meridionalen Temperaturgradienten und zur Nordatlantischen Oszillation. Unser Hauptergebnis lautet, dass die Verbindung zwischen der täglichen Verteilung der Windgeschwindigkeit und dem regionalen Klima stark abhängig ist vom Modell. Die globalen Modelle neigen dazu, sich ähnlich zu verhalten, obwohl sie Diskrepanzen zeigen. Die beiden regionalen Modelle neigen zwar ebenfalls dazu, sich ähnlich zu verhalten, doch zeigt sich überraschenderweise, dass die aus jedem Regionalmodell abgeleiteten Ergebnisse stark von den aus dem treibenden Globalmodell abgeleiteten Ergebnissen abweichen. Außerdem fanden wir bei der Betrachtung von Zeitmaßstäben über mehrere Jahrhunderte in zwei globalen Simulationen eine langfristige Tendenz, dass sich die Wahrscheinlichkeits-Verteilung der täglichen Windgeschwindigkeit erweitert. Der Grund für diese Erweiterung ist wahrscheinlich Auswirkungen der Entwaldung zuzuschreiben, welche in diesen Simulationen beschrieben wird. Wir folgern, dass es keine klare systematische Relation gibt zwischen der mittleren Temperatur, dem Temperaturgradienten und/oder der Nordatlantischen Oszillation, wobei die tägliche Windgeschwindigkeit von diesen Simulationen abgeleitet werden kann. Das Verständnis von Änderungen der Windgeschwindigkeit in Vergangenheit und Zukunft und folglich der Extreme der Windgeschwindigkeit erfordert eine detaillierte Analyse der Repräsentanz der Wechselwirkung zwischen großräumiger und kleinräumiger Dynamik.

Eine andere Studie von Bett et al. 2017 untersucht den Wind in Europa während der letzten 142 Jahre, offenbar auf Basis von homogenisierten Messdaten. Einen richtig signifikanten Langzeittrend konnten die Forscher nicht finden, dafür aber bedeutende systematische Schwankungen in Jahrzehntbereich, vermutlich im Zusammenhang mit den Ozeanzyklen. Abstract:

Abschätzung der Klima-Variabilität für die europäische Windindustrie mittels einer Re-Analyse des 20. Jahrhunderts

Wir charakterisieren die langzeitliche Variabilität der Windgeschwindigkeit in Europa mittels 142 Jahren mit Daten von der Twentieth Century Reanalysis (20CR) und betrachten das Potential derartig langer Reihen mit Klimadaten, ob sie für die Windindustrie angewendet werden können. Die geringe Auflösung von 20CR würde deren Gebrauch allein stark einschränken für die Begutachtung von Aufstellorten für Windparks. Daher führen wir eine einfache statistische Kalibrierung durch, um es an den höher aufgelösten Datensatz des ERA-Interim anzuschließen, und zwar dergestalt, dass die adjustierten 20CR-Daten an jeder Stelle die gleiche Verteilung der Windgeschwindigkeit aufweisen wie die ERAI-Daten während des gemeinsamen Zeitraumes. Verwendet man diesen korrigierten 20CR-Datensatz, werden Windgeschwindigkeit und Variabilität mit Termen des langzeitlichen Mittels, der Stadardabweichung und korrespondierenden Trends charakterisiert. Viele untersuchte Regionen zeigen extrem schwache Trends im Zeitmaßstab von Jahrhunderten, enthalten jedoch eine große multidekadische Variabilität. Da Re-Analysen wie ERAI oftmals herangezogen werden, um die Hintergrund-Klimatologie an Aufstellorten von Windparks abzuschätzen, die aber nur wenige Daten enthalten, können unsere Ergebnisse als ein Weg angewendet werden, die Klimavariabilität bzgl. Wind in derartige Studien einfließen zu lassen, was die Risiken für die Windparks bzgl. der Investitionen darin reduziert.

Weiter mit einer Studie von Rangel-Buitrago et al. 2016 aus dem Journal of Coastal Research. Die Autoren untersuchten die Wellen- und Sturm-Daten einer Boje vor der Küste von Süd-Wales. Gegen Ende des 20. Jahrhunderts verzeichneten sie noch eine hohe Sturmaktvität, die dann jedoch Anfang des 21. Jahrhunderts abnahm. Die Forscher konnten deutliche Zusammenhänge mit den Ozeanzyklen ausmachen, insbesondere der Arktischen Oszillation und der Nordatlantischen Oszillation. Abstract:

Klima der Wellen, Sturmhäufigkeit und Einflüsse und Fernwirkungen durch Einflüsse der Verhältnisse auf der Nordhemisphäre: Der Äußere Bristol Channel, Südwales, UK

Diese Studie untersucht potentielle Auswirkungen des Klimawandels auf [das Wetter am] Äußeren Bristol Channel (Wales, UK) mittels einer Analyse des 15 Jahre umfassenden Wellenbojen-Datensatzes (1998 bis 2013), um das Wellenklima und Stürme zu charakterisieren. Die Forschungen ergaben, dass die zunehmende Sturmhäufigkeit, zu welcher es in der zweiten Hälfte des vorigen Jahrhunderts gekommen war, sich in den ersten Jahrzehnten des 21. Jahrhunderts entgegen den Erwartungen nicht fortgesetzt hat. Allerdings zeigte das Wellenklima eine klare zyklische Variation der monatlichen mittleren Wellenhöhe (Hs) mit niedrigen Werten zwischen Mai und August (Hs < 1.4 m, Hsmax < 6 m) und einem Minimum im August (Hs = 1.3 m, Hsmax = 5.2 m). Die monatliche mittlere Wellenenergie betrug 27,4 kw/m mit einem Maximum von 951 kw/m im Dezember. Die 267 Sturm-Ereignisse wurden während des Abschätzungs-Zeitraumes aufgezeichnet. Die Schwere der Stürme zeigte einen logarithmischen Trend, wobei schwache und mäßige Ereignisse 73% der Aufzeichnung ausmachen (jeweils 125 bzw. 69 Ereignisse). Bedeutende (18%), schwere (4%) und extreme (6%) Stürme, insgesamt 73 Ereignisse mit mehr Zerstörungen, machen den Rest der Aufzeichnung aus. 55 Prozent der monatlichen gemittelten Wellen-Variationen, deren Energie sowie Sturm-Indizes sind verbunden mit vielen Fernwirkungen, von denen die Arktische Oszillation mit 23,45%, die Nordatlantische Oszillation mit 20,65% und der Ostatlantik mit 10,9% beteiligt sind. Diese Art der Charakterisierung ist essentiell für Entwicklungen im Bristol Channel, welche das Küstengebiet betreffen, z. B. für das Design der Swansea Bay Tidal Lagoon, welche in der Lage ist, über 542.000 MWh pro Jahr an erneuerbarer Energie zu erzeugen.

Siehe auch den Bericht auf CO2Science.

Schließlich noch nach Krakau, wo Bielec-Bakowska & Piotrowicz 2013 die Sturmgeschichte der letzten 100 Jahre analysierten. Fazit: Es ist kein Trend erkennbar. Abstract:

Langzeitliches Auftreten, Variabilität und Zugbahnen starker Zyklonen in Krakau (Mitteleuropa) im Zeitraum 1900 bis 2010

In diesem Artikel geht es um das langzeitliche und saisonale Auftreten starker Zyklonen in Krakau. Diese Studie analysierte die Häufigkeit des Auftretens eines Luftdrucks unter 995,3 hPa in allen Luftdruckwerten, welche um 12.00 UTC über einen Zeitraum von 110 Jahren (1900/01 bis 2009/10) aufgezeichnet worden waren. Besondere Aufmerksamkeit galt der Zugbahn starker Zyklonen. Hinsichtlich der Häufigkeit des Auftretens starker Zyklonen konnten während des untersuchten Zeitraumes keine ausgeprägten Änderungen gefunden werden. Allgemein war die Häufigkeit im Dezember am höchsten, aber während der letzten Jahre gab es eine Zunahme der Häufigkeit zum Ende des Winters und dem Beginn des Frühlings. Ein ähnliches Fehlen merklicher Änderungen der Anzahl von Tagen mit starken Zyklonen ist auch hinsichtlich spezifischer Zugbahnen zu finden. Es gab eine geringe Zunahme der Häufigkeit von Zyklonen in der Norwegischen See (T1), dem Atlantik (T3), dem Golf von Biskaya (T6) und dem Mittelmeer (T7) nach dem Jahr 1950. Die Studie konnte auch die Theorie bestätigen, der zufolge sich die Zugbahnen von Zyklonen an ihren nordöstlichen Extremitäten [?] verkürzt haben.

Siehe dazu auch den Bericht zu dieser Arbeit auf The Hockeyschtick!

Link: http://www.kaltesonne.de/dwd-fur-die-vergangenheit-gibt-es-keine-belastbaren-auswertungen-zur-veranderung-von-starke-oder-haufigkeit-von-sturmen-uber-deutschland/

Dieser Beitrag war zuerst auf dem Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischen Passagen von Chris Frey EIKE




Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht ?

Vorbereitet ist man dort bereits: [5] PIK Pressemitteilung vom 13.10.2017: Hunderte Millionen Menschen werden innerhalb weniger Jahrzehnte von den Auswirkungen des Klimawandels auf Gesundheit und Migration betroffen sein – beide Bereiche wurden bislang zu wenig im Zusammenhang mit der menschgemachten Erwärmung gesehen.
Und vor allem ist die Leitung des PIK auch guten Mutes, wie Herr Schellnhuber anlässlich der Impacts World Conference und dem zur gleichen Zeit stattfindenden, 25-jährigem PIK-Jubiläum sagte: [5] „ … Es gab viele Tage in meinem Leben, an denen ich dachte, dass alles verloren ist“, sagte Schellnhuber „Aber nach dieser Jubiläumsfeier und den wunderbaren Beiträgen von Freunden und Verbündeten weiß ich, dass wir die Welt retten werden …“

Wer die Suche nach Alarmen im Wettergeschehen verfolgen will, braucht nur bei KLIMARETTER.INFO hineinzusehen, wo aktuell gezeigt wird, wie man es macht, „ … ein „Gefühl der Dringlichkeit“ schaffen zu wollen … „, indem wie so oft, zum Beispiel fabulöse Erzählungen „betroffener“ Staaten als Belege präsentiert werden.

Sollte bis zu deren Zusammentreffen beim Klimagipfel in Bonn die Partei mit dem Anspruch von Frau Göring-Eckhardt: … eine Regierung mit Grün sei notwendig für „die Menschheit und den Planeten“,
das Umweltministerium „besetzen“, wird im November in Bonn jeder Staat, dessen Repräsentant*in das Wort „Klimawandel“ oder „vulnerabel“ aussprechen oder zu Protokoll bringen kann, Gehör und Geld von uns finden. Im Grunde nicht weiter schlimm, denn unter Frau Hendricks war es bisher auch nicht anders.

Alarmmeldungen, um abzulenken

Zurück zum eigentlichen Thema. Dieses Jahr 2017 war bisher im Witterungsverhalten bei uns recht unspektakulär. Allerdings – das eine oder andere etwas nicht ganz alltägliche Ereignis wie Sturm XAVIER zeigte, wie verrottet und daher anfällig Deutschlands Infrastruktur bereits ist [4] – weshalb zum Beispiel die Bahn bei diesem Sturm vorsichtshalber sehr weitflächig auch gar nicht davon betroffene Strecken „sperrte“ [3]. Da Kommunikation zum Kunden der Bahn weiterhin ein Gräuel ist, wurde dies den betroffenen Reisenden nicht, beziehungsweise erst lange Zeit danach mitgeteilt [2].

Das Jahr 2016 mit einer relativ hohen Jahresmittel-Temperatur in Deutschland wurde von einem Vertreter des DWD jedoch dreist dazu verwendet einen „Klimawandel-Rekord“ zu erzeugen [6] – weil er sicher sein konnte, in unseren Medien keinen Kritiker fürchten zu müssen und fachliche Reputation in diesem Umfeld nebensächlich geworden ist.

Die Deutschlandtemperatur im Vergleich zum Rest der Welt

Wer erinnert sich zum Beispiel noch an die folgende Schreckensmeldungen vom letzten Jahr?
wetter.de 09. März 2016: Klimawandel:
Deutschland erwärmt sich schneller als der Rest der Welt
Deutschland ist von der Erderwärmung voll betroffen. Die Temperaturen steigen bei uns schneller als im globalen Durchschnitt. Das geht aus Daten hervor, die der Deutsche Wetterdienst (DWD) in Berlin vorstellte.
Seit 1881 hat sich Deutschland demnach um 1,4 Grad erwärmt, International habe der Wert seitdem bei etwas unter einem Grad gelegen, wie DWD-Experte Thomas Deutschländer erklärte … Die Mitteltemperatur der vergangenen 25 Jahre lag demnach hierzulande mit 9,2 Grad genau 1 Grad über dem Wert der internationalen Referenzperiode von 1961 bis 1990. 2015 hatte es mit 40,3 Grad in Kitzingen auch einen neuen Hitzerekord für Deutschland gegeben.
„Das ist erlebter Klimawandel“, so Deutschländer. Dem Meteorologen zufolge waren 23 dieser 25 Jahre zu warm. Dazu beigetragen habe auch das vergangene Jahr – es war zusammen mit 2000 und 2007 das zweitwärmste seit Beginn der Messreihe.

Demgegenüber: Das kommt heraus, wenn man nicht den (bewussten) Fehler des DWD – (Medien-) Experten macht

Als „den Rest der Welt“ darf man sicher den ganzen Globus betrachten. Dafür zuständig ist eine der offiziellen Temperaturreihen, zum Beispiel die der Nasa, GISS, Reihe „Land + Ocean“.
Nun ist es für jeden naturwissenschaftlich Interessierten wohl einleuchtend, dass in einem relativ kleinen Klima- und Wetter-Areal wie Deutschland ein Witterungs-Element wie die Temperatur von Jahr zu Jahr eine deutlich größere Variabilität und Streuung um den Mittelwert aufweist als der globale Mittelwert des gesamten Globus. Niemals würde ein seriöser Fachmann deshalb die Spanne der Absoluttemperatur Deutschlands mit der des gesamten Globus direkt vergleichen, sondern er würde zur Trendbetrachtung die Verhältnisse selbstverständlich erst relativieren.
Führt man dies durch, dann zeigen sich seit 1881 (Beginn der GISS Datenreihe und „angeblich anthropogener Klimawandelbeginn“) die in den folgenden Grafiken gezeigten Verläufe. Ein Hinweis: Die Spanne der Deutschlandtemperaturen wurde zur GISS-Datenreihe intuitiv relativiert. Bereits dies reicht aus, um eindeutige, relative Verlaufsbilder zu gewinnen.

Ganz einfach lässt sich so feststellen, dass Deutschland seit ca. 1881 im Vergleich bei Weitem nicht so warm wurde, wie der gesamte Globus. Alleine damit wäre jeder (nur nicht die Redakteure unserer Medien) schon in der Lage, dem Experten des DWD die richtige Rückantwort zu seiner falschen Aussage zu geben.

Bild 1 GISS Globaltemperatur 1880 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (rot) übereinander gelegt (mit Anpassung an den Anfangs- bis Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt

Nimmt man die Werte seit dem Jahr 1990, zeigt es sich ebenfalls (Bild 2 und vor allem Bild 3). Auch die letzten Jahrzehnte „hinkt“ die Temperatur Deutschlands der Welt-Globaltemperatur deutlich hinterher. Da beide Temperaturverläufe in diesem Zeitraum schlecht korrelieren, kann man den Startwert unterschiedlich anlegen (Bereiche gestrichelt eingerahmt), am Ergebnis ändert es nichts.

Bild 2 GISS Globaltemperatur 1990 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (braun) übereinander gelegt (mit Anpassung an den Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt

Bild 3 GISS Globaltemperatur 1990 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (braun) übereinander gelegt (Anpassung an den Beginn des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt

Fazit
Der Autor bezweifelt anhand seiner hier dargestellten Auswertung, dass sich Deutschland schneller als der Rest der Welt erwärmt. Die Aussage des DWD-Meteorologen hält er schlichtweg für falsch.
Das kann passieren, den Meteorologen wissen anscheinend über das Klima nicht bescheid, wie es Herr Kachelmann als Meteorologe kürzlich erst in einer Talkshow freimütig berichtete [8]. Nur: Warum macht dann jemand, der anscheinend wenig Ahnung zum Thema hat, sich um sie zu bekommen aber auch nicht die kleine Mühe macht, die Daten zu vergleichen, Aussagen dazu?

DWD und Harald Lesch, im Klima-Alarmismus vereint

Die GISS Jahreswerte werden von Klimaalarmisten gerne gezeigt, um die „Überhitzung“ der Welt zu demonstrieren. Prof. H. Lesch, welcher gerne über den Klima-Weltuntergang referiert [9][10][11, machte es zum Beispiel in einem seiner vielen Videos, wie dem, worin er (angeblich) die kritischen AfD-Angaben zum AGW-Klimawandel „zerpflückt“ [7].
Man betrachte im Bild 4 den roten Punkt der globalen Maximaltemperatur. Süffisant und in seinem gewohnten, überheblichem Duktus, „beweist“ er damit die bereits erfolgte Überhitzung, welche wohl so weiter gehen soll.

Bild 4 [7] Moderator zerpflückt AfD-Programm und bekommt Hassmails. Videoscreenshot YouTube Harald Lesch Terra X Lesch & Co
Nun sieht genau dieser Verlauf mit den bei Nasa Giss dazu ebenfalls hinterlegten Monatswerten gezeichnet, inzwischen wie in der folgenden Grafik (Bild 5) aus – ein eklatantes Beispiel, wie man kurzfristige Effekte – hier den des zyklischen, diesmal besonders großen El Nino-Ereignisses -, zum richtigen Zeitpunkt für Klimaalarm nutzen kann.

Bild 5 NASA GISS Daten von Bild 4 in Monatsauflösung, Stand 9.2017. Grafik vom Autor anhand des Datensatzes erstellt.

Nur in der Hitzespitze liegt Deutschland (auch nur vielleicht) zeitlich vorn

Nachdem es im Artikel von wetter.de mit erwähnt wurde: [6] … 2015 hatte es mit 40,3 Grad in Kitzingen auch einen neuen Hitzerekord für Deutschland gegeben
Auch dazu eine Wiederholung. Dieser „deutsche Rekord“ bedeutet, dass seit der vorherigen Temperaturspitze im Jahr 1983 bis zur aktuellen im Jahr 2015, also nach 32 Jahren, die maximale, an einer DWD-Station gemessene Temperatur um 0,1 °C gestiegen sein könnte. Der Süddeutschen Zeitung war dieser lange Zeitraum für eine derart geringe Temperaturerhöhung damals so peinlich, dass sie in ihrer Meldung anstelle dem Jahr 1983 das Jahr 2003 angab [1].

Dabei handelt es sich bei dieser Differenztemperatur-Messung nicht um die gleiche Station, bei der man eine Mess-Ähnlichkeit vermuten dürfte, sondern um zwei weit voneinander entfernte. Nachdem eine moderne, automatische DWD-Messstelle bei guter Eichung eine Genauigkeit von +-0,2 Grad aufweist, ist zwischen zwei solchen Stationen eine Differenz von 0,1 Grad (richtiger: Kelvin) definitiv nicht messbar. Anzeigbar natürlich schon, aber messtechnisch niemals signifikant zu unterscheiden.
Das weiß sicher auch der DWD. Aber wie beim ersten Beispiel „Deutschlandtemperatur im Vergleich zum Rest der Welt“ bereits gezeigt, achtet dieser Dienst darauf, aus dem Wetter Ergebnisse abzuleiten, welche die Politik „erwartet“.
Dazu ist auch noch die „Genauigkeit“ gerade der Station der letzten Maximalwertmessung unsicher, denn der Standort Kitzingen ist (wie so viele andere Standorte auch) nicht wärmeinselfrei. Ein ausgewiesener Klimaforscher der Uni Würzburg plauderte es einer Lokalzeitung gegenüber aus:
Mainpost 07. September 2016, Prof. Paeth (Klimaforscher), Uni Würzburg: [12] … Schließlich, sagt Paeth, gebe es noch einen Spezialeffekt. „Wir haben in Deutschland häufig Westwindlagen“ – auch in Kitzingen komme die kühlende Frischluft hauptsächlich von Westen. Genau im Westen der Stadt habe aber seinerzeit die Wehrmacht eine große Kaserne errichtet. 61 Jahre lang war das Gelände dann amerikanische Garnison, heute ist es ein Gewerbepark. Ein Hindernis für die Luftzufuhr blieb es. Die Stadt habe sich ihre Frischluftschneise zugebaut, konstatiert Paeth. „Für die Hitze könnte das eine Erklärung sein.“

Doch selbst, falls alles richtig wäre, was der DWD über die deutsche Maximaltemperatur berichtet, hätte sich damit
die Welt bezüglich der (von seit längerer Zeit installierten Wetterstationen) gemeldeten Spitzentemperaturen kaum verändert:
– Seit 103 Jahren ist es global nicht mehr heißer geworden
– Seit 74 Jahren hat sich an der globalen Grenztemperatur überhaupt nichts verändert
– In den letzten 32 Jahren ist es in Deutschland nicht heißer geworden (alternativ um nicht messbare +0,1 °C)
– würde man die „verworfenen“, älteren Messungen mit einbeziehen, wären die Spitzentemperaturen früher weit wärmer gewesen als aktuell.
Mehr Details dazu lassen sich im folgenden Artikel nachlesen:
EIKE 30.07.2016: Weltweiter Temperaturrekord gemessen?

Der „Extremwerte-Wettbewerb“ ist gnadenlos …

So wie man in Religionen regelmäßig neue Wunder benötigt, um „im Geschäft“ zu bleiben und unter der Konkurrenz zu bestehen, benötigt der AGW-Klimawandel immer neue Extreme.
Zu welchen Auswüchsen dies nicht nur in Deutschland führt, macht gerade Australien vor. Um höhere Temperaturspitzen zu messen, wurde (und wird) dort nicht nach internationaler Regel gemittelt, sondern fälschlich Kurzzeitwerte verwendet, nachzulesen unter:
WUWT October 19, 2017: In Australia, faulty BoM temperature sensors contribute to “hottest year ever”

… Die Lösungen ebenfalls

Dazu passt eine weitere Meldung, welche zeigt, wie konsequent dort gehandelt wird, wenn die (falsch gemessene Spitzentemperatur) von der Politik „zugelassene“ Werte überschreitet. Ein Vorbild für Deutschland und Beleg, dass diese Industrie jederzeit dem „Klimaschutz“ weichen kann*, da sie selbst für einen Kontinent nicht wirklich erforderlich ist:
dw.com – Freitag, 20. Oktober 2017: Australiens letztes Autowerk macht dicht

*Klarstellung: Die Schließung des letzten, australischen Autowerkes hat in Wirklichkeit mit dem Klima nichts zu tun.

Quellen

[1] EIKE 24.09.2016: Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

[2] Achgut, 06.10.2017: Sturmchaos? Nein, Totalversagen bei der Bahn

[3] Wetterkanal 8. Oktober 2017: Sturm Xavier – wie Medien Menschen auf dem Gewissen haben: Nichtstun tötet

[4] EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[5] PIK Pressemitteilung 13.10.2017: „Wir brauchen Sie“: UN Klima-Chefin zu Potsdamer Klimaforschern

[6] wetter.de 09. März 2016: Klimawandel: Deutschland erwärmt sich schneller als der Rest der Welt
[7] YouTube Harald Lesch Terra X Lesch & Co Moderator zerpflückt AfD-Programm und bekommt Hassmails.

[8] EIKE 20. Oktober 2017: „Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges

[9] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[10] EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!

[11] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

[12] MAINPOST, 07. September 2016: Kitzingen stellt erneut Hitzerekord auf dpa




Vorhersage zukünftiger CO2-Niveaus

Natürlich lautet ein alternativer Standpunkt, dass während der letzten 30 Jahre während eines um 14% gestiegenen CO2-Niveaus die Erde signifikant grüner geworden ist, d. h. unser Planet ist jetzt von mehr Vegetation überzogen als vor 30 Jahren. Ernteerträge haben sich deutlich verbessert, wofür der steigende CO2-Gehalt zumindest teilweise ursächlich ist. Anstatt den Untergang zu prophezeien sollten wir vielleicht davon ausgehen, dass die Welt ein immer besserer Ort zum Leben wird.

Einen Aspekt, der kaum einmal von den Befürwortern einer Kontrolle des CO2-Gehaltes angeführt wird ist, welche Auswirkungen Maßnahmen wie der Übergang zu erneuerbarer Energie wahrscheinlich haben wird. Wird dies überhaupt irgendwelche Auswirkungen auf das CO2-Niveau haben? Gibt es irgendetwas, das wir tun können, um den weiteren Anstieg des CO2 aufzuhalten, falls dies etwas ist, was wir überhaupt tun wollen? Welche CO2-Niveaus sind wahrscheinlich in Zukunft zu erwarten? Dieser Beitrag versucht, einige dieser Fragen zu beantworten.

CO2 und Bevölkerung

Abbildung 1 zeigt das atmosphärische CO2-Niveau als Funktion der Weltbevölkerung im Zeitraum von 1960 bis 2015. Die Angaben zum CO2-Niveau stammen von der NOAA, die Angaben zur Bevölkerung stammen aus Veröffentlichungen der UN Population Division. Man beachte, dass obwohl jeder Datenpunkt ein individuelles Jahr in fortlaufender Folge repräsentiert, die Zeit nicht explizit in dieser Graphik auftaucht, zeigt diese doch lediglich, wie der CO2-Gehalt mit der Gesamt-Weltbevölkerung korreliert ist.

Man erkennt in Abbildung 1, dass CO2 und Bevölkerung im Gleichschritt voranschreiten. (Diese Korrelation wurde zum ersten Mal von Newell and Marcus im Jahre 1987 beschrieben). Es gibt keine Anzeichen irgendeines signifikanten Rückgangs der Rate der CO2-Zunahme vom Beginn bis zum Ende der Kurve. Daraus können wir folgern, dass keine der bisher von den industrialisierten Ländern ergriffene Maßnahme zur Reduktion des CO2-Ausstoßes irgendwelche erkennbaren Auswirkung hat, zumindest nicht bis zum Jahr 2015

Ob nun Bevölkerung CO2 verursacht oder CO2 Bevölkerung steht auf einem anderen Blatt, aber falls wir davon ausgehen, dass sich dieser Gleichschritt in absehbarer Zukunft fortsetzen wird, dann wird mit steigender Bevölkerungszahl auch der CO2-Gehalt steigen. Da die Bevölkerungszunahme ziemlich sicher zu erwarten ist, zumindest kurzfristig, wird das CO2-Niveau vermutlich ebenfalls zunehmen.

Da CO2 und Bevölkerungszahl in Relation zu stehen scheinen, lautet die sich jetzt erhebende Frage, ob die Bevölkerungszahl das CO2-Niveau treibt oder das CO2-Niveau die Bevölkerung.

1. Es gibt keine Verbindung zwischen beidem, Bevölkerung und CO2 sind vollkommen unabhängig voneinander und der offensichtliche Gleichschritt ist lediglich ein Zufall. Möglich, aber unwahrscheinlich. Während es sicher richtig ist, dass Korrelation nicht notwendigerweise Kausalität bedeutet, stimmt aber auch, dass je besser eine Korrelation ist, umso mehr irgendeine Art Kausalität im Spiel ist. Wie unten gezeigt, ist die Korrelation in diesem Fall so gut, dass man die Möglichkeit, es gebe keine kausale Verbindung, getrost ignorieren kann.

2. Bevölkerung treibt CO2. Dies ist die ,offensichtliche‘ Erklärung, welche die meisten Menschen anführen würden. Je mehr Menschen es auf unserem Planeten gibt, umso mehr CO2 erzeugende Aktivitäten wird es geben wie etwa Stromerzeugung, industrielle Aktivitäten, Verkehrswesen, Heizung und so weiter.

3. CO2 treibt Bevölkerung. Zu einem großen Teil dürfte der Bevölkerungszuwachs in absehbarer Zukunft auf die Entwicklung in Afrika südlich der Sahara zurückzuführen sein. Die Bevölkerungszunahme in diesen Gebieten ist zu einem großen Teil abhängig von der Versorgung mit Nahrungsmitteln, und wie wir wissen, macht mehr CO2 in der Luft die Welt zu einem grüneren Ort mit höheren Ernteerträgen. Je höher das Nahrungsangebot, umso mehr Kinder werden das Erwachsenenalter erreichen.

4. Die Verbindung zwischen CO2 und Bevölkerung ergibt sich aus einer Wechselwirkung der Punkte 2 und 3. Je mehr Menschen es gibt, umso mehr CO2 erzeugen sie, und je mehr CO2 es gibt, umso mehr Nahrungsmittel können erzeugt werden, was wiederum dazu führt, dass mehr Kinder erwachsen werden.

5. Sowohl CO2 als auch Bevölkerung werden getrieben von einer dritten, jedoch bislang unbekannten Kraft. Während dies nicht einfach so vom Tisch gewischt werden kann, muss man es doch als eine rein theoretische Möglichkeit ansehen, solange diese unbekannte Kraft nicht erkannt wird.

Nach meiner persönlichen Einschätzung, die ich durch nichts belegen kann, ist Möglichkeit 4 am wahrscheinlichsten. Höhere Bevölkerung erzeugt mehr CO2, und mehr CO2 führt zu höherer Bevölkerung.

Aber wie wird das in Zukunft sein? Können wir guten Gewissens prophezeien, wie der CO2-Gehalt in zehn, zwanzig oder dreißig Jahren aussieht?

Wir können das tun mittels der Einführung einer Trendlinie in Abbildung 1, welche einfach eine zu den Daten passende mathematische Funktion ist. Die Trendlinie kann dann fortgeführt werden, um Vorhersagen bzgl. des zukünftigen CO2-Niveaus zu erstellen auf der Grundlage der zukünftigen Bevölkerungszahl unter der Annahme, dass die Relation zwischen CO2 und Bevölkerung konstant bleibt.

Auswahl der Trendlinie

Man kann leicht zeigen, dass eine Polynom-Funktion am besten zu den Daten passt. Die verbleibende Frage lautet, welche Größenordnung des Polynoms man anwendet (ax³+ bx² + cx + d beispielsweise ist ein Polynom dritter Ordnung). Abbildung 2 zeigt die Daten zu Bevölkerung/CO2 von Abbildung 1 (mit erweiterten Achsen) sowie Trendlinien von Polynomen 2. bis 6. Größenordnung. Alle fünf Trendlinien haben einen R²-Wert nicht unter 0,999, d. h. die Trendlinie korreliert mit den Daten bis auf eine Genauigkeit von mindestens 99,9%.

Vorhersagen der Bevölkerung

Das United Nations Department of Economic and Social Affairs, Population Division, veröffentlicht eine Serie von Vorhersagen der Weltbevölkerung bis zum Jahr 2100. Drei verschiedene Schätzungen werden angeboten – hoch, mittel und niedrig – wie in Abbildung 3 gezeigt. (Die Quelle der Daten ist hier, dann kann man dort das Tabellenblatt mit der Bezeichnung Total Population – Both Sexes herunterladen.

CO2-Vorhersagen

Das zukünftige CO2-Niveau kann mittels der Trendlinie CO2/Bevölkerung aus Abbildung 2 zusammen mit den Vorhersagen bzgl. Bevölkerung aus Abbildung 3 vorhergesagt werden.

Die Trendlinien 5. und 6. Größenordnung in Abbildung 2 wurden zurückgewiesen, weil es keinen nachvollziehbaren physikalischen Mechanismus gibt, wodurch der CO2-Gehalt bei einer Bevölkerung von 8 oder 9 Milliarden steil abfällt.

Der vorhergesagte zukünftige CO2-Gehalt der verbleibenden drei Trendlinien 2., 3. und 4. Größenordnung werden jeweils in den Abbildung 4, 5 und 6* gezeigt. Jede Abbildung zeigt drei separate CO2-Vorhersagen auf der Grundlage der Bevölkerungs-Schätzung hoch-mittel-niedrig in Abbildung 3. Während die UN-Vorhersagen bzgl. Bevölkerung bis zum Jahr 2100 ausgeweitet sind, wird davon ausgegangen, dass es unwahrscheinlich ist, dass CO2-Trendlinien so weit in die Zukunft ein zuverlässiger Anhaltspunkt sind. Darum laufen die CO2-Vorhersagen willkürlich nur bis zum Jahr 2050.

[*Im Original sind nur zwei Abbildungen. Möglicherweise liegt hier ein Versehen des Autors vor. Anm. d. Übers.]

Die Ergebnisse dieser Vorhersagen des CO2-Niveaus im Jahre 2050 zeigt die folgende Tabelle:

Tabelle 1: Vorhergesagtes CO2-Niveau (ppm) im Jahre 2050.

Die gezeigten Ergebnisse weisen eine große Spanne auf, von 439 bis 659 ppm. Allerdings kann diese Spannbreite eingeengt werden. Die Polynom-Trendlinie 4. Ordnung in Abbildung 2 wird als irgendwie verdächtig angesehen, weil anders als in den Trends 2. und 3. Größenordnung die Rate der CO2-Zunahme jenseits der historischen Daten signifikant größer ist als die der historischen Daten selbst. Zwar ist dies nicht unmöglich, doch würde dadurch eine Änderung der CO2/Bevölkerung-Relation eingeführt, für welche es derzeit keinerlei Rechtfertigung gibt. Als Konsequenz wird die Trendlinie 4. Ordnung provisorisch ignoriert. Falls man danach annimmt, dass die UN-Schätzung ,mittel‘ bzgl. der Bevölkerungszahl am wahrscheinlichsten ist, verengt sich die Spanne des CO2-Gehaltes im Jahre 2050 auf 471 bis 487 ppm innerhalb einer Gesamt-Wahrscheinlichkeits-Spannbreite von 439 bis 540 ppm.

Diese Ergebnisse sind abhängig von zwei fundamentalen Hypothesen:

1. Es gibt eine kausale Relation zwischen CO2 und Weltbevölkerung, welche durch eine der oben besprochenen Trendlinien repräsentiert wird, und diese Relation wird bis mindestens zur Mitte dieses Jahrhunderts fortsetzen.

2. Bemühungen zur CO2-Reduktion werden bis dahin kaum irgendwelche oder gar keine Auswirkungen haben, vermutlich auch noch darüber hinaus nicht.

Die zweite Hypothese ist einer weiteren Überlegung wert. Natürlich wurden in der westlichen Welt signifikante Bemühungen unternommen, um CO2-Emissionen zu reduzieren, doch lässt sich darüber streiten, wie effektiv diese Bemühungen sind oder sein werden. Ein großer Teil der offensichtlichen Reduktion in Europa beispielsweise resultierte aus der Schließung kohlenintensiver Operationen wie Stahl kochen, aber dies hat lediglich dazu geführt, diese Operationen in andere Teile der Welt zu verlagern wie etwa nach China und Indien. Damit hat sich die Kapazität zur Stahlerzeugung in der Welt nicht geändert. Und außerdem: Während die Einführung erneuerbarer Energie in der westlichen Welt Kohlenstoff-Emissionen bis zu einem bestimmten Ausmaß reduziert hat [?], (jedoch in weit geringerem Ausmaß als allgemein erwartet), ist der Verbrauch fossiler Treibstoffe in anderen Teilen der Welt keineswegs rückläufig, sondern nimmt sogar zu.

Zusammenfassung

Die Weltbevölkerung wächst. Während das tatsächliche Ausmaß des Bevölkerungswachstums während der nächsten Jahrzehnte Gegenstand von Diskussionen ist, ist es die Tatsache, dass es ein solches Wachstum geben wird, nicht. Unter der Annahme, dass die Relation CO2/Bevölkerung nach wie vor gilt, dann können wir auf der Grundlage von Schätzungen der UN bzgl. Bevölkerung ein CO2-Gehalt vorhersagen, der bis Mitte dieses Jahrhunderts zwischen 471 und 487 ppm liegen wird, innerhalb einer gesamtmöglichen Bandbreite von 439 bis 540 ppm, unabhängig von allem, was wir wissen. Ob die menschliche Rasse dann in einer Sintflut von Klimawandel-Katastrophen untergeht oder die Welt in ein goldenes Zeitalter unübertroffener Ernteerträge, bleibt abzuwarten.

[Die Meinung des Übersetzers: natürlich Letzteres, wie die Erfahrungen im Mittelalterlichen Klimaoptimum gezeigt haben!]

Link: https://wattsupwiththat.com/2017/10/05/predicting-future-CO2-levels/

Übersetzt von Chris Frey EIKE




Keine Ausgewo­genheit: IPCC-Berichte werden von einer kleinen Clique Wissen­schaftler und Institu­tionen dominiert

Hier lohnt ein Blick auf die Autorenlisten. Wie wird man eigentlich in den illustren Kreis der IPCC-Autoren aufgenommen? In der Planungphase der jeweiligen Berichte kann sich Jedermann über die nationalen IPCC-Verwaltungen bewerben. In der Regel gehen sehr viel mehr Bewerbungen ein, als Autorenplätze zur Verfügung stehen. Die letztendliche Nominierung geschieht dann durch den inneren Zirkel des nationalen IPCC, ein Prozess dem es entscheidend an Transparenz mangelt. Während man offiziell vorgibt, an einer ausgewogenen Zusammensetzung der Autorenschaft interessiert zu sein, schafft es in der Regel kein IPCC-kritischer Wissenschaftler in die Erstellergruppe aufgenommen zu werden. Ein gewichtiger Anteil der Autoren rekrutiert sich aus Klimahardlinern und Aktivisten. Vor einigen Jahren analysierte Donna Laframboise die Autorenlisten und fand eine große Anzahl an Autoren mit WWF und Greenpeace Hintergund. Auch Institute wie das Potsdamer PIK sind eng mit den Aktivisten verflochten, mit fragwürdigen personellen Überschneidungen und Finanzierung.

Am 31. August 2017 erschien im Fachblatt Review of Policy Research eine bemerkenswerte Arbeit, in der sich Hannah Rachel Hughes von der Cardiff University und Matthew Paterson von der University of Manchester mit der Zusammensetzung der Autoren der IPCC-Arbeitsgruppe III beschäftigen. Das Resultat der Analyse ist erschreckend: Offenbar kontrolliert eine kleine Gruppe von Autoren und Institutionen den Inhalt der Berichte. Wie robust sind die Klima-Zusammenfassungen also wirklich, wenn eine kleine Clique das Zepter fest in der Hand hält? Hughes und Paterson sehen hier die inhaltliche Ausgewogenheit in Gefahr und stellen die Glaubwürdigkeit der Organisation in Frage. Sie befürchten eine Politisierung der Klimawissenschaften, wobei die nüchterne und ergebnisoffene Darstellung auf der Strecke bleibt. Hier der Abstract der Arbeit:

Einengung des Bereiches Klima: Die symbolische Macht der Autoren bei der Abschätzung des IPCC bzgl. Abschwächung

Dieser Artikel ist eine kritische Analyse des IPCC als eine Randorganisation, welche die Konzepte von Bourdieu bzgl. Bereich, Habitus und symbolischer Macht verwendet. Der Artikel kombiniert quantitative, Netzwerk- und Übersichts-Daten, um die Autorenschaft des Beitrages der Arbeitsgruppe III zum 5. Zustandsbericht des IPCC (AR 5) zu erkunden. Diese Daten enthüllen die Dominanz einer kleinen Gruppe von Autoren und Institutionen bei der Zusammenstellung der Erkenntnisse, welche im AR 5 dargestellt werden, und er beleuchtet die zentrale Lage des IPCC im Bereich Klimapolitik bei der Gestaltung der Forschungs- und Veröffentlichungs-Strategien der Forscher in diesem Bereich. Als Folge ist die Studie in der Lage, die organisatorischen Straßen zur Vertiefung der Beteiligung und die symbolische Macht der Autoren aus dem globalen Süden in den IPCC-Berichten zur Abschätzung des Klimawandels zu identifizieren. Obgleich empirisch, führen uns die Ergebnisse dieser Studie dazu, das IPCC als Wissensvermittler in Frage zu stellen. Theoretisch zeigt sie, dass vor allem in der internationalen Sphäre bei der Verwendung eines Konzeptes der Randorganisation das Risiko besteht, dass man mächtige Netzwerke wissenschaftlicher Akteure und Institutionen sowie deren breit gefasste Einwirkung bzgl. der Politisierung der Wissenschaft übersieht.

Bereits vor zwei Jahren hatten die Autoren eine ähnliche Kritik in Nature Climate Change publiziert (Corbera et al. 2016, online im September 2015 erschienen). Dabei schauten sie auch auf das Instituts-Hopping und erfassten damit den “Stallgeruch” und institutionelle Denkrichtungen, die sich dann im Laufe der Karriere fortpflanzen. Im Fall der WG3 wird der Prozess von wenigen Forschern aus den USA und Großbritannien dominiert, wie ein Abgleich der Publikationstätigkeit und IPCC-Autorenschaft zeigte. Hier der Abstract:

Kungeleien der Autorenschaft im Bericht der IPCC-Arbeitsgruppe III

Das IPCC hat seinen 5. Zustandsbericht abgeschlossen. Hier erkunden wir die sozialen wissenschaftlichen Netzwerke, welche die Grundlage sind für die Abschätzung der WG III der Abschwächung für den AR 5. Indem wir den institutionellen Weg der Autoren aufzeigen, beleuchten wir die Persistenz und das Ausmaß der Nord-Süd-Ungleichheiten hinsichtlich der Autoren des Reports. Dabei enthüllt sich die Dominanz von Institutionen in den USA und UK als Informationsplattformen für die WG III-Autoren. Untersucht man das Netz der Ko-Autorenschaften zwischen den WG III-Autoren, identifizieren wir die Ungleichheit der Relationen zwischen den Autoren, wobei eine geringe Anzahl von Autoren regelmäßig und bezeichnend an einem epistemischen Einfluss der Gemeinschaft auf die Definition des IPCC bzgl. Abschwächung mitwirkt. Diese Netzwerke der Mitautoren folgen regionalen Verteilungen, wobei Autoren der EU und aus den BRIC-Staaten sowie den USA den Hauptanteil stellen. Aus disziplinarischer Perspektive sind Ökonomen, Ingenieure, Physiker und Naturwissenschaftler unverändert zentral an diesem Prozess beteiligt mit unbedeutenden Anteilen von Gelehrten aus den Humanwissenschaften. Die gemeinsamen begangenen Wege, die durch unsere Analyse aufgedeckt wurden, zeigen, dass der Gedanke einer breiter angelegten geographischen Beteiligung zu einer umfassenderen Darstellung von Standpunkten und kulturellem Verständnis der Abschwächung des Klimawandels nicht so solide ist wie ursprünglich gedacht.

Wir wollen das Thema am Fall des IPCC Special Report zum 1,5-Gradziel beleuchten, der sich momentan in der Begutachtungephase befindet. Die Autorenlisten gibt es auf der IPCC-Webseite. Wir schauen uns die Autorenzusammensetzung des Einführungskapitels “Framing und Context” an. Insgesamt sind 16 Autoren aufgeführt. Mit Verlaub, es ist relativ unwahrscheinlich, dass die gelisteten Forscher aus dem Sudan, den Phillippinen, Botswana und den Solomon Inseln Entscheidendes zum Kapitel beigetragen haben. Bleiben also 12.

Es fallen zwei deutsch klingende Namen auf: Wolfgang Cramer tritt unter französischer Flagge an, assoziiert mit dem Mediterranean Institute for Biodiversity and Ecology (IMBE), CNRS. Außerdem ist Kirsten Zickfeld für Kanada und die Simon Fraser University mit dabei. Schauen wir nun auf den “institutional pathway” der beiden: Cramer war bis 2011 in leitender Funktion am Potsdam Institut für Klimafolgenforschung (PIK) tätig, Zickfeld forschte 2004 ebenfalls am PIK zu ihrer Doktoarbeit. Es ist nicht auszuschließen, dass sich die beiden noch aus PIK-Zeiten kennen. Auf diese Weise behält das oft am alarmistischen Klimarand agierende PIK-Institut auch bei diesem Kapitel die Fäden in der Hand, obwohl der Name „PIK” in der Liste offiziell gar nicht auftaucht. Ein schönes Beispiel, wie eine kleine Gruppe an Institutionen das Geschehen kontrolliert.

Ein weiterer Klima-Hardliner in der Autorenliste des Kapitels ist Andreas Fischlin, dessen alarmistische Argumentation bereits Thema in diesem Blog war (siehe “Attacke von IPCC Leitautor Andreas Fischlin gegen Fred Singer: Ein überfälliger Faktencheck“). Bewusst gemäßigte oder gar skeptische Forscher sucht man in dem Kapitel übrigens vergeblich. Die angebliche Ausgewogenheit der Autorenschaft existiert nicht. In Kapitel 2 des Spezialberichts findet sich unter den Autoren ein aktueller PIK’ler, Elmar Kriegler. Man könnte noch weiter durch die Liste forsten. Interessanterweise sind aber auch Vertreter von ExxonMobil und Saudi Aramco mit dabei, letzterer aus dem Sudan, obwohl doch Saudi Aramco in Saudi Arabien residiert.

Link: http://www.kaltesonne.de/sorge-um-ausgewogenheit-ipcc-berichte-werden-von-einer-kleinen-clique-wissenschaftler-und-institutionen-dominiert/

Dieser Beitrag war zuerst auf dem Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischsprachigen Abschnitte (kursiv) von Chris Frey EIKE




In eigener Sache: Kommentaranmeldung vereinfacht!

Wir haben uns daher entschlossen – zumindest vorüber gehend- auf die einfachste Form der Anmeldung zurückzugehen. – Wie einige Kommentatoren schon bemerkt haben, ist die Anmeldung jetzt sehr simpel.

Wir hoffen, dass der restliche Spamschutz den das plug-in stop spammers bietet, uns vor möglichen Attacken schützt und bitten unsere Leser nun die Kommentarfunktion ausgiebig zu testen.

EIKE Redaktion




Hybride und andere Stromtrassen

Diese Lücke kann nicht allein durch regenerative Energien vor Ort geschlossen werden. Große Windparks entstehen vor allem in Nord- und Ostdeutschland und auf See. Der dort erzeugte Strom muss zum Verbraucher transportiert werden, wobei das bestehende Netz bereits jetzt an seine Grenzen stößt. Insgesamt müssen in den nächsten Jahren allein 7.500 Kilometer im sogenannten Übertragungsnetz optimiert oder neu gebaut werden.

Während früher der Strom vom Kraftwerk über die Übertragungsleitungen und die Verteilernetze zum Verbraucher floss, müssen die Netze heute den Stromtransport auch „im Gegenverkehr“ bewältigen, da der Strom nicht nur „von oben nach unten“ sondern auch ( u. a. wegen der Solarkollektoren) „von unten nach oben“ fließt. Um also Erzeugung und Verbrauch jederzeit aufeinander abzustimmen, muss der Stromtransport „intelligenter“ bzw. „smarter“ werden.

In diesem Blog werden eine Reihe bekannter und weniger bekannter Probleme beim Netzausbau zusammengestellt.

Spannungsebenen

Wechselstrom wird auf unterschiedlichen Spannungsebenen transportiert:

—Zum Bereich der Niederspannung gehören die etwa 230 Volt, die im Haushalt an der Steckdose anliegen. Auf dieser Spannungsebene wird die Stromenergie über kurze Strecken verteilt.

—Die Mittelspannung beginnt bei ca. 1.000 Volt. Sie dient der Verteilung über Strecken von einigen Kilometern bis um die 100 km, vor allem in ländlichen Gebieten.

—Bei Spannungen größer als 60.000 (=60 Kilovolt) spricht man von Hochspannung. Das üblicherweise mit 110 Kilovolt (kV) betriebene Hochspannungsnetz sorgt für die Grobverteilung von Energie in verschiedene Regionen und Ballungszentren sowie Industriestandorte.

—Das Höchstspannungsnetz wird meist mit 380 kV, zum Teil auch mit 220 kV betrieben. Höhere Spannungen sind ebenfalls möglich. Auf dieser Spannungsebene wird die Energie über weite Strecken großräumig übertragen. Daher wird es auch Übertragungsnetz genannt. Große Energieerzeuger (zum Beispiel Kraftwerke und Windparks) sind so mit den Lastzentren verbunden. Über das Höchstspannungsnetz sind auch die Netze angrenzender Länder mit dem deutschen Stromnetz verbunden.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. Man spricht dabei von Hochspannungs-Gleichstrom-Übertragung (HGÜ).


Vernetzte Landschaft

Freileitungen

Weltweit werden, seit den 1920er- Jahren, Freileitungen zur Übertragung von Strom in der Höchstspannungsebene eingesetzt. Sie können hohe Leistungen übertragen, da die Wärme, welche durch den Stromfluss entsteht, leicht an die umgebende Luft abgegeben werden kann. Das kann man sich zunutze machen, indem man im Winter, wenn der Stromverbrauch ohnehin erhöht ist, die Freileitungen auch höher belastet.

Der Strom kann entweder als Wechselstrom oder als Gleichstrom übertragen werden. Bei der Übertragung von Wechselstrom teilt sich die elektrische Leistung auf in Wirkleistung und Blindleistung. Nur die Wirkleistung kann von angeschlossenen Verbrauchern genutzt werden -zum Beispiel um Haushaltsgeräte zu betreiben. Die nicht nutzbare Blindleistung muss vor allem auf längeren Strecken kompensiert werden. Die Wechselstromübertragung ist in Deutschland sehr verbreitet, da sich die Spannung sehr effizient verändern lässt.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. (Siehe oben). Im Gegensatz zum Wechselstrom wird bei der Gleichstrom-Übertragung keine Blindleistung ins Netz gespeist. Bisher wird in Deutschland Gleichstrom besonders bei der Seekabel-Anbindung an andere Länder eingesetzt oder zur Anbindung von Offshore-Windkraftanlagen, also bei der Verwendung von Stromkabeln statt Freileitungen. Künftig soll aber auch im Landesinnern Strom in hohen Spannungsebenen auf längeren Strecken vermehrt als Gleichstrom übertragen werden – allerdings vorrangig als Erdkabel. (Siehe unten).

Wird elektrische Energie über eine Freileitung übertragen, so treten in der Umgebung elektrische und magnetische Felder auf. (Wie übrigens auch bei Haartrocknern, Mikrowellen und Staubsaugern.) Das elektrische Feld ist abhängig von der Spannung und wird in Volt pro Meter angegeben. Das magnetische Feld hängt von der Stromstärke ab; diese magnetische Feldstärke wird in Tesla bzw. Mikrotesla angegeben. Beide Felder nehmen mit zunehmenden Abstand ab. Elektrische Felder lassen sich leicht abschirmen und dringen kaum in den menschlichen Körper ein. Magnetische Felder können nur mit großem Aufwand abgeschirmt werden. Der Bodenabstand der Freileitungen ist so bemessen, dass daraus keinerlei Strahlenschäden entstehen.

Die genauen Kosten für den Ausbau des deutschen Übertragungsnetzes sind derzeit nur schwer zu kalkulieren. Aus den Angaben der Netzbetreiber ergeben sich für die bestätigten Netzentwicklungspläne 2024 Summen von etwa 18 Milliarden Euro für den Netzausbau an Land und etwa 15 Milliarden Euro für denOffshore-Netzausbau. Darin enthalten sind jedoch noch nicht die Mehrkosten für die Erdverkabelung an Land.

Hybrid-Leitungen

Hybridleitungen übertragen sowohl Gleich- als auch Wechselstrom auf einemMastsystem. Die Kombination von Gleich- und Wechselstrom auf Höchstspannungsebene ist in Deutschland noch nicht zum Einsatz gekommen, wird aber weltweit (USA, Kanada) bereits genutzt. Die Bundesnetzagentur hat festgelegt, dass dies beim sog. „Ultranet“, dem Vorhaben 2 im Bundesbedarfsplan, erstmalig der Fall sein soll. Dieser Netzteil wird federführend von Amprion gebaut und transportiert den Strom von Nordrhein-Westfalen nach Philippsburg in Baden-Württemberg. Dafür werden bestehende Wechselstromleitungen umgerüstet. Unter anderem müssen neue Isolatoren für die Leiterseile eingebaut werden.

Der Grund für den Bau von Hybridleitungen ist, dass sie den Strom besondersflexibel übertragen. Gleichstrom eignet sich insbesondere zur Übertragung auf langen Strecken, da die Verluste geringer sind und damit die im Norden erzeugte Energie in den Süden transportiert werden kann. Wechselstrom eignet sich besonders für kürzere Strecken. Indem das bereits bestehende Netz genutzt wird, kann häufig auf den Neubau von Leitungen verzichtet werden. Die eingesetzte Technik ist in Deutschland auf Teststrecken seit Jahren erforscht.

Da im Ultranet bereits eine erhebliche Anzahl von Freileitungen existieren, die zudem großenteils genehmigt sind, hat der Gesetzgeber dort auf dieErdverkabelung verzichtet. Damit reduzieren sich auch die Gesamtkosten für diesen Leitungsteil ganz erheblich.

Erdkabel

In den Anfangsjahren der Energiewende (2011-12) bestand die Absicht, den im Norden Deutschlands erzeugten Strom über fünf Gleichstrom-Freileitungen in den Süden zu transportieren. Wegen der Widerstände der Bevölkerung („Monstertrassen“) wurde dieser Plan weitgehend aufgegeben. Derzeit besteht für die Vorhaben 1, 3, 4 und 5 (also ohne das Vorhaben 2=Ultranet) der sogenannte „Erdkabel-Vorrang“. Das bedeutet, dass diese vier Vorhaben „vorrangig“ als Erdkabel auszuführen sind. Nur in begründeten Ausnahmefällen sind dafür (auf einzelnen Teilstrecken) Freileitungen vorzusehen. Deren Masthöhen – vermutlich um die 70 Meter –  sind zur Zeit noch nicht exakt festgelegt.

Der Einsatz von Erdkabeln in überregionalen Übertragungsnetzen, die große Strommengen über weite Distanzen transportieren, bringt neue technische Herausforderungen. So besteht beispielsweise ein Problem bei der Wärmeleitung. Da das Kabel von Erde umgeben ist, wird die Wärme, die durch die elektrischen Verluste entsteht, nur teilweise abgeführt. das begrenzt den möglichen Stromfluss und damit die über das Kabel übertragbare Leistung.

Die unterirdische Trasse führt auch zu einem großen Aufwand bei notwendigen Reparaturen, denn dabei müssen erst Bagger die Kabel freilegen. Dies wirkt sich  auf die Reparaturdauer und damit auf die Versorgungssicherheit aus. Weiterhin fehlen ausreichende Untersuchungen über die Erwärmung des Bodens und deren Folgen auf die Umwelt.

Im Jahr 2014/15 wurde ein Pilotprojekt zur Erdverkabelung in der Gemeinde Raesfeld im Westmünsterland durchgeführt. Auf 3,5 Kilometer Länge testete der Übertragungsnetzbetreiber Amprion erstmals den Bau einer 380 kV-Hochspannungsleitung in Wechselstromtechnik. Das Unternehmen hat dafür etwa 40 Millionen Euro aufgewendet – sechs Mal soviel, wie eine vergleichbare Freileitung gekostet hätte.

Erdkabel benötigen beim Bau viel Raum. Allein die typische Kabeltrommel für 1000 Meter Kabel hat einen Durchmesser von 4,6 Meter und wiegt 55 Tonnen. Nicht jede Brücke oder Unterführung ist dafür ausgelegt. Die diversen Fahrzeuge und Bagger erfordern im Baubetrieb viel Platz. Zum Schluss darf – zur Enttäuschung der Grundbesitzer – weder die eigentliche Kabeltrasse noch der parallele Baustreifen mit Bäumen oder tief wurzelnden Gräsern bepflanzt werden.

Konverterstationen

Elektrische Energie wird in Kraftwerken überwiegend als Wechselstrom erzeugt. Daher fließt in den deutschen und europäischen Stromnetzen überwiegend Wechselstrom. Im Rahmen des Netzausbaus soll jetzt in Deutschland auch für lange Strecken die effektivere Gleichstromtechnik verwendet und somit ins vorhandene Wechselstromnetz integriert werden. Um Gleichstromleitungen mit dem Wechselstromnetz zu verbinden, sind an den Endpunkten Konverteranlagenerforderlich. Ein Konverter wandelt Wechselstrom in Gleichstrom um und umgekehrt.

Eine Konverteranlage besteht im Wesentlichen aus vier Funktionsblöcken: dem Wechselstrom-Anschluss, den Transformatoren, dem Umrichter und schließlich der Gleichstrom-Schaltanlage mit den Gleichstrom-Anschlüssen. Im Umrichter, dem Kernstück der Anlage, findet die Umwandlung des Stroms statt. Der Umrichter besteht aus Transistoren, Dioden ,Kondensatoren und Spulen. Da diese Bauteile sehr empfindlich sind, müssen sie in Hallen untergebracht werden. Weil sie zudem unter Hochspannung stehen, müssen mehrere Meter Abstand zum Boden und zu den Wänden eingehalten werden.

Die Fläche, welche für einen Konverter benötigt wird, hängt wesentlich von der Übertragungsleistung der vorhandenen Leitung ab. Für Gleichstrom-Vorhaben geht man bei einer Übertragungsleistung von 2 Gigawatt von einer Gesamtfläche von 10 Hektar (= 100.000 Quadratmeter) aus. Das eigentliche Kernstück der Anlage, die Konverterhalle, nimmt eine deutlich geringere Fläche ein.

Schlussgedanken

Meines Erachtens war es ein schlimmer Fehler, dass die deutschen Politiker (insbeondere die bayerischen Seehofer/Aigner) so schnell eingeknickt sind und die Erdkabel zur Standardlösung für die Gleichstromübertragung von Nord nach Süd zugelassen haben. Die – nur – 5 Trassen hätten angesichts ihrer lediglich geringfügig höheren Masten das (regional) oft chaotische Wechselstromnetz kaum nennenswert optisch verschlechtert. Stattdessen hätte man auf hundert Jahre Erfahrung im Freileitungsbau zurückgreifen können. Demgegenüber ist die Erdverkabelung auf Höchstspannung in Deutschland praktisch Neuland. Die Grundstückseigentümer, zumeist Landwirte, werden ihre Nachteile bei Reparaturen bald  bedauern.

Der Beitrag wurde vom Blog des Autors übernommen hier