1

Zum Sommerstart: Die vergebliche Suche nach der „Klimaerwärmung“ im Frühsommermonat Juni

Bild rechts: Wegen der Junikälte 2016 zeigten die jungen Triebe vieler Bäume und Büsche eine rötliche Färbung. Bei Kälte ziehen die Pflanzen ihr Blattgrün zurück und stellen die Fotosynthese ein. Vor allem in Süddeutschland war der Juni sehr kalt.

Beginnen wollen wir mit einem langen Zeitabschnitt unserer Junibetrachtungen

Grafik 1: In den letzten 120 Jahren hatte der Monat Juni zwei kühlere Phasen, um 1920 und um 1970 bis 1990. Die Temperatur-Höhepunkte des sinusartigen Temperaturverlaufes lagen vor 1900, um 1945 und kurz nach 2000. Auch wenn die polynomische Trendlinie Beginn und Ende stets verzerrt sowie Ausreißer überbetont, kann sie trotzdem sehr schön den Schwingungsverlauf des Monates Juni über den langen Betrachtungszeitraum herausstellen. Das Polynom zeigt: Es gibt keine kontinuierliche Erwärmung wie eine lineare Trendlinie dies mit y = 0,004 x zeigen würde.

Da die Daten des Deutschen Wetterdienstes nicht wärmeinselbereinigt sind, würde die lineare Trendlinie von WI-bereinigten Daten sogar eine leichte Tendenz zur Abkühlung über die 122 Jahre zeigen.

Schon aus Grafik 1 ist ersichtlich, dass Kohlendioxid auf diesen Temperaturverlauf keine Auswirkung haben kann. Denn seit 1959, dem Beginn der regelmäßigen Messungen auf dem Mouna Loa, steigen die CO2-Konzentrationen der Atmosphäre bis heute stetig an, während der Juni ab 1955 für die nächsten 25 Jahre zunächst kälter wurde. CO2-Anstieg bei gleichzeitig fallenden Temperaturen, dass ergibt keine Erwärmungs-Kausalität.

Grafik 2: Geschätzte Entwicklung der CO2- Konzentration und Juni- Temperaturentwicklung in Zentralengland seit 1930. Während die Kohlendioxid- Konzentration um fast 100 ppm (Teile CO2 pro Million Teile Luft) gestiegen ist, blieben die Juni- Temperaturen in Zentralengland fast unverändert (der geringe Rückgang ist nicht signifikant). Es fehlt seit fast neun Jahrzehnten jeglicher statistischer Zusammenhang zwischen der Entwicklung der CO2- Konzentration und der Lufttemperatur.

Für den Zeitraum ab 1930, zu Beginn des Temperaturhöhepunktes der Jahrhundertmitte, fehlt jeglicher Anstieg. Der Juni Wert 2016 hat sich entlang der Trendlinie seit 1930 eingeordnet.

Wir hatten dazu im Teil 1 die Deutschland- Juni- Werte mit denen des Britischen Wetterdienstes (UKMO, Metoffice) für Zentralengland als Referenz- Region verglichen. Es zeigten sich keine gravierenden Unterschiede. Die CO2-Konzentrationen sind rasant gestiegen, und das hatte keinerlei Einfluss auf die Temperaturen.

Grafik 3: Seit nunmehr 87 Jahren hat sich der Juni in Deutschland nicht mehr erwärmt, trotz ständig steigender CO2-Konzentration der Atmosphäre. (siehe kleines Diagramm) Wärmeinselbereinigt hätten wir sogar eine fallende Trendlinie. Das bedeutet, in der freien Natur Deutschlands wurde es somit kälter. Selbst in den Wärmeinseln Deutschlands, wo vorwiegend die deutschen Messstationen stehen, gab es keine Temperaturänderungen des Monates Juni seit etwa drei Generationen!

Wo ist die Kohlendioxid-Klimaerwärmung beim Juni?

Auch diesmal hat der Deutsche Wetterdienst in seiner Pressemitteilung vom 28.Juni wieder erwähnt, der Monat Juni sei zu warm gewesen. Der Grund dafür ist der völlig veraltete Vergleichszeitraum von 1961 bis 1990. Wie aus Grafik 1 ersichtlich, beinhaltet dieser Vergleichsabschnitt genau die Jahre der letzten Kaltphase. Aus einer Kaltphase heraus ergibt sich immer ein Temperaturanstieg.

Damit bleibt die Frage, wann wurde der letzte Temperaturhöhepunkt und damit der Wendepunkt zur neuen Abkühlung hin erreicht? Die Antwort ist diesmal einfach, denn Grafik 1 beantwortet bereits diese Frage. Im Jahre 2003 war mit 19,4°C der vom Deutschen Wetterdienst gemessene wärmste Juni in Deutschland, aber auch im Jahr davor und 2000 war der Juni sehr warm. Wegen dieser Wärmehöhepunkte verzerrt die polynomische Trendlinie bei Grafik 1 den tatsächlichen Verlauf ziemlich kräftig. Ganz so steil ist der Temperaturrückgang in der Gegenwart natürlich nicht, siehe nächste Grafik.

Nehmen wir als nächste Temperaturbetrachtung den Gegenwartszeitraum, also seit dem Jahr 2000 bis heute.

Grafik 4: Im neuen Jahrtausend, also seit 17 Jahren, zeigt der erste Sommermonat Juni einen noch nicht signifikanten Temperaturrückgang. Der Zeitraum ist bei der großen Streuung der Einzelwerte noch zu kurz, um eine eindeutige Aussage für eine noch dauerhafte Klimaabkühlung für die Zukunft zu machen. Aber: In den letzten 8 Jahren war der Juni kein beständiger Bademonat mehr. Dies gilt vor allem für den Juni 2016 in Süddeutschland, wo nur die letzten sieben Tage dem Anspruch „Sommer“ gerecht wurden.

Ergebnis: Wir haben gezeigt, dass der Temperaturverlauf des Monates Juni über die letzten 120 Jahre in sinusähnlichen Schwingungen verläuft, dafür kann Kohlendioxid nicht verantwortlich sein und:

Der Juni wird in der Gegenwart wieder kälter, trotz weltweit steigender CO2-Konzentrationen. Und auch der Juni 2016 hat die linear fallende Trendlinie bestätigt. Diese Tatsache widerspricht vollkommen der Glaubensirrlehre der steigenden CO2-Erwärmung. Mit aller Vorsicht könnte man die Prognose wagen, dass in 20 bis 25 Jahren der Monat Juni seinen nächsten Kältetiefpunkt erreicht haben wird, im Schnitt nochmals um ein halbes Grad tiefer als momentan.

Im Folgenden soll nun nach den Ursachen dieser Juni-Temperaturentwicklung gesucht werden.

Drei meteorologische Größen beeinflussen das Temperaturverhalten im Juni maßgeblich, die AMO (Atlantische Mehrzehnjährige Oszillation, eine Schwankung der Wassertemperaturen im zentralen Nordatlantik), die Sonnenscheindauer (eine längere Sonnenscheindauer wirkt erwärmend), und die Häufigkeitsverhältnisse der Großwetterlagen. In der nächsten Grafik erkennen wir zwar einen leichten Anstieg der AMO- Werte, aber einen deutlichen Rückgang der Sonnenscheindauer in Potsdam. Auch dort stiegen die Juni- Temperaturen seit 1930 nicht an: Weniger Sonnenstunden, aber gleich bleibende Temperaturen, dieser Widerspruch könnte auch mit dem stetig zunehmenden Wärmeinseleffekt bei den Stationen erklärt werden.

Grafik 5: Stagnierende Juni- Temperaturen in Potsdam (rot, Mitte) bei leicht steigenden AMO- Werten (grün) und zurückgehender Sonnenscheindauer.

Das „wellenartige“ Verhalten der Juni- Temperaturen in Deutschland (siehe auch Grafik 1) wird von der Rhythmik der AMO bestimmt (tendenziell höhere Juni- Werte in Phasen mit höheren AMO- Werten wie vor 1900, nach 1930 bis um 1960 und gegenwärtig):

Grafik 6: Tendenziell höhere Juni- Temperaturen in Deutschland (braun) in Phasen mit höheren Wassertemperaturen im zentralen Nordatlantik (grün).

Auch in Zentralengland zeigen sich diese Zusammenhänge. Hier stellvertretend für die Sonnenscheindauer, welche dort im Juni zurückging:

Grafik 7: In Zentralengland sanken die Junitemperaturen seit 1930 geringfügig. Auch die Sonnenscheindauer nahm dort etwas ab.

Leider wird in Großbritannien die Sonnenscheindauer nur für das ganze Königreich angegeben; wäre das nur für Zentralengland der Fall, sähe der Zusammenhang noch deutlicher aus. Daher schauen wir uns die Potsdam- Werte genauer an. Es zeigt sich ein signifikanter Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen:

Grafik 8: Je höher die Sonnenscheindauer pro Junitag, desto wärmer ist es tendenziell, denn die hoch stehende Sommersonne heizt kräftig.

Die hoch stehende Sonne heizt kräftig ein, das ist besonders auffällig in den betonierten Wärmeinseln, wo dann schnelle große Temperatursprünge registriert werden.

Nun sind noch die Ursachen des leichten Rückgangs der Sonnenscheindauer im Juni zu klären. Die Bewölkung nahm leicht zu, weil auch Westwetterlagen, welche im Juni eher kühl und bewölkt ausfallen, etwas häufiger wurden:

Grafik 9: Leichte Zunahme der Bewölkungsmenge (Gesamtbedeckung in Achteln, blau) in Potsdam im Juni. Außerdem wurden die wolkenreichen Westwetterlagen (Mitte) etwas häufiger. Die Juni- Temperaturen blieben in Potsdam unverändert; die AMO wirkte (bislang) der Abkühlung durch mehr Bewölkung (weniger Sonnenschein) entgegen.

Fazit: Einen Zusammenhang zwischen Juni- Temperaturentwicklung und der steigenden CO2- Konzentration gibt es nicht. Die Juni- Werte stagnieren seit über 85 Jahren; seit Beginn des 21. Jahrhunderts deutet sich eher ein (noch nicht signifikanter) Rückgang an. Atlantik- Wassertemperaturen (AMO), Sonnenscheindauer und Bewölkung sowie die Häufigkeitsverhältnisse der Großwetterlagen beeinflussen hingegen die Juni- Temperaturentwicklung maßgeblich. Da in naher Zukunft ein Übergang zur AMO- Kaltphase zu erwarten ist, könnte eine Phase mit längerer Juni- Abkühlung begonnen haben, obwohl genaue Langfristprognosen natürlich nicht möglich sind.

Teil 1 dieses Beitrags gibt es hier.

Josef Kowatsch, Naturschützer und neutraler Klimawissenschaftler

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Wissenschaftlicher Konsens 2016: Die Klimamodelle taugen nichts

Die Zeit der Debatten ist beendet. Jetzt muss dringend gehandelt werden … In Dantes Inferno erklärt der Schriftsteller die neun Bereiche der Hölle, jede Einzelne reserviert für verschiedene Sorten von Sündern. Die erste Hölle ist denen vorbehalten, die es nicht besser wussten, und die innerste Hölle ist reserviert für die Verräterischsten aller Sünder. Ich frage mich, wo Dante uns alle hinpacken würde, die wir uns gegen diese Erde versündigen im Namen ökonomischen Wachstums, indem wir Umweltschulden anhäufen mittels des Verbrennens fossiler Treibstoffe, deren Folgen unsere Kinder und Enkel ausbaden müssen. Handeln wir jetzt, um die nächsten Generationen vor einem Über-2°C-Inferno zu bewahren!

Offenbar haben McNutts aktivistische Ermahnungen nicht diejenigen Wissenschaftler überzeugt, die in anderen Journalen Studien veröffentlichen, die zeigen, dass die wissenschaftliche Debatte über den Klimawandel alles andere als beendet ist.

Das Jahr ist noch nicht einmal zur Hälfte vergangen, und schon gibt es über 20 veröffentlichte begutachtete Studien, die bestätigen, dass die Klimamodelle sich auf jene stützen, die hinaus posaunen, dass die Debatte beendet ist. Die Studien zeigen, dass a) die Ergebnisse der Modelle nicht mit den Beobachtungen übereinstimmen, b) wichtige, das Klima beeinflussende Faktoren nicht berücksichtigt werden, c) sie keinerlei Vorhersage-Wert aufweisen, d) sie den „Stillstand“ des 21. Jahrhunderts nicht simulieren können, e) sie große Unsicherheiten und Verzerrungen enthalten, die ihre Zuverlässigkeit praktisch aufheben und f), dass sie auf Hypothesen beruhen, die längst widerlegt sind.

Begrenzungen werden gebraucht, um die Entwicklung der Modelle zu steuern und Unsicherheiten bei Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die präindustriellen Beobachtungen, die zur Begrenzung der Sensitivitäten erforderlich sind, nicht verfügbar.

Klimamodellläufe … zeigen keinerlei Vorhersage-Wert bei der Reproduktion langzeitlicher Änderungen der Temperatur und Niederschlagsmengen.

Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die hydroklimatische Variabilität genau modellieren können.

Die Auffassung, dass die Atmosphäre der jungen Erde dicker war, hat sich als falsch erwiesen. … Die Ergebnisse widerlegen die allgemein akzeptierte Auffassung, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren.

Da gibt es dieses Missverhältnis zwischen dem, was die Klimamodelle erzeugen und dem, was die Beobachtungen zeigen … Die Rate der Erwärmung verlangsamte sich gerade zu einem Zeitpunkt, an dem die Treibhausgas-Emissionen dramatisch stiegen.

Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentation von Austrocknung und Wolkenprozessen im Bereich der tropischen Tropopause. Daher verbietet sich ihre Rückkopplung mit dem Klima an der Oberfläche, um eine genaue Projektion globaler und regionaler Klimaänderungen zu erhalten.

Es zeigte sich, dass die wellenartigen Bewegungen der Atmosphäre mit einer Rate vonstatten gehen, die um eine Größenordnung höher ist als zuvor prophezeit worden war.

Vielleicht kann man den Wissenschaftlern, die den Mut haben, über die deutliche Unsicherheit und Unzuverlässigkeit, die in Klimamodellen inhärent sind – oder über die Falschheit der zuvor erstellten Hypothesen über das System Erde–Atmosphäre – ihr fehlendes Verständnis bzgl. „settled Science“ nachsehen. Wie Marcia McNutt erklärt, ist die Debatte schließlich beendet; die Klimamodelle zeigen genau dies; es ist jetzt die Zeit zu handeln.

Glücklicherweise sind diejenigen Wissenschaftler, die „es nicht besser wissen“, in der Lage, in die äußeren Bereiche der Hölle zu entkommen anstatt im innersten Bereich zu verbleiben – wo es offensichtlich viel, viel heißer ist. Dort können wir wohl jene finden, die immer noch nicht zustimmen, dass die Debatte beendet ist und dass Aktivismus jetzt Wissenschaft ist.

Offensichtlich gibt es stichhaltige und sehr substantielle Gründe, warum Viele skeptisch sind.

Übersicht über 21 Studien dieses Jahres 2016

Im Folgenden werden 21 Studien vorgestellt, die bislang in diesem Jahr 2016 (bis Mitte Juni) veröffentlicht worden sind und die nicht den Behauptungen folgen, dass die Modellierung des Klimas „settled Science“ ist oder dass die wissenschaftliche Debatte jetzt beendet ist.

1. Christy and McNider, 2016

Drei Zeitreihen der mittleren täglichen Sommer-Maximumtemperatur (Tmax JJA) wurden für drei innere Regionen von Alabama erstellt, und zwar von Stationen mit verschiedenen Aufzeichnungs-Zeiträumen und unbekannten Inhomogenitäten. Der Zeitrahmen sind die Jahre 1883 bis 2014. … Eine Variation der Parameter bei dem Verfahren der Erstellung erzeugte 333 Zeitreihen mit einem zentralen Trendwert auf der Grundlage der größten Stationengruppe von -0,07°C pro Dekade mit einem Best Estimate der Messungenauigkeit von -0,12°C bis -0,02°C pro Dekade. Dieses Best Estimate unterscheidet sich nur unwesentlich von einer ähnlichen regionalen Berechnung (0,01°C pro Dekade) aus den nClimDiv-Daten der NOAA mit Beginn im Jahre 1895. … Schließlich wurden noch 77 CMIP5- Klimamodellläufe für Alabama untersucht. Sie zeigen keinerlei Fähigkeit, die langfristigen Temperatur- und Niederschlagsänderungen seit 1895 zu reproduzieren“.

2. Fyfe et al., 2016

Es war behauptet worden, dass die Verlangsamung der Erwärmung zu Anfang dieses Jahrhunderts bzw. deren Stillstand, charakterisiert durch eine verringerte Rate der globalen Oberflächen-Erwärmung, übertrieben worden ist; dass dafür die wissenschaftliche Basis fehlt oder er von Beobachtungen nicht gestützt wird. Die hier präsentierten Beweise widersprechen diesen Behauptungen.

(Presseerklärung):

Es gibt da dieses Missverhältnis zwischen den Ergebnissen der Klimamodelle und dem, was die Beobachtungen zeigen“, sagt Leitautor John Fyfe, ein Klimamodellierer am Canadian Centre for Climate Modelling and Analysis in Victoria, British Columbia. „Das können wir nicht ignorieren“. Susan Solomon, Klimatologin am MIT in Cambridge sagt, dass Fyfes grundlegende Arbeit dabei hilft, die Trends des 21. Jahrhunderts in die richtige Perspektive zu stellen. Und sie zeigt eindeutig, dass sich die Erwärmungsrate zu einer Zeit verlangsamt hat, als die Treibhausgas-Emissionen dramatisch zunahmen“.

3. Zhao et al., 2016

Die Autoren zeigen, das Modellschätzungen der Klimasensitivität stark beeinflusst werden können durch die Art und Weise, mit der die Kondensation von Cumulus-Wolken in Niederschlag konvertiert wird bei der Parametrisierung der Modell-Konvektion. Diese Prozesse werden in den Globalen Klimamodellen nur sehr vage berücksichtigt. Im Einzelnen können zwei allgemein angewendete Verfahren der Konvertierung der Kumulus-Kondensation zu Niederschlag z drastisch unterschiedlichen Werten der Klimasensitivität führen, wie hier abgeschätzt mittels eines Atmosphäre-Land-Modells durch gleichmäßig steigende Ozean-Wassertemperaturen und der Untersuchung der Reaktion bei der Energiebilanz an der Obergrenze der Atmosphäre. Der Effekt kann quantifiziert werden durch eine großflächige konvektive Luftentzugs-Effizienz [detrainment efficiency ?]. Diese misst die Fähigkeit der Kumulus-Konvektion, Kondensat pro Einheit Niederschlag zu erzeugen [?]. Die Modellunterschiede, dominiert von kurzwelligen Rückkopplungen stammen aus ausgedehnten Regimes, die von großräumiger Hebung bis zu Gebieten mit Absinken reichen. Angesichts der gegenwärtigen Unsicherheiten bei der Repräsentanz der konvektiven Niederschlags-Mikrophysik und der gegenwärtigen Unfähigkeit, klare Beobachtungs-Hindernisse zu finden, die eine Version des Modells der Autoren gegenüber den anderen Modellen favorisieren, müssen die Implikationen bei der Berechnung der Klimasensitivität berücksichtigt werden, wenn man die Unsicherheit in den Klimaprojektionen abschätzen will“.

4. Ljungqvist et al., 2016

Wir finden einen größeren Prozentsatz von Festlandsgebieten mit relativ nasseren Bedingungen vom 9. bis zum 11. sowie im 20. Jahrhundert, während trockenere Bedingungen verbreitet zwischen dem 12. und dem 19. Jahrhundert herrschten. Unsere Rekonstruktion zeigt, dass deutliche Sägezahn-Verläufe alternierender Feuchte-Regimes, die in den instrumentellen Daten im gesamten Mittelmeer, den westlichen USA und China zu finden sind, immer wieder während der vergangenen 12 Jahrhunderte aufgetreten waren. … Die Intensivierung der mittleren Hydroklima-Anomalien im 20. Jahrhundert in den Simulationen wird im Vergleich zu vorangegangenen Jahrhunderten durch unsere neue Multi-Proxy-Rekonstruktion nicht gestützt. Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die Hydroklima-Variabilität genau modellieren können, und es betont die Wichtigkeit der Verwendung von paläoklimatischen Daten, um jüngste und prophezeite zukünftige Änderungen des Hydroklimas im Zusammenhang von Jahrtausenden zu erstellen.

Presseerklärung:

Einer neuen Studie zufolge gab es auf der Nordhemisphäre deutlich stärkere Variationen der Niederschlagsmenge während der letzten 12 Jahrhunderte als im 20.Jahrhundert. Forscher aus Schweden, Deutschland und der Schweiz haben nachgewiesen, dass Klimamodelle die Zunahme nasser und trockener Extreme überschätzt haben während der Erwärmung während des 20. Jahrhunderts.

5. Ghan et al., 2016

Eine große Vielfalt von Prozessen ist involviert im Ablauf der Emissionen von Gasen und primären Partikeln bis zu Auswirkungen auf den Strahlungsantrieb von Wolken … Allerdings sind wir am meisten an dem Strahlungsantrieb seit der präindustriellen Ära interessiert. Weil aus dieser Ära nur wenige relevante Messungen vorliegen, wurde angenommen, dass Beziehungen aus der jüngeren Variabilität auf Änderungen seit der präindustriellen Zeit bis heute übertragbar seien. …

Angesichts der Diverstität von Relationen werden Begrenzungen [constraints] benötigt, um die Modellentwicklung zu steuern und die Unsicherheit in den Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die zur Begrenzung der Sensitivitäten erforderlichen präindustriellen Beobachtungen nicht verfügbar. … Ein Verfahren könnte Trends aus jüngerer Zeit in den Regionen heranziehen, in denen sich die Emissionen substantiell verändert haben während einer Zeit, aus der zuverlässige Meldungen vorliegen. Zum Beispiel haben Cherian et al. gemessene Trends der solaren Einstrahlung an europäischen Messpunkten herangezogen aus dem Zeitraum 1990 bis 2005, als SO2-Emissionen um das Dreifache abgenommen haben. Damit haben sie globale Schätzungen des Strahlungsantriebs von Aerosolen seit der präindustriellen Ära begrenzt. Obwohl eine solche Analyse hoch informativ ist, kann sie jedoch nicht Verzerrungen in den Modellen beseitigen, die den Trend der Einstrahlung [downward solar radiance] über Europa über- oder unterschätzen. Dies könnte den Fehlern in irgendeinem der Faktoren geschuldet sein, die Änderungen des Strahlungsantriebs von Wolken zeitigen können, ebenso wie die natürliche Variabilität der Wolkenbedeckung. Das Entfernen jener Verzerrungen ist notwendig, falls Klimamodelle für Simulationen zukünftiger Klimaänderungen herangezogen werden. Zusätzliche Daten, die jeden der Faktoren und Komponenten charakterisieren, werden gebraucht. Einige der erforderlichen Daten (Lre, aerosol optical depth) liegen seit 1990 vor, aber zuverlässige Schätzungen von Nd, τ und R liegen aus den Jahren vor 2001 nicht vor.

6. Le et al., 2016

Die geringe Übereinstimmung zwischen den Modellen, die die Auswirkungen solarer Variationen auf SAT in vielen Gebieten simulieren, zeigt die unterschiedlichen dynamischen Reaktionen in diesen Modellen, möglicherweise in Verbindung mit einer ungenauen Parametrisierung der Prozesse, die mit dem solaren Antrieb verknüpft sind. Unsere Analyse zeigt, dass die interne Klimavariabilität eine bedeutendere Rolle spielt als externe Antriebe der kurzfristigen SAT-Variabilität und die Unsicherheiten, zu denen es kommen kann infolge von Auswirkungen interner Klimazustände ohne die El Nino-Southern Oscillsation. Sie unterstreicht die Notwendigkeit eines besseren Verständnisses der dynamischen Reaktion von SAT auf externe Antriebe.

7. McKinley et al., 2016

Die Ozeane haben 41 Prozent allen anthropogen emittierten Kohlenstoffes aufgenommen. Die Magnitude und die großräumige Verteilung der ozeanischen Kohlenstoffsenke wurde während der letzten Jahrzehnte gut quantifiziert. Im Gegensatz dazu sind zeitweilige Änderungen der ozeanischen Kohlenstoffsenke weiterhin kaum verstanden. Es hat sich als schwierig erwiesen, zwischen den Trends eines Kohlenstoff-Flusses aus der Luft in das Meer zu unterscheiden – Trends infolge des anthropogenen Klimawandels bzw. der inneren Klima-Variabilität. Wir wenden hier ein Modellierungs-Verfahren an, dass diese Unterscheidung zulässt und welches enthüllt, wie sich die ozeanische Kohlenstoffsenke den Erwartungen zufolge verändern wird im Laufe dieses Jahrhunderts und in verschiedenen ozeanischen Regionen. Unsere Ergebnisse zeigen, dass – geschuldet der großen inneren Klima-Variabilität – es unwahrscheinlich ist, dass Änderungen der Aufnahmerate anthropogenen Kohlenstoffes gegenwärtig in den meisten ozeanischen Gebieten gemessen werden kann, dass dies jedoch zwischen 2020 und 2050 in einigen Regionen möglich ist“.

8. Hawkins et al., 2016

Nicht reduzierbare Unsicherheiten in Kurzfrist-Klimaprojektionen

Abstract: Diese Ergebnisse zeigen, dass Klimaprojektionen mit viel mehr Ensemble-Mitgliedern durchgeführt werden müssen als derzeit, darunter eine Vielfalt ozeanischer Initial-Bedingungen, falls die Unsicherheit bei kurzfristigen regionalen Klimaprojektionen angemessen quantifiziert werden kann.

Zusammenfassung und Diskussion: Die Gegenwart derzeitiger Unsicherheit bzgl. initialer Bedingungen und nichtlinearer Vorgänge erzeugt bedeutende und nicht reduzierbare Unsicherheiten bei [der Simulation] zukünftiger regionaler Klimaänderungen. Für 20-Jahre-Trends zeigt sich kaum jemals ein Klimawandel-Signal in dem Rauschen der inneren Variabilität. Unsicherheiten in zukünftigen Trends von Temperatur und Niederschlagsmenge reduzieren sich in längerzeitlichen Trends, weil die Unsicherheit bzgl. initialer Bedingungen gleich bleibt“.

9. Hoggard et al., 2016

Unsere Spektralanalyse zeigt bedeutende Diskrepanzen zwischen der gemessenen und der prophezeiten dynamischen Topographie.

Presseerklärung:

Eine Karte mit den Flüssen innerhalb des Erdmantels zeigt, dass sich die Oberfläche ,wie ein Jo-Jo‘ auf- und abwärts bewegt.

Forscher haben den ersten globalen Datensatz der Bewegung des Erdmantels erstellt, also der 3000 km dicken Schicht heißen Silikat-Gesteins zwischen der Erdkruste und dem Erdkern. Sie fanden heraus, diese Bewegung sehr viel anders aussah als von Geologen während der vergangenen 30 Jahre prognostiziert … Es zeigte sich, dass die wellenartigen Bewegungen des Erdmantels mit einer Rate vonstatten gehen, die um eine Größenordnung größer ist als zuvor prophezeit. Die Ergebnisse, vorgestellt in ,Nature Geoscience‘, haben Auswirkungen auf viele Disziplinen einschließlich der ozeanischen Zirkulation und Klimawandel in der Vergangenheit.

10. Som et al., 2016

Unsere Daten zeigen einen überraschend niedrigen atmosphärischen Druck von Patm = 0.23 ±0.23 (2σ) bar, und in Kombination mit früheren Studien ergeben sich ~0,5 bar als obere Grenze von late Archaean Patm. [Atmosphären-Druck zum Ende der Urzeit der Erde?]. Das Ergebnis impliziert, dass die dünne Atmosphäre reich war an zusätzlichen Treibhausgasen und dass Patm (atmosphärischer Druck an der Oberfläche) in geologischen Zeiträumen mit einem bislang unbekannten Ausmaß fluktuiert hat.

Presseerklärung:

Die Atmosphäre der frühen Erde wog weniger als halb so viel wie die heutige Atmosphäre.

Der Gedanke, dass die junge Erde eine dickere Atmosphäre aufgewiesen hatte, stellt sich als falsch heraus. Neue Forschungen an der University of Washington untersuchten Luftbläschen, die in 2,7 Milliarden Jahre altem Felsgestein eingeschlossen waren. Es zeigte sich, dass die Luft zu jener Zeit höchstens einen halb so hohen Druck auf die Oberfläche wie die heutige Atmosphäre ausgeübt hatte. Die Ergebnisse invertieren die allgemein akzeptierte Hypothese, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren. Das Ergebnis hat auch Implikationen hinsichtlich der Frage, welche Gase sich damals in der Atmosphäre befunden hatten und wie Biologie und Klima auf dem frühen Planeten vonstatten gegangen waren. …

Seit Langem haben die Menschen gedacht, dass der atmosphärische Druck seinerzeit höher gewesen sein könnte, weil die Sonne schwächer war“, sagte Leitautor Sanjoy Som. Er forschte im Rahmen seiner Promotion im Fachbereich Erde und Weltraum-Wissenschaften. „Unsere Ergebnisse sind das genaue Gegenteil dessen, was wir erwartet hatten“ …

Wir müssen immer noch mit der Größenordnung hiervon zurecht kommen. Es wird noch eine Weile dauern, bis wir alle möglichen Konsequenzen ausgelotet haben“. Unsere geologischen Beweise zeigen eindeutig flüssiges Wasser zu jener Zeit auf der Erde. Folglich muss die frühe Atmosphäre mehr Wärme einfangende Treibhausgase enthalten haben, also mehr Methan und Kohlendioxid und weniger Stickstoff“.

11. Harrison et al., 2016

Paläoklimatische Untersuchungen haben gezeigt, dass großräumige Änderungen des Klimas, die von Energie- und Wasserbilanz regiert werden, konsistent Reaktionen aufweist bei Änderungen der Antriebe in verschiedenen Klimazuständen. Diese konsistenten Reaktionen werden von Klimamodellen reproduziert. Allerdings sind die hypermodernen Modelle nach wie vor nicht in der Lage, gemessene Änderungen des Klimas im regionalen Scale zuverlässig zu reproduzieren. Während paläoklimatische Analysen der hypermodernen Klimamodelle die dringende Notwendigkeit zeigt, die Modelle zu verbessern, muss auch noch viel Arbeit geleistet werden, um plaäoklimatische Rekonstruktionen zu verbessern und auszuweiten. Sowohl die numerischen als auch die Interpretations-Unsicherheiten müssen quantifiziert und reduziert werden.

12. Lehner et al., 2016

Vergleiche der gemessenen Abkühlung im globalen Maßstab nach Vulkanausbrüchen in jüngerer Zeit mit den Simulationen der CMIP5-Klimamodelle zeigen, dass die Modelle die Magnitude der globalen Temperatur-Reaktion auf vulkanische Eruptionen überschätzen. Hier zeigen wir, dass die Überschätzung erklärt werden kann mit der Auswahl der Beispielfälle, fielen doch alle großen Eruptionen seit 1951 mit El Nino-Ereignissen zusammen. Diese führen zu einer Erwärmung im globalen Maßstab, die der durch die Vulkanausbrüche verursachten Abkühlung entgegen wirken. Bei Teil-Stichproben der CMIP5-Modelle gemäß der beobachteten ENSO-Phase während eines jeden Ausbruchs zeigt sich, dass die simulierte globale Temperatur-Reaktion auf vulkanische Antriebe mit den Beobachtungen konsistent ist. Vulkanausbrüche stellen eine besondere Herausforderung dar für die Verfahrensweise bei der Auffindung und Zuordnung, da deren Auswirkungen auf der Oberfläche kurzlebig sind und folglich von ENSO durcheinander gebracht werden können. Unsere Ergebnisse implizieren, dass Studien bzgl. Auffinden und Zuordnung sorgfältig Verzerrungen berücksichtigen muss, die sich durch die Auswahl der Stichproben infolge der internen Klimavariabilität ergeben.

Einführung: Schätzungen der Relativ-Beiträge durch anthropogene und natürliche Antriebe fließen bei unseren Versuchen ein, kurzlebige und Gleichgewichts-Klimasensitivität zu belegen [attempts to constrain transient and equilibrium climate sensitivity] (Collins et al. 2013). Derartige Versuche werden inhärent kompliziert durch die Tatsache, dass wir nur eine der vielen möglichen Klima-Trajektorien beobachten. Weil die interne Variabilität signifikant zu Trends im Zeitrahmen von Jahrzehnten beiträgt, zumindest zu einem bestimmten Anteil und in verschiedenen Regionen, kann eine aussagekräftige Zuordnung des Klimawandels zu einer Herausforderung werden und empfindlich reagieren auf die besondere Realisierung der Variabilität in den gemessenen Aufzeichnungen (Deser et al. 2012a).

13. Rehfeld and Laepple, 2016

Die Temperaturen in Asien und global werden sehr wahrscheinlich mit Treibhausgas-Emissionen steigen, aber Zukunftsprojektionen hinsichtlich der Niederschlagsmenge sind weit weniger sicher. Hier untersuchen wir die Verbindung zwischen Temperatur und Niederschlag in Asien im Zeitrahmen von Jahren bis Jahrhunderten unter Verwendung von instrumentellen Daten, paläoklimatischen Proxy-Daten am Ende des Holozän sowie Klimamodell-Simulationen. Es zeigt sich dass die Beziehung zwischen Temperatur und Niederschlag in den instrumentellen und den Proxy-Daten abhängig ist vom Zeitrahmen. Während im Zeitrahmen von Jahren bis Jahrzehnten negative Korrelationen dominieren und folglich kühle Sommer dazu tendieren, auch nasse Sommer zu sein, sind Niederschlag und Temperatur im größeren Zeitrahmen positiv korreliert: kühle Jahrhunderte tendieren dazu, im monsunalen Asien trockenere Jahrhunderte zu sein. Im Gegensatz dazu zeigen die analysierten CMIP5-Modellsimulationen eine negative Korrelation zwischen Niederschlag und Temperatur in jedwedem Zeitrahmen. Obwohl hinsichtlich der Interpretation von Proxydaten viele Unsicherheiten bestehen, gibt es eine Konsistenz zwischen ihnen und den instrumentellen Beweisen. Dies zusammen mit der Persistenz dieser Ergebnisse in allen Proxy-Datensätzen zeigt, dass die Modellsimulationen deutlich verzerrt sein könnten, wobei sie die kurzfristigen negativen Verbindungen zwischen regionaler Regenmenge und Temperatur überschätzen. Die langzeitliche positive Beziehung zwischen beiden fehlt völlig.

14. Hand, 2016

Die Modelle zeigen, dass der Klimawandel die AMOC schwächen sollte, da höhere arktische Temperaturen zusammen mit oben treibendem Süßwasser aus der schmelzenden Eiskappe Grönlands die Bildung von tief reichenden Strömungen behindert. Bislang jedoch zeigen begrenzte Messungen im Ozean, dass die AMOC weitaus unberechenbarer ist als die Modelle abzubilden in der Lage waren.

15. Chiodo and Polvani, 2016

Eine genaue Abschätzung der Rolle der solaren Aktivität ist ein Schritt in Richtung einer ordentlichen Quantifizierung des natürlichen und es anthropogenen Klimawandels. Hierfür wurden extensiv Klimamodelle herangezogen, um den solaren Beitrag zur Klimavariabilität zu quantifizieren. Jedoch ist der Großteil der Studien zur Modellierung wegen des hohen Rechenaufwandes bislang ohne interaktive stratosphärische Photochemie durchgeführt worden: Die Auswirkungen dieser Vereinfachung auf die Reaktion des simulierten Klimasystems auf den solaren Antrieb ist nach wie vor zum größten Teil unbekannt. Hier quantifizieren wir diesen Einfluss, indem wir die Reaktion aus zwei Modell-Konfigurationen vergleichen, mit und ohne Ozon-Chemie. Mittels langer Integrationen erhalten wir zunächst sichere Reaktionen der Oberflächentemperatur und der Niederschlagsmenge auf eine idealisierte Zunahme der Strahlung. Dann zeigen wir, dass die Einbeziehung interaktiver stratosphärischer Chemie die Erwärmung an der Oberfläche signifikant reduziert (um etwa ein Drittel) und die damit einher gehende Auswirkung auf die Niederschlagsmenge. Dieses Verhalten ist verbunden mit photochemisch induzierten stratosphärischen Ozon-Änderungen sowie deren Modulation der Solarstrahlung an der Oberfläche. Unsere Ergebnisse zeigen, dass es zu einer deutlichen Überschätzung der Reaktion an der Oberfläche auf Änderungen der Solarstrahlung kommt, wenn man die stratosphärische Photochemie außen vor lässt. Dies hat Auswirkungen auf die Simulationen des Klimas während des vorigen Jahrtausends, bei denen die Modelle oftmals das stratosphärische Ozon nur in sehr vereinfachter Form berücksichtigten, was inkonsistent ist mit dem überlagerten solaren Antrieb.

16. Stier, 2016

Wechselwirkungen zwischen Aerosolen und Wolken werden als eine Schlüssel-Unsicherheit angesehen bzgl. unseres Verständnisses des Klimawandels (Boucher et al. 2013). Kenntnisse über die globale Fülle von Wolken-Kondensationskernen (CCN) sind fundamental, um die Stärke der anthropogenen Klima-Störung zu bestimmen. Direkte Messungen sind begrenzt und umfassen nur einen sehr kleinen Teil des Globus‘, so dass Fernerkundung durch Satelliten und Instrumente am Boden ausgiebig verwendet werden als Proxy für Wolken-Kondensationskerne (Nakajima et al., 2001; Andreae, 2009; Clarke and Kapustin, 2010; Boucher et al., 2013). Allerdings können die zugrunde liegenden Hypothesen nicht gründlich getestet werden mit der geringen Anzahl der verfügbaren Messungen. Daher gibt es keine zuverlässige Schätzung der Wolken-Kondensationskerne. Diese Studie überwindet diese Begrenzung mittels eines in sich widerspruchsfreien [self-consistent] globalen Modells (ECHAM-HAM) der Strahlungseigenschaften von Aerosolen und Kondensationskernen. Eine Analyse der Korrelation der simulierten Strahlungseigenschaften von Aerosolen und Kondensationskernen zeigt, dass allgemeine Hypothesen bzgl. deren Beziehungen in einem signifikanten Teil des Globus‘ verletzt werden: 71% der Erdoberfläche zeigt Korrelations-Koeffizienten zwischen CCN0,2% an der Wolkenuntergrenze und einer optischen Dichte der Aerosole (AOD) unter 0,5, d. h. die AOD-Variabilität erklärt nur 25% der CCN-Varianz. Dies hat bedeutende Implikationen für Studien der Wechselwirkungen zwischen Aerosolen und Wolken auf der Grundlage von Satellitenmessungen. Die Ergebnisse zeigen auch, dass vertikal aufgelöste Fernerkundungs-Verfahren wie etwa hoch spektral aufgelöste Lidars großes Potential haben für die Überwachung der globalen Menge von Wolken-Kondensationskernen.

17. Wegmann et al., 2016

Die Erwärmung der Arktis Anfang des 20. Jahrhunderts (ETCAW) zwischen 1920 und 1940 ist ein außerordentliches Ereignis der Klimavariabilität im vorigen Jahrhundert. Die Erwärmungsrate erreichte erst vor kurzem wieder die Größe der damaligen Rate. Anders als die jüngste Erwärmung, die großenteils dem anthropogenen Strahlungsantrieb zugeordnet werden kann, war die Erwärmung während der ETCAW am stärksten in der mittleren Troposphäre. Sie wurde vermutlich ausgelöst durch einen außerordentlichen Fall von natürlicher Klimavariabilität. Nichtsdestotrotz gibt es immer noch Diskussionen über ultimative Wirkungsweisen und Gründe für ETCAW. Hier verwenden wir hypermoderne globale Zirkulationsmodelle, Reanalysen und Rekonstruktions-Datensätze, um die interne atmosphärische Dynamik von ETCAW zu untersuchen. Wir untersuchen die Rolle des mitteltroposphärischen Wärmetransports im borealen Winter sowie die Zirkulation, welche die Energie für die großräumige Erwärmung liefern. Analysiert man sensible Wärmefluss-Komponenten und regionale Unterschiede zeigt sich, dass Klimamodelle nicht in der Lage sind, die Evolution von Wärmeflüssen zu reproduzieren, die man in der Reanalyse und den Rekonstruktions-Datensätzen gefunden hatte. Diese Datensätze zeigen eine Zunahme stationärer Eddy-Wärmeflüsse [?] und eine Abnahme des flüchtigen Eddy-Wärmeflusses während ETCAW. Außerdem zeigt die troposphärische Zirkulations-Analyse die wichtige Rolle sowohl des Atlantischen als auch des Pazifischen Sektors bei der Konvergenz von aus südlichen Breiten stammenden Luftmassen in der Arktis während des Erwärmungs-Ereignisses. Als Folge davon wird vermutet, dass die innere Dynamik der Atmosphäre eine wichtige Rolle bei der Bildung von ETCAW gespielt hat.

18. Kim et al., 2016

Zirruswolken in der tropischen Tropopause (TTL) und Wasserdampf, der in die Stratosphäre transportiert wird, haben bedeutende Auswirkungen auf den globalen Strahlungshaushalt und die Zirkulation. Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentanz von Dehydrierung und der Wolkenprozesse an der TTL. Folglich verhindert deren Rückkopplung mit dem Klima an der Oberfläche eine genaue Projektion der zukünftigen globalen und regionalen Klimaänderungen. Hier verwenden wir beispiellose Luftmessungen über dem Pazifik, um atmosphärische Wellen aufzufinden als starken Modulierer von Eiskristall-Wolken in der TTL. Es wird gezeigt, dass durch Wellen induzierte kalte und/oder abkühlende Bedingungen einen fast allgegenwärtigen Einfluss auf das Vorkommen von Zirruswolken in Höhen zwischen 14 und 18 km haben, außer unmittelbar nachdem die Luft konvektiv entfeuchtet worden ist. Wir zeigen außerdem, dass verschiedene vertikale Mächtigkeiten von Wolkenschichten mit verschiedenen vertikalen Mächtigkeiten von Wellen assoziiert sind. Dies unterstreicht, wie wichtig es ist, TTL-Wellen in den Modellen zu repräsentieren.

19. Dhomse et al., 2016

Es gibt immer noch große Unsicherheiten in den gegenwärtigen beobachteten und meteorologischen Reanalyse-Datensätzen. Daher ist eine genaue Quantifizierung des Einflusses der Variabilität der solaren Einstrahlung auf das Klimasystem weiterhin eine offene wissenschaftliche Frage.

20. Sterl, 2016

Die große Wärmekapazität der Ozeane im Vergleich zur Atmosphäre stellt ein Gedächtnis im Klimasystem zur Verfügung, welches das Potential für fachkundige [skilful] Klima-Prophezeiungen für einige Jahre im Voraus hat. Allerdings haben Experimente bisher lediglich eine begrenzte Vorhersagbarkeit ergeben, nachdem man das deterministische Antriebs-Signal berücksichtigt hatte, welches von zunehmenden Treibhausgas-Emissionen ausgeht. Eines der Probleme ist die Drift, zu der es kommt, wenn sich das Modell von den Initial-Bedingungen entfernt hin zu seinem eigenen Klima. Diese Drift ist oftmals größer als das vorherzusagende dekadische Signal. In dieser Studie beschreiben wir die Drift im Nordatlantik im Erde-Klima-Modell und stellen sie in Beziehung zum Fehlen dekadischer Vorhersagbarkeit in jener Region. Während diese Drift abhängig von der Auflösung sein kann und in höher aufgelösten Modellen verschwindet, identifizieren wir einen zweiten Grund für die geringe Vorhersagbarkeit. Eine Wärmegehalt-Anomalie unter der Oberfläche kann nur dann die Atmosphäre beeinflussen, falls tiefgreifende Konvektion diese an die Oberfläche bringt, aber das Auftreten von Konvektion ist zufällig und möglicherweise hauptsächlich unvorhersagbarem atmosphärischen Rauschen geschuldet.

21. Rugenstein et al., 2016

Die Ozeane dominieren den planetarischen Wärmehaushalt, und sie brauchen Tausende von Jahren, um mit gestörten Oberflächen-Bedingungen ins Gleichgewicht zu kommen, und jene langen Zeiträume sind kaum verstanden. Hier analysieren wir die ozeanische Reaktion auf eine Bandbreite von Antriebs-Niveaus und Zeitrahmen in einem Klimamodell mittlerer Komplexität und in den CMIP5-Modellen. Wir zeigen, dass im Zeitrahmen von Jahrhunderten bis Jahrtausenden Regionen anomaler Wärmespeicherung und globale thermische Expansion nicht linear vom Antriebs-Level und der Oberflächen-Erwärmung abhängen. Als Konsequenz ist es problematisch, eine langzeitliche Wärmeaufnahme aus einer kurzzeitigen Wärmeaufnahme abzuleiten oder die Verteilung der Wärmeaufnahme zwischen den Szenarien. Diese Ergebnisse stellen auch einfache Methoden in Frage, den langzeitlichen Anstieg des Meeresspiegels abzuschätzen aus Oberflächen-Temperaturen und der Verwendung von Tiefsee-Proxys, um Temperaturänderungen an der Oberfläche während Klimaten der Vergangenheit zu repräsentieren.

Link: http://notrickszone.com/2016/06/20/paging-attorneys-general-2016-scientific-consensus-climate-models-arent-working/#sthash.SI6SIlbQ.dpbs

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: De Übersetzung der einzelnen Studienauszüge war schwierig und inhaltlich teilweise unverständlich. Bitte korrigieren, falls Unstimmigkeiten enthalten sind.




Teil 2 des Faktenchecks Vortrag von Prof. Thomas Stocker Vaduz 10.5.16

Teil 2

Die Pause

Nicht nur EIKE Leser wissen, dass die Erwärmung seit langem, beginnend irgendwo zwischen 1995 bis 1998, eine Pause eingelegt hat. Das wissen auch die Kollegen von Stocker und suchen verzweifelt nach Erklärungen dafür. Hier haben wir die ersten 66 davon zusammengetragen. Nur Stocker sieht die Pause nicht und versucht mit spitzfindigen Hinweisen auf Feinheiten der Trendbestimmung den Eindruck zu erwecken, dass es „die Pause „ gar nicht gibt.

Daher hier ein paar Kostproben seiner Einlassungen dazu:

Min 8:35 … es kommt sehr darauf an, wann sie beginnen die  15 Jahre zu berücksichtigen…Min 9:45 von 1998 bis 2012 kriegen Sie einen Trend von 0,05 pro Jahrzehnt … …Min 10:16 …das sollte genügend Hinweis sein, dass man nicht 15 Jahre nehmen darf um einen Klimatrend festzustellen. Min 10:41 nicht nur 2015 war ein Rekordjahr sondern auch 2014 war schon wärmer als alle Jahre zuvor – Anmerkung des Verfassers Widerspruch zu Minute 08:55   ….und zuvor nicht jedes Jahr ist wärmer, nicht jedes Jahrzehnt ist wärmer ….. Min 10:50– ich sage nicht, dass wir den Klimawandel beweisen mit 2015, das geht nicht….. es geht nicht einmal mit nur 15 Jahren. Wie ich zuvor ausgeführt habe… sie müssen die Trends genau ausrechnen aus genügend langen Zeitreihen (11:07)…

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Nun hat niemand von den Skeptikern behauptet, dass 15 Jahre für sich die Bestimmung eines Klimatrends erlaubten, d.i. eine Beachtung wissenschaftlicher Prinzipien, denen sich die Alarmisten um Stocker und Gefährten allerdings nicht verpflichtet fühlen, denn sie  ordnen ungerührt jeden Starkregen, jede Hitzewelle, jeden Sturm oder Tornado, jede Überschwemmung regelmäßig dem „Klimawandel“ á la IPCC zu. Div. Äußerungen zu den jüngsten Regenfällen und Überschwemmungen (Siehe auch Video des Teams von „Klimamanifest von Heiligenroth) dokumentieren das vielfach.  

Doch hier geht es um die „Pause“, also den Stopp weiterer Erwärmung trotz ständig steigenden CO2 Emissionen.  Und alle offiziellen Datenreihen zeigen sie. Mit einer Ausnahme, das ist die jüngste Datenreihe des Goddard Institute for Space Sciences kurz GISS.

Robert Brown  von der DUKE Universität hat sich deshalb die Zeitreihen daraufhin genau angesehen und  Werner Brozek und Walter Dnes haben sie in Auszügen veröffentlicht[11].

Dort finden wir: Zusammenfassung

For UAH[12]: There is no statistically significant warming since May 1993

For RSS: There is no statistically significant warming since October 1993

For Hadsst3: There is no statistically significant warming since July 1996.

For GISS: The warming is significant for all periods above a year.

Interessant dabei: RSS und UAH greifen auf denselben Datensatz zu, in diesem Fall von Satelliten erfasst, wie auch HadCrut[13] und GISS auf den terrestrisch erhobenen Datensatz

Da die Auswertungen von Hadcrut und GISS stark voneinander abweichen, aber nicht beide gleichzeitig richtig sein können, ist es möglich stundenlag darüber zu streiten welche der beiden richtig ist. Das GISS ist seit längerem  dafür bekannt, seine Datenreihen ständig in Richtung Erwärmung zu „adjustieren“[14]. Daher empfiehlt es sich der Vernunft zu folgen und die Satelliten-Werte von RSS und UAH als Schiedsrichter zu verwenden.

Und damit erkennen wir den Beginn der „Pause“ 

irgendwo zwischen 1993 bis 1996 und dauert bis heute

d.h die „Pause“ dauert nun schon zwischen 20 bis 23 Jahre!

Sie beginnt also deutlich vor der Stocker´schen Angabe von 1998

Rückgang der Gletscher

Stocker fährt fort die Auswirkungen des „Klimawandels“ nach IPCC Regeln in den schwärzesten  Tönen zu malen. Zunächst kommt der Rückgang der Gletscher und „Eiskörper“ dran.


Min 12:04
…der große Aletschgletscher, … der sehr stark zurückgegangen ist …Min  12:08 sicher eine Kombination der natürlichen Klimavariabilität und eine erste Reaktion von Eisköpern und Gletschern auf die Erwärmung

 

Abbildung 8 Folie von Stocker der Rückgänge einiger Alpengletscher seit 1880. Er führt sie auf eine Kombination von „natürlicher Klimavariabilität“ und (menschgemachter) Erwärmung zurück

 

Kleine Eiszeit vs. Aletschgletscher

Mehr bringt Stocker zu diesem Thema nicht, kann er sich doch sicher sein, dass in der Alpenrepublik Schweiz und dem eingelagerte Fürstentum Liechtenstein jede Erwähnung des Rückganges der Gletscher  als große Bedrohung empfunden wird.

Er erwähnt auch mit keinem Wort die „kleine Eiszeit“, also die Zeit vor der jüngsten Klimaphase, die in allen vorhandenen Berichten als sehr schlechte Zeit für Mensch und Tier beschrieben wurde und immerhin um die 500 Jahre dauerte. Auf dieses Manko von mir angesprochen weicht er aus und verweist fälschlich auf seine Aussagen zum Aletschgletscher

Doch die Gletscher-Geschichte hat mit der Erwärmung durch den „Klimawandel“ á la Stockers IPCC und anders als dieser behauptet, nichts Erkennbares zu tun.

Der inzwischen emeritierte Glaziologe  der Universität Innsbruck Prof. em. Gernot Patzelt, kommt daher auf eine ganz andere Erklärung. Seinen intensiven Gletscherforschungen nach, ist die momentane Erwärmung nichts Besonderes. So gab es sehr, sehr häufig in den letzten 10.000 Jahren sowohl wesentlich höhere Temperaturen, aber auch steilere Rückgänge als heute,. In mehr als 66 % der Zeit, lag die Sommertemperatur der Alpen z.T. deutlich über der heutigen.

Abbildung 9 Temperaturverlauf (Sommertemperaturen) der Alpen und in Grönland der letzten 10.000 Jahre. Es ist klar erkennbar, dass mehr als 2/3 der Zeit die Temperaturen deutlich höhere Temperaturen zu beobachten waren als heute. Grafik und Daten Gernot Patzelt. Aus Wald- und Gletscherentwicklung  in den Alpen in den letzten 10.000 Jahren, zur 9.IKEK 11.12 Essen

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat

Extremereignisse

Dann wurde vom Vortragenden vom  allgemeinen „Klimawandel“ ins Besondere übergegangen. Doch auch hier nur Schreckensbotschaften.

O-Ton Stocker Min 15:14 Der Klimawandel manifestiert sich nicht nur in der Temperatur (Bild Meerespiegelanstieg) es sind viele Größen, die sich verändern u.a. der Meeresspiegel (Bild der Msp ist seit 1900 um 19 cm angestiegen)

 Abbildung 10: zeigte   die Stocker Folie „nach verschiedenen unabhängigen Daten“ des Meerespiegelanstiegs von  1900 bis 2012 

Und….Min 15:40 Meereisbedeckung hat sich verändert (Bild Arktis) …und so gibt es viele Messungen …viel Größen im (16:15) Klimasystem  dann folgt (Min 16:17 ohne weitere Erklärung)… aus dem Synthesereport

… sie zeigt die Ursache des Klimawandels

Abbildung 11: zeigt die Ursachen  des Klimawandels  „nach genauen Messungen“ von  1850 bis 2013

…dann folgen Zahlen über den Anstieg.. (Tonstörung) von CO2, CH4 etc. Min 18:10 Bild: Die mensch-verursachten Emissionen sind die höchsten der Geschichte

(Anmerkung erst seit 1956 werden sie hinreichend genau gemessen, davor nur sehr ungenaue Messungen aus Eisbohrkernen)

…Der (globale) Meeresspiegel steigt…

Schauen wir uns zunächst den (globalen) Meeresspiegel an.  Zunächst einmal sollten wir fragen, ob es den denn gibt? Jeder weiß, oder glaubt zu wissen, dass es ihn gibt. Aber gibt es den globalen Meeresspiegel überhaupt? Und was macht die Erwärmung für seinen Anstieg aus? Weiß doch jeder, dass sich Wasser bei Erwärmung ausdehnt.

…durch Erwärmung…

Zunächst sollte man sich die Frage stellen: Kann eine äußerst geringe – und nur um die handelt es sich hier – und auch nur vermutete- Erwärmung der Luft, um 0,8 bis 1,0 C die Riesenwassermenge der Ozeane wirklich so schnell erwärmen? Wer das einfach so glaubt, möge bitte nur ein paar überschlägige Berechnungen mit Wissen aus der frühen Oberstufe vornehmen.

…gerade einmal um 3cm –pro Jahrhundert!

Hierzu ein Beispiel:

Erwärmt[15] sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm. d.h. die wenn sich die gesamte Erwärmung des letzten Jahrhunderts auf das Meerwasser übertragen hätte, wäre das gerade mal um 3 cm, zwar mit großer Verzögerung, aber insgesamt gestiegen. Mehr geht nicht. Doch auch diese Annahme ist unrealistisch denn…

…Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser die Nähe von 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt.

Und was liefern die Gletscher?

Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. es gäbe einen Anstieg um ca. 10 cm in einem Jahrhundert.

Nur, die weitaus größte Eismenge von über 90 % ist in der Antarktis gebunden. Doch die Antarktis denkt nicht daran zu schmelzen, was sie früher, als es dort deutlich wärmer war als heute – besser gesagt : deutlich weniger kalt als heute- auch nicht tat. Wie eine neue Studie herausfand[16] war die Antarktis häufiger in den letzten 8000 Jahren wärmer als heute. Ganz ohne anthropogenes CO2.

Nur in Grönland, das weitere 9 % der Eismasse beherbergt, tauen die Ränder. Die von Stocker als Beispiel gezeigte schmelzende Arktis taugt hingegen nicht dazu, denn es handelt sich um Meereis, dessen Schmelzen keinen Einfluss auf den Meeresspiegel hat.

Und dass das Schmelzen der Alpengletscher oder anderswo einen messbaren Einfluss auf den Meeresspiegel hat, glaubt Stocker sicher selber nicht.

Globaler Meeresspiegel

Und damit sind wir wieder bei der Frage gibt es ihn, oder gibt es ihn nicht. Man braucht ja nur an die Küste fahren, auf endlose Meer blicken, sich an die Schulphysik, mit der Sache von den kommunizierenden Röhren erinnern und schon ist klar, dass es

a) einen globalen Meeresspiegel gibt und

b) dass dieser – glaubt man Stocker und dem Rest des IPCC- steigt durch die globale Erwärmung.

Doch an diesen beiden Aussagen ist fast alles falsch. Es gibt den globalen Meeresspiegel ebenso wenig wie die globale Mitteltemperatur, sondern viele verschiedene Meeresspiegel, die an manchen Standorten[17] an der Küste seit vielen Jahrzehnten eher weniger als mehr genau – per Pegelmessung- gemessen werden. Und alle sind verschieden und verhalten sich auch sehr verschieden. Insgesamt definiert die Forschung ca. 15 Einflussgrößen, welche auf den Meeresspiegel wirken. Die thermische und der Zufluss von Gletscherwasser gehören zu den kleinsten.

Die lokalen Pegelstände werden – zwar nicht vollständig- seit 1933 in der PSMSL Datenbank erfasst und stehen dort der Forschung zu Verfügung Die dort abrufbaren  lokalen Pegelmessungen können allerdings nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen. Das ist mindestens so schwierig wie die Temperaturbestimmung. Manche meinen, es sei noch schwieriger, weil die Datenbasis noch viel dünner ist und es keinen absoluten Bezugspunkt gibt.

Abbildung 12:Anstieg des globalen Meeresspiegels seit dem Ende der Eiszeit. Deutlich zu erkennen, dass dieser seit ca 9.000 Jahren nur noch moderat und seit ca. 6000 Jahren sehr moderat ansteigt. (Weitere Details dazu u.a. hier ) Einen wunderbaren Überblick über den gegenwärtigen Stand der Meerespiegelforschung hatte zuletzt EIKE Autor Kuntz[18] zusammengetragen. Er untersuchte viele Forschungsergebnisse, welche die letzen 10.000 Jahre (Holozän) abdecken

Sein Fazit lässt an Deutlichkeit nicht zu wünschen übrig:

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbar, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezweifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Wer nun richtig liegt, Stocker oder der kritische Ingenieur Kuntz, mag sich der Leser aussuchen. Es bleibt die Frage, wie Stocker und Kollegen auf ihre spektakuläre Aussage vom gefährlich ansteigenden Meeresspiegel kommen? Dies ist nicht recht ersichtlich, dient aber dem Alarmismus.

Fazit:

Die Ausführungen von Stocker sind zwar IPCC konform, in der Sache aber völlig unbestimmbar und daher spekulativ übertrieben. Ihre Zuordnung zur Ursache ist daher rein alarmistisch und durch nichts begründbar

Hitzewellen und Starkniederschläge

Im Vortrag (etwa um Minute 30) und später zu meinem Kommentar (ca. Minute 49:00) äußerte sich Stocker auch zur Zunahme der Extremereignisse, namentlich von „Hitzewellen und Starkniederschlägen,  die als einzige dem Klimawandel zugeordnet werden können“.

Trotz Widerspruchs beharrte Stocker auf dieser Behauptung. Ich bat ihn daher in einer Mail zur Klärung der Fakten diese zu belegen. Diese Klärung erfolgte leider nicht.

Warum?

Weil  40 Jahre Klimawandel à la IPCC diese Erhöhung der Extremwetter bisher nicht erkennen lassen. Im Gegenteil, viele Extrem-Wetterphänomene wurden weniger und manche sogar schwächer. Im den IPCC Bericht zu „Extremereignissen“ zu lesen wir dazu:

Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “No robust trends in annual numbers…“

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends….”

Über außer-tropischeZyklone[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:  “In summary, confidence in large scale changes in the intensity of extreme extra tropical cyclones is low …“

Über Dürren [IPCC 2013, AR5, WGI, Technical Summery,

Seite 50]:”There is low confidence in a global-scale observed trend in drought or dryness …“.[IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present…“

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence …“

Über Hagel und Gewitter (Starkniederschläge)_ [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale ..“

Zusammenfassung des_[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]:

“There is limited evidence of changes in extremes  associated with other climate variables since the mid-20th century.”

Fazit:

Extremwetterzunahmen im jüngeren Klimazeitraum sind von den Wetterdiensten nicht auffindbar.

Zur kleinen Eiszeit bzw. der Rückerwärmung danach

Als ich dann in der Diskussionsrunde erwähnte, dass er die kleine Eiszeit in seinem Vortrag und die (u.E.n. völlig natürliche) Rückerwärmung danach nicht erwähnte, korrigierte Stocker mich und verwies auf Ihre Ausführungen zum Aletsch-Gletscher. Doch auch da erwähnten er die kleine Eiszeit mit keinem Wort – er stellte nur fest, dass der Rückzug des Aletsch „..sicher eine Kombination der natürlichen Klimavariabilität …und der ersten Reaktion von Gletschern und Eiskörpern auf die Erwärmung, die stattgefunden hat…..ist“.

Wieder zeigten er allein Klima-Phänomene, aber lieferte keinerlei Beleg für seine „wirkliche Realität“, (O-Ton Stocker) dass das CO2 ursächlich daran schuld sei. 

Zum Carbon Budget

Mit dem Aufzeigen des sog. Carbonbudget kam Stocker zum eigentlichen Ziel seines Vortrages. Nach den Schrecken des Klimawandels – ausgelöst durch das anthropogene CO2- und umgerechnet auf die seiner Meinung gerade noch zulässige Erzeugung desselben (wenn man das 2 ° Ziel noch halten will), forderte er dann die vollständige  

Dekarbonisierung der Wirtschaft.

Dazu zeigte er eine Folie mit der er das sog.  Carbonbudget einführte. Sie zeigt dessen Veränderung seit Beginn der Industrialisierung (was immer das heißen mag), sowie das, was nach Meinung „der Wissenschaft“ noch zulässig emittierbar wäre.  Ausdrücklich deklarierte Stocker das dort Gezeigte mit viel Nachdruck als „wissenschaftlich“ und damit als unabweisbar und wahr.

Abbildung 13:Bereits verbrauchtes  und noch zulässiges „Budget“ an Kohlenstoff Äquivalent  nach Stocker

Dann berichteten er kurz über die Idee des Budgets an Emissionen -je nach zulässiger Erhöhung um 2°, 3° oder gar 4,7 °- CO2. Doch wie er zu dieser Budget-Berechnung überhaupt gekommen waren (ab Min 32:25), erklärte er – auch auf Mail-Nachfrage- nicht.

Seine Konsequenz ist, dass für das 2° Ziel noch 195 Mio t Cequiv (Anmerkung: Ceqiv ist die Menge an Kohlenstoff C die im CO2 gebunden ist, sowie die aus anderen Treibhausgasen umfguerechnete CO2 Menge, bzw. deren Ceqiv) an Emissionen zur Verfügung stünden, dann wäre das „Budget“ von 790 Mio t Cequiv erreicht. 

Abgesehen von der nicht unwichtigen Frage, warum er dem Publikum den erheblichen Unterschied zwischen Emissionen und atmosphärischer CO­2 Konzentration und die Tatsache, das es einen um knapp zwei Potenzen größeren natürlichen CO2-Kreislauf gibt, nicht einmal im Ansatz zu erklären versuchte, bleibt auch offen, was ihn zu dieser Behauptung gebracht hat.

Ich vermute, dass er sich zur Berechnung des Budget im Wesentlichen der (Equilibrium) Climate Sensitivity (CS oder ECS) bediente. Die gibt an, um wieviel die Temperatur rechnerisch bei Verdopplung der Treibhausgaskonzentration ansteigt. Das Problem mit diesem rein hypothetischer Rechenwert  ist jedoch, dass er als Wert sich -bisher jedenfalls – jeder genauen Bestimmung entzogen hat. Das mussten auch seine Kollegen einsehen, welche die Summary für Policymakers  (SPM) schrieben bzw . redigierten, denn dort steht– wenn auch in einer Fußnote versteckt – auf S.16:

No best estimate for equlibrium climate sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies“.

Doch in seinem Vortrag ignorierte Stocker nicht nur dieses IPCC Eingeständnis, er beschäftigte sich nicht einmal mit dieser wichtigen Frage,  sondern stellte einfach die o.a. Behauptungen in den Raum.

Wir wollten versuchen dem Geheimnis auf die Spur zu kommen und baten Stocker um Aufklärung. Doch die kam nicht. Daher können wir nur vermuten, dass er mit großer Wahrscheinlichkeit den politisch „offiziellen“ IPCC Wert von 3 °C für seine Berechnungen einsetzte. Anders kommen die von ihm genannten Zahlen auch nicht zustande.

Also per THG Verdopplung ergibt sich eine Temperaturerhöhung von 3 °C.  

Thomas Stocker müsste jedoch wissen – und weiß es sicher auch – dass ein ECS mit 3 °C nach heutigem Wissen völlig unhaltbar ist, weil sich gerade in jüngster Zeit die Studien häufen, welche diesen Wert auf unter 1 °C verorten, manche gehen sogar bis auf 0,45 °C ± 30 % und noch weiter herunter.

Wendet man diese Werte an, dann erledigt sich das „Problem Klimaerwärmung“ von selbst. Auch deswegen, weil selbst bei Verwendung des sog. Berner Modells zur Berechnung der CO2 Konzentration aus den Emissionen, (ein Modell, welches erlauben soll, die Zunahme der CO2 Konzentration aus den anthropogenen Emissionen zu bestimmen – an dessen Definition Stocker vielleicht sogar beteiligt war- mit 3 verschiedenen Halbwertzeiten für den „Zerfall“ des CO2 in der Atmosphäre,) die Berechnungen zeigen, dass, selbst wenn man ein exponentielles Wirtschafts-Wachstum für die nächsten acht Jahrzehnte annimmt und man dafür jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würde,  der CO2-Gehalt immer noch nicht doppelt so hoch wäre wie heute.[19]

Auch die 600 ppm Marke, also eine Verdopplung gegenüber dem -auch nur vermuteten- vorindustriellen Wert, würde schwerlich erreicht werden. All diese wichtigen Ergänzungen fehlten leider in Stockers Vortrag.

Und last but not least ließ er auch die – im Gegensatz zur Klimahypothese- eindeutig belegte positive Wirkung des CO2 Anstiegs auf den Pflanzenwuchs und damit auf die Welternährung völlig unberücksichtigt. 

Angeblich fehlende Mitwirkung Skeptiker

Am Ende seiner Ausführungen sagte Stocker die folgenden Sätze

Min 50:45 ..Sie haben 3 x Gelegenheit gehabt unseren Bericht zu begutachten. Drei mal!… wir haben insgesamt 54.677 Kommentare erhalten,  …wir haben auf jeden Kommentar schriftlich reagiert…im Internet verfügbar…Ich hatte eigentlich gehofft als Vorsitzender der Arbeitsgruppe 1, als ich das Amt übernommen hatte..in einer turbulenten Zeit wie Sie sich erinnern können, dass ich sehr viele intelligente Kommentare von Klimaskeptikern kriege, die wir dann Punkt für Punkt adressieren können….leider hat es sich dann herausgestellt, dass niemand von diesen Leuten, die in den Blogs(?) sehr aktiv waren, bei uns beigetragen haben. Tut mir Leid! Wir konnten auf diese Expertise nicht zurückgreifen. (Zwischenruf Limburg) Das stimmt nicht

Und es stimmt auch nicht. Bspw. hat Dr. Vincent Gray aus Neuseeland überschlägig ca. 800 Kommentare eingereicht, ebenso reichten, um nur einige weitere zu nennen, Prof Singer und Lord Monckton viele tlw. umfangreiche Kommentare ein, aber erhielten nie eine Antwort.

Auf meine spätere Nachfrage räumte Stocker dies auch ein, hielt es aber nicht für angebracht sich für seine öffentliche Falschinformation zu entschuldigen. Er  sandte mir aber eine pdf Datei mit allen Kommentaren von V. Gray und deren Behandlung seitens seiner  Arbeitsgruppe. Nach erster Sichtung wurden die allermeisten Kommentare „rejected“.

Ob dies aus objektiven oder subjektiven Gründen geschah, ist für diese Thematik eigentlich jetzt nicht relevant. Denn Tatsache bleibt, dass entgegen seiner klaren Ansage vor dem LIFE Auditorium, die „Klimaskeptiker“ hätten „trotz dreimaliger Gelegenheit“ zu diesen 54.677 Kommentaren nichts dazu mit „ihrer Expertise“ beigetragen, falsch ist. Und, da er es besser wusste, sogar vorsätzlich falsch.  Auch die umfangreichen Kommentare von S.F. Singer und Ch Monckton räumte Stocker nachträglich ein, verwies jedoch nur auf die IPCC Website um sie zu finden. Das ist uns bis heute nicht gelungen.

Fazit:

Ab Min 42:20, wies Stocker auf die so wichtige Glaubwürdigkeit hin

  „Das Grundlegende was wir in dieser komplexen Situation tun können ist unsere Glaubwürdigkeit pflegen…damit die Entscheidungsträger nicht auf irgendwelchen Halbwahrheiten oder Partikular Interessen entscheiden müssen sondern auf den Fakten die die Wissenschaft zur Verfügung stellt.“

Prof. Thomas Stocker hat also seine Aussagen bei klarem Bewusstsein, klarer einfacher Sprache, ohne jeden Zweifel und im Brustton des ehrlichen Wissenschaftlers vorgetragen.

Und er hat damit die Zuhörer überzeugt.

Nach seinen Worten gibt es keinen Zweifel, dass der „Klimawandel“ menschgemacht ist und fürchterlich für diesen Planeten wird, wenn wir nicht durch „Dekarbonisierung“ massiv und unverzüglich  gegensteuern.

Als Ergebnis dieses Gegensteuerns mittels Dekarbonisierung schildert er -wieder ohne jeden Zweifel- als zukünftiges Paradies, mit einer Energieversorgung aus „Erneuerbaren“!

Die Fragwürdigkeit von Stockers Behauptungen und „Beweisen“.

Auf den vorigen vielen Seiten – kürzer ging leider mal wieder nicht, wofür ich mich entschuldige- habe ich versucht die ganze Fragwürdigkeit, der mir am wichtigsten erscheinenden Behauptungen und Beweisführungen Stockers aufzuzeigen.  Nun dürfte das alles auch Stocker gut bekannt sein, aber wenn er trotzdem so berichtet wie er berichtet, dann kommt es ihm allein auf die Wirkung der Botschaft an sich an. Und damit verlässt er die Position des neutralen und ehrlichen Wissenschaftlers – obwohl er sie immer und immer wieder für sich beansprucht- und wird zum Aktivisten mit eigener Agenda. Er wäre in der Riege der bekannten alarmistischen Klimaforscher bei weitem nicht der einzige. Was die Sache nur schlechter und nicht besser macht.

In Würdigung dessen, drängt sich mir deshalb als sachkundigem Chronisten der Verdacht auf, dass Thomas Stocker ein würdiger Schüler des bereits verstorbenen Klimaforschers und (ebenfalls)– Aktivisten Stephen Schneider ist, der, seinerzeit Leitautor des IPCC seine Kollegen eindringlich zu folgendem Verhalten in der Öffentlichkeit ermahnte:  

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

An dramatischen Statements fehlt es in Stockers Vortrag nicht, ebenso erlaubte er sich und dem Publikum keinerlei Zweifel am Gesagten.

Daher bleibt Ihnen liebe Leser überlassen, zu entscheiden, ob Thomas Stocker eher ehrlich oder effektiv war.

Teil 1 finden Sie hier


[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten 

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

 URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden * – Ein Faktencheck

**Anmerkung I: Stocker verwendet den Begriff „Klimawandel“,ohne jede Erklärung, durchgehend als „vom Menschen gemacht“ bedeutend. Natürlicher Klimawandel heißt bei ihm „Klimavariation“.  Im Faktencheck folge ich dem nicht, sondern dem allgemein wissenschaftlichen Sprachgebrauch und unterscheide nur zwischen natürlichem und menschgemachtem Klimawandel.

Prof. Thomas Stocker wirft anderen Kollegen oder  Organisationen, die sich auf diese Kollegen beziehen, gelegentlich schon einmal Unkenntnis oder Verbreitung von Falschinformationen vor, wie z.B. bei seinem jüngsten Vortrag am 10.Mai 2016 in Vaduz oder in einem Interview der Schweizer Sonntagszeitung der SVP vom 12.6.16. In Vaduz behauptete er wenig Richtiges, vieles Zweifelhafte und diverses Falsches, darunter, dass die „Klimaskeptiker“ dem IPCC Team vor Veröffentlichung des letzten Berichtes nichts von ihren Bedenken oder anders lautenden Ergebnissen mitgeteilt hätten, der Diskussion also ausgewichen seien. Bei anderer Gelegenheit warf er der Schweizer Volkspartei (SVP) pauschal vor „wider besseres Wissen Falschinformationen“ zu verbreiten. Sich selbst aber bescheinigt er ..die Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft… zu tragen. Der folgende Faktencheck in zwei Teilen zeigt, wie wenig von Stocker Behauptungen stimmen.

Anmerkung II:

Es empfiehlt sich für den interessierten Leser zunächst einmal das Ton-Video mit allen Folien Stockers in Ruhe anzuhören bzw. –schauen. Und dann erst in den Faktencheck einzusteigen. Zur besseren Unterscheidung sind alle Äußerungen Stockers in Kursiv gesetzt, die Kommentare in Normal

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden[1]

Prof. Dr. Thomas Stocker, Leiter der Abteilung für Klima- und Umweltphysik des Physikalischen Instituts der Universität Bern und bis Ende 2015 vor kurzem Leiter der Arbeitsgruppe I (Die wissenschaftlichen Grundlagen) des IPCC, referierte am 10.5.16 auf Einladung der dortigen LIFE Klimastiftung in Vaduz über den Klimawandel und die Notwendigkeit diesen durch „Dekarbonisierung“ der gesamten Wirtschaft zu stoppen. Im Laufe seines Vortrages (hier) stellte Stocker viele Behauptungen über klimatische und zukünftige Veränderungen auf, sowie über deren Ursachen. Z.B ab Min 5:32 „der Einfluss des Menschen auf das Klimasystem ist klar“

Wie auch in den bisher 5 IPCC Berichten lieferte er jedoch keinerlei Beweise für  seine Behauptung dass

. „der Einfluss des Menschen auf das Klimasystem (ist) klar“ sei…

noch darüber, dass die Treibhausgase (Minute 18:10, siehe auch Abbildung 10) die ihnen unterstellte Wirkung wirklich hätten.

Stocker sprach zwar vielfach – insbesondere am Ende seines Vortrages- von „Evidenzen“ also Beweisen, nannte und lieferte aber merkwürdigerweise keine einzige dieser „Evidenzen“.  Solche Evidenzen wären z:b. begutachtete Fachpublikationen, die es jedoch mit der von Stocker behaupteten  klaren Aussage nicht gibt. Als Kläger oder Staatsanwalt, wäre er vor jedem Gericht damit durchgefallen. Denn jeder auch nur halbwegs fähige Verteidiger, aber auch jeder Richter, hätte seine Argumente als ungenügende Indizien gewertet und den Beschuldigten mindestens mangels Beweisen freigesprochen.

Klimaphänomene statt Beweisen

Stattdessen beschrieb Stocker detailliert verschiedene Klimaphänomene, wie den Anstieg der globalen Mitteltemperatur, den Rückgang von Gletschern (u.a. am Beispiel des Aletschgletschers) den Anstieg des Meeresspiegels, die behauptete Zunahme von Extremereignissen wie Hitzewellen und Starkniederschlägen, und ordnete diese Klimaphänomene ausnahmslos und nur aus Gründen einer nicht mal engen, Korrelation, dem Ausstoß von Treibhausgasen zu.

Folgte man Stocker und -bis auf wenige Ausnahmen- taten dies die etwa 100 Teilnehmer, dann hat es vor dem Beginn  seiner Betrachtung der Klimaphänomene (die meisten seiner Zeitreihen begannen um 1880) keinerlei „Klimawandel“ gegeben, und noch klarer: All die gezeigtenVeränderungen gingen – so Stocker – würden hauptsächlich auf den menschlichen Einfluss zurückgehen. Damit folgte er zwar der klimawissenschaftlich unhaltbaren Definition des United Nations Framework Convention on Climate Change (UNFCC) ohne diese fragwürdige Definitionsübernahme seinem Publikum auch nur im Ansatz zu erläutern. Das breite Publikum versteht aber immer noch und völlig zu Recht unter dem Begriff „Klimawandel“ eben den Wandel des Klimas. Daraus erklärt sich auch der irreführende Vorwurf vieler Klima-Alarmisten an die „Klima-Skeptiker“ diese würden bestreiten dass es einen Klimawandel überhaupt gäbe.

Klimavariabilität vs Klimawandel

Um evtl. späterer Kritik vorzubeugen und ohne den gewollten Eindruck im mindesten abzuschwächen, erwähnte Stocker zwar gelegentlich eine „natürliche Klimavariabilität“ sprach aber zwischendurch konsequent ausschließlich vom Klimawandel. Und ließ keinen Zweifel,

der würde für die Welt riskant sein, weil er fatale Konsequenzen habe

und

und der Mensch sei daran schuld

und

die Rettung sei einzig und allein die völlige Dekarbonisierung der Weltwirtschaft

Damit erwies er sich einmal mehr als treuer Aktivist für die IPCC Doktrin in der genau dieses Mantra (# 1 und # 2, Pariser Accord  2015 für # 3) die politische Vorgabe[2] für die gesamte Arbeit dieses politischen Gremiums ist. Seine Treue zum Auftraggeber darf auch nicht verwundern, denn immerhin arbeitet Stocker schon seit 1998 im IPCC tonangebend mit. Mit neutraler unabhängiger Wissenschaft hat diese rein politische Ausrichtung einer unbewiesenen Ergebnisvorwegnahme jedoch nichts zu tun. sondern ausschließlich mit Aktivismus, also eher mit dem Missbrauch von Wissenschaft.

Wegen der vielen Ungereimtheiten, Widersprüchlichkeiten und Halbwahrheiten, bis hin zu kompletten Falschaussagen, die Stocker unter Nutzung des Vertrauensbonus gegenüber einem renommierten Wissenschaftler ungerührt aussprach, ist es erforderlich, die wichtigsten seiner Aussagen einem Faktencheck zu unterziehen. Dieser erfolgzt doppelt, einmal in Form eines Videos, welches das Team vom Klimamanifest von Heiligenroth erarbeitete  (Sie finden es  ganz unten bzw. hier) und zum Zweiten in Form des vorliegenden Textes, der den Behauptungen Stockers Widerlegung bzw. Relativierung entgegenstellt.

„Nun, Mittelwerte aus einer zeitlich und räumlich variablen Grösse zu berechnen ist wirklich elementar[3].“

Fast alle Zeitreihen die Stocker für die verschiedensten Klimaphänomene zeigte, begannen um 1880 manchmal auch erst um 1900. Alles was davor war, existierte für Stocker nicht. Dabei sind die oft für Mensch und Tier einschneidenden klimatischen Veränderungen fast für das gesamte Holozän –also die letzten 10.000 Jahre-, sicher aber für die Geschichte der letzten 2000 Jahre bis in die Neuzeit hinein recht gut erforscht und dokumentiert. Dies zwar erst in jüngerer Zeit durch Erfassung und Übermittlung direkter instrumenteller Messungen, aber für die Zeit davor, durch Proxydaten – also Stellvertreterdaten- wie aus Sedimenten, Baumringen, Stalagmiten, Eisbohrkernen und weiteren Belegen wie z.B. Auffinden vom Baumresten in alpinen Hochlagen, in denen heute keine Bäume mehr wachsen, bis hin zu Klimainformationen gewonnen aus Kirchenbüchern.  Die so erschlossene Klimageschichte zeigt, dass frühere klimatischen Schwankungen häufig rascher und stärker waren, als wir sie aus den letzten 150 Jahren kennen. Diese wissenschaftlichen und oft veröffentlichten Fakten passen aber nicht in Stockers Strategie, die sich zum Ziel setzt ohne Zweifel festzulegen, dass der Mensch am Klimawandel nach der industriellen Revolution allein verantwortlich sei. Selbstredend wurden die zuvor erwähnten, den Menschen entlastenden Daten in Stockers Vortrag einfach übergangen.

Einschub: Zitat Klimaforschers und -Aktivisten Stephen Schneider, seinerzeit Leitautor des IPCC:

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

Und noch etwas fiel auf:

So gut wie keine der vielen Graphen die Stocker zeigte Fehler/Unsicherheitsmargen oder Fehlerbalken[4]. Obwohl die fast immer groß bis sehr groß sind. Und ebenso wenig informierte Stocker sein Publikum über die häufig viel zu geringe Anzahl und oft sehr mangelhafte Qualität der Daten, die zur Berechnung der verschiedenen Klimagrößen verwendet werden mussten, auch nicht ihre offensichtlich höchst ungleiche regionale Verteilung auf dem Globus.  Stattdessen beeindruckte er das Publikum mit großen Zahlen – sprach von „Millionen von Daten“ nannte diese „genügend und qualitativ hochstehend“ und dass sie erlaubten „statistisch robuste“ Aussagen (Min 13:50) zu machen.

Doch die Daten früherer Zeiten – etwa vor 1950- sind weder robust, noch zahlreich, noch gleichmäßig verteilt, sondern oft qualitativ schwach bis mangelhaft und nur für wenige Orte  verfügbar,.  Weil sich das auch nicht mehr ändern lässt, ist die verlässliche Rekonstruktion verlässlicher Zeitreihen mit möglichst geringen aber glaubwürdigen Unsicherheitsbändern alles andere als „elementar“. Im Gegenteil, es ist ganz hohe Schule unter sehr gekonnter Anwendung erprobter statistischer Messtechnik und ausgefeilter Methodik. Normale Ingenieure und Naturwissenschaftler wissen das und handeln seit jeher danach.  Offenbar aber nicht Klimatologen wie Herr Prof. Stocker und eine Reihe von IPCC Kollegen. Die wissen das nicht -und wenn doch- kümmern sich offensichtlich nicht darum.

Zwischen-Fazit:

Wenig vom Gesagten in Stockers Vortrag stimmte sachlich, oder ließ sich überhaupt belegen, wie er es behauptete, jedenfalls dann nicht, wenn man sich die Daten vor 1950 anschaut, für manche Größen gilt das sogar schon vor 1979 (dem Jahr ersten  Temperaturbestimmungen durch Satelliten) oder noch später – wenn man sich z.B. die Daten und deren Qualität für die Bestimmung „des Meeresspiegels“ ansieht. Und noch viel weniger stimmte dass, was Stocker verkündete, wenn man die Zeiten vor 1880 mit einbezieht. Wenn man jedoch die Klimavergangenheit nicht wirklich kennt, dass ist es irreführend, wenn man dann den Eindruck erweckt man könne darauf aufbauend die Zukunft projizieren. Ein Umstand der z.B. bei der Bestimmung der absoluten Mitteltemperatur der Erdatmosphäre deutlich wird, die noch vor wenigen Jahren mit 15°C festgestellt wurde und nun – ohne weitere Erklärung auf 14,76 °C abgesenkt wurde. Im Video des Klimamanifestes von Heiligenroth (hier) wird auf diese sponate „Abkühlung“ besonders eingegangen. Stocker vermied die Erwähnung dieser wichtigen Kenngröße gleich ganz.

Ob diese offensichtliche Irreführung des Publikums auf mangelndes Wissen des Herrn Stocker zurückzuführen ist, der ja die präzise und aussagefähige Berechnung dieser Größen als elementar ansieht, oder ob es schlichter Glauben an seine und die Fähigkeiten seiner Kollegen ist, spielt eigentlich keine Rolle. Falsch, tlw. grob falsch oder einseitig übertrieben sind viele dieser Aussagen auf jeden Fall. Das wollen wir an mehreren Beispielen zeigen.

Globale Mitteltemperatur

Beispiele:

Ab Min  7:56 und folgend werden mehrfach Zeitreihen der globalen Mitteltemperatur gezeigt und erläutert. So die (Neuere) Zeitreihe für die Nordhemisphäre und Südhemisphäre ab 1880 Min  8:15 O-Ton „Sie sehen hier die globalen Temperatur Messungen basierend auf Millionen von Temperaturdaten seit 1880..

Abbildung 1 . Zeitreihen der globalen Mitteltemperatur nach Stocker aufgeteilt in die Nord (rot)- und Südhemisphäre.(blau)

..Min 8:55 Sie sehen ganz klar einen Anstieg, wir können diesen Anstieg quantifizieren…..Im IPCC Bericht hatten wir die Zahl von 0,855 ° C Erwärmung von 1900  bis 2011 drin..

13:09 Das ist ein weiteres Bild.. ….der Klimawandel kann nicht festgemacht werden an einer globalen gemittelten Temperatur,  die niemand als solche erlebt, die ein mathematisches aber sehr nützliches Konstrukt ist, sondern Sie müssen auch Karten anschauen, wo dies möglich ist.

Abbildung 2 Darstellung der Temperaturzunahme  von 1901 bis 2012 geographisch verteilt… Stocker zeigt die Erwärmung „statistisch robust“ von 1901 bis 2012

Min 13:40 das ist die Karte die wir den politischen Entscheidungsträgern vorgelegt haben,.. sie zeigt die Temperaturtrends von 1901 bis 2012 in denjenigen Orten der Welt wo wir (13: 50) genügend qualitativ hochstehende Messungen haben.. …Min13:58 Die Welt ist nicht ganz farbig sie ist auch nicht ganz weiß, im Gegenteil wir können in den meisten Gebieten – die wichtig sind, wenn es um die Diskussion des Klimawandels geht, den Trend angeben  und (14:08) wir können diesen Trend robust angeben,…statistische Robustheit ist hier indiziert durch Kreuze (nicht erkennbar) ..14:18 mit Ausnahme des Nordatlantischen Ozeans, wo sie eine Abkühlung haben, haben sie überall eine statistisch signifikante Erwärmung  …. wir haben aber auch Regionen – dass muss man deutlich sagen, wo wir zu wenig Daten haben. (Anmerkung: Untertreibung des Jahres) um über die lange Periode von über 100 Jahren eine verlässliche Aussage zu machen..Trotzdem … 14:46 „Die Erwärmung des Klimasystems ist eindeutig“

Soweit einige der klaren Aussagen des Vortragenden Prof. Dr. Stocker

Was ist daran auszusetzen?

Nun, zunächst ist festzustellen, dass nur die Aussage ..von den Millionen Klimadaten“ zweifelsfrei feststeht und damit korrekt ist. Doch diese Aussage, allein dafür gedacht das Publikum gehörig zu beeindrucken, sagt für sich genommen überhaupt nichts aus. Jeder erinnert sich vielleicht an den etwas unfeinen Satz „..Millionen Fliegen können nicht irren“ .. tun es dann aber – wenn auch nur aus menschlicher Sicht- doch.

Nehmen wir ein Beispiel aus den Temperaturaufzeichnungen. Jede Wetterstation in den USA und den englisch dominierten Teilen der Welt wird 2 x täglich abgelesen (Max- und Min Temperatur). Daraus wir dann der Mittelwert gebildet. Ohne Mittelwertbildung erzeugt also jede Station pro Jahr 365 x 2 = 700 Messwerte. Nehmen wir 1850 als Beginn, so sind das bis z.B. 2010 160 Jahre. D,h von jeder Station dieser Art und Messdauer liegen  160 x 700 = 112.000 Daten vor. Bei nur 9 Stationen weltweit hätten wir die Million schon leicht überschritten. In Europa, das auf eine noch längere Messtradition als die USA zurückblickt kann, hat man überwiegend 4 Messwerte pro Tag abgelesen. Da genügten also schon weniger als 5 Stationen um über 160 Jahre die Million zu erreichen. D.h. insgesamt weniger als 15 Stationen liefern schon mehr als 2 Mio Messwerte. Es gibt aber viel mehr Wetterstationen, inzwischen über 7000. Doch reichen sie aus?

..doch es kommt noch schlimmer.

Da wir uns ja mit dem „Weltklima“ beschäftigen, dass es übrigens aus naturgesetzlichen Gründen ebenso wenig geben kann, wie eine Welttemperatur (es gibt nur Klimazonen von tropisch bis polar),  sollten wir auch Daten über allen Teilen der Welt verfügen. Und die über möglichst lange Zeiträume mit kontinuierlicher Messung. Dazu noch regional gleichmäßig verteilt. Aber an allem  hapert es gewaltig. Und lässt sich auch nicht mehr ändern. Vergangen ist vergangen! Die Welt ist mit 510 Mio km^2 Fläche riesig, und dazu noch zu 71% von Wasser bedeckt. Es nützt ja wenig bis nichts, wenn die Messstationen nur auf ein oder zwei Gebiete dieser  Welt konzentriert sind. Und es nützt auch wenig, wenn die Stationen intermittierend oder nur kurz ihre Arbeit verrichteten.  Aber genau so ist die Realität.

A

Abbildung 3 Das Video zeigt die Entwicklung der Zahl und der Verteilung der Wetterstationen, die zur Bestimmung der globalen Mitteltemperatur herangezogen wurden( Quelle climateaudit station di#200ADF1). Deutlich ist deren geringe Anzahl –besonders in den Jahren vor 1950- zu erkennen, ebenso wie ihre starke Konzentration auf faktisch nur zwei Gebiete. Nämlich Europa und die USA. Der Rest der Welt blieb weitgehend unbeobachtet.

Insgesamt enthält die NASA GISS Datenbank, hervorgegangen aus dem (GHCN) Global Historical Cimatology Network 7364 Datenreihen von Wetterstationen weltweit[5]. Einige gehen bis 175 Jahre zurück, andere nur wenige Tage.

Für Klimazwecke sind aber nur Stationen mit

a) kontinuierlicher ununterbrochener Aufzeichnung, möglichst am selben Ort mit derselben Ausstattung (kommt leider kaum vor) brauchbar und

b) mindestens ab 1880 (je früher je besser)[6].

Nach den Untersuchungen von F.K. Ewert anhand der NASA GISS Listen von 2010 lieferten aber nur 1086 Stationen über 100 oder mehr Jahre kontinuierlich Temperatur-Daten. Und davon lagen ca. 80 – 85 % in den USA und Europa. In den Folgejahren kamen zwar rd. 6000 Stationen dazu, von denen aber nur weitere 757 Stationen Daten aufwiesen, die für Langzeitvergleiche, dank ununterbrochener Aufzeichnungs-Dauer, tauglich sind. Das ist zwar schon eine bessere Datenbasis, aber lange noch keine gute, wenn man allein an die riesige Landfläche von 146 Mio km^2 denkt deren Klimaentwicklung es zu beurteilen gilt.

Allein deshalb eine erste Feststellung:

Keine Bauvorschrift eines entwickelten Landes würde es zulassen, dass anhand von Daten dieser dürftigen Qualität (wofür man aber den Altvorderen keinerlei Vorwürfe machen kann) jemals eine Brücke oder eine Bahn, oder ein Auto oder gar ein Flugzeug gebaut, geschweige denn für den Verkehr freigegeben werden dürfte. Die IPCC Klimaforscher aber erlauben sich ein solches Vorgehen und – noch schlimmer- es wird Ihnen geglaubt, dass sie spärliche Daten mit mangelhafter Qualität in solche (vermeintlich) hoher Qualität umrechnen und damit ganze Gesellschaften aus den Angeln heben. Ihre Computer rechnen zwar brav und schnell das aus, was ihnen eingegeben wird. Richtiger wird das Ergebnis dadurch nicht, nur schneller falsch

Abbildung 4 zeigt die Anzahl der genutzten Wetterstationen mit kontinuierlicher Aufzeichnungsdauer aus der NASA-GISS Datei von 2010 und ihr jeweiliges Startjahr.  Es gab zwar noch mehr Stationen mit diesen Gründungsjahren, aber deren Betriebsdauer war für Klimabeobachtungen zu kurz.  Daten NASA-GISS;Auswahl K.F. Ewert; Grafik: M.Limburg

Flächendeckung

1880 1900 1920 1940 1960
Anzahl 116 883 1093 1280 1602
80 % davon USA & Europa 93 706 874 1024 1282
Rest der Welt 23 177 219 256 320
für 1 Station im Rest der Welt in Mio km ^2 4,21 0,55 0,45 0,38 0,30
ergeben Ø 4 Station für Russland 1 Station für Kenia 1 Station für Schweden 1 Station für Japan 1 Station für Italien

Tabelle 1 Sie zeigt, welche Flächen bei angenommener regionaler Gleichverteilung für den Rest der Welt von einer Wetterstation abgedeckt gewesen wäre.  Die Zahlen sprechen für sich.

Und wie war es auf den Ozeanen, z.B dem Nordatlantik mit dem weißen Fleck?

Auf den Ozeanen – immerhin zu 71 % die Erdoberfläche bedeckend-  gab es außerhalb der Hauptschifffahrtsrouten so gut wie keine Messungen. Mit am dichtesten befahren war und ist die Nordatlantik Route, die bei Stocker aber einen weißen Fleck zeigt.

Auf dem Meer wird jedoch nicht die Lufttemperatur sondern vorrangig die SST gemessen. SST steht dabei für Sea Surface Temperature . d.i. lt. Definition die Wassertemperatur  1 m  unter der Wasseroberfläche. Sie wird als Proxy für die eigentlich gewünschte Lufttemperatur verwendet, weil sie sich wg. der großen Wärmeträgheit des Wassers weniger erratisch ändert als diese. Sie ist aber nicht dasselbe, sondern unterliegt  eigenen anderen Beeinflussungen, die jedoch völlig unbeachtet blieben. Deswegen ist die 1:1 Übertragung eigentlich nicht zulässig und erhöht nur die tatsächliche Unsicherheit.  Temperaturmesssungen der Weltmeere waren bezogen auf die Fläche noch weit spärlicher vorhanden als an Land. Ihre unvermeidbaren Unsicherheiten waren infolgedessen noch deutlich größer als die vom Land.

Abbildung 5 Darstellung der gemeldeten SST´s (Sea Surface Temperature, ein Proxy für die noch viel schlechter bekannte Meeres-Lufttemperatur, die man eigentlich für Vergleichszwecke benötigt) für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die extrem dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit sehr großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Von wegen statistisch robust!

Inzwischen gibt es auch einige begutachtete Papers[7],[8],[9]  -unter anderem vom Verfasser dieser Zeilen-, die nachweisen, dass die unvermeidbaren Unsicherheiten, die sich durch systematische Messfehler ergeben, welche zwar der Art nach bekannt, aber weder in der Größe noch Richtung korrigierbar sind,  bei der Berechnung der Zeitreihe der globalen Mitteltemperatur deutlich größer als ± 1,084 ° C bis ± 2,084 ° C sind. Vermutlich sogar ein Vielfaches davon. Sie werden zudem trichterförmig größer, je weiter man in die Vergangenheit zurückgeht.

Wenn sich das bestätigt, und daran kann eigentlich kein Zweifel bestehen, denn die in den papers verwendeten statistischen Methoden sind klassisches Ingenieurswissen, seit über hundert Jahren bekannt und wurden seitdem in allen Maschinen- und  Bauwerkskonstruktionen überaus erfolgreich angewendet, dann ist klar, dass auch jegliche Zuordnung irgendwelcher Ursachen der Änderung der globalen Mittel-Temperatur der letzten 150 Jahre nur spekulativ sein kann.

Und weiter kann daher jeder seriöse Experte wohl nur den Schluss ziehen, dass die im Bild 2 angegebenen Kreuze die für die „Robustheit“ der Aussage stehen sollen-nach allen Regeln der Statistik- nur reine Spekulation sind.

Gab es eine Erwärmung?

Bei Anwendung der grundlegenden Regeln für den Umgang mit unsicherheitsbehafteten Daten,  ist aus diesen Daten nicht mal festzustellen, ob es überhaupt eine Erwärmung gegeben hat. Gäbe es die Einzelwertanalysen nicht, wie sie dankenswerter Weise Karl Friedrich Ewert[10] angefertigt hat, er hat dafür die o.a. angeführten über 1839 Langzeit-Einzelzeitreihen  ausgewertet-  dann wären wir nur auf Proxydaten angewiesen. So aber zeigt sich, dass die Temperatur der Atmosphäre der Erde rhythmischen Schwankungen unterworfen ist, deren Zyklen,  anders als die Absolutwerte, auch nicht im Rauschen verschwinden, sondern in den Zeitreihen klar identifizierbar bleiben.

Abbildung 6 : Zeitreihen des Verlaufs der Temperatur nach verschiedenen Quellen. Grafik F.K. Ewert 

Als Fazit aus all dem ergibt sich:

1.     Von robusten gar qualitativ hochstehenden Daten (O-Ton Stocker) kann überhaupt keine Rede sein.

2.     Eine „elementare“ Aufgabe ist deren Auswertung keineswegs

3.     Weder sind präzise Angaben über die absolute noch relative (Anomalie) historische  globale Mitteltemperatur der Erde vor der Satellitenerkundung (1979) möglich, jedenfalls dann nicht, wenn man sich an die klassischen Prüf- und Bewertungsverfahren von Messergebnissen der Ingenieur/Naturwissenschaften hält.

4.     Qualitativ wie quantitativ vernünftig auswertbar sind nur die einzelnen Zeitreihen, wie es F.K. Ewert vorschlug. Das erfordert allerdings einen Zeitaufwand den die Verantwortlichen scheuen, zumal das Ergebnis ihnen nicht passen dürfte.

5.     Deutlich erkennbar und auch metrisch auswertbar sind hingegen Zyklen in den Zeitreihen (man sehe z.B hier)

6.     Diese unterscheiden sich in Nichts von den klimatischen Zyklen früherer Zeiten

7.     Ein Einfluss von Treibhausgasen insgesamt, insbesondere von CO2, ist in keiner der Zeitreihen erkennbar. Schon deren Korrelation mit den Klimagrößen ist auf allen Zeitskalen denkbar schlecht bis nicht vorhanden

Abbildung 7 : Zeitreihen des Verlaufs der globalen Temperatur, der CO2 Konzentration und der Portogebühren für US Briefe,  nach verschiedenen Quellen.

Zu vergleichbaren Aussagen kommen daher auch die schon  erwähnten Autoren J.D´Aleo und A. Watts in ihrer 110 seitigen Analyse: Sie schreiben u.a in ihrer Summary for Policymakers auf Seite 4

 

1. Instrumental temperature data for the pre-satellite era (1850-1980) have been so widely, systematically, and unidirectionally tampered with that it cannot be credibly asserted there has been any significant “global warming” in the 20th century.

 

2. All terrestrial surface-temperature databases exhibit very serious problems that render them useless for determining accurate long-term temperature trends.

3. All of the problems have skewed the data so as greatly to overstate observed warming both regionally and globally.

Teil 2 folgt in Kürze

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat


Fußnoten und Quellen

[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Klima ist ein Wort für das Wetter, das es an einem Ort in vielen Jahren gibt

Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit: Nationale Klimaschutzinitiative

Rubrik Leichte Sprache

[1] Erklärung des Klimawandels

Herzlich willkommen auf der Internet-Seite von der Nationalen Klima-Schutz-Initiative.

Klima ist ein Wort für das Wetter, das es an einem Ort in vielen Jahren gibt. Auf der Erde wird es immer wärmer. Dazu sagt man Klima-Wandel.

Das ist schlecht für die Umwelt. Zum Beispiel schmelzen Eisberge und die Wüsten werden größer.

Das passiert zum Beispiel durch Abgase. Abgase gibt es, wenn wir Strom machen oder wenn wir mit dem Auto fahren.

Die deutsche Bundes-Regierung will, dass es weniger Abgase gibt. Sie will das Klima schützen. Deshalb gibt es die Klima-Schutz-Initiative.

Die Klima-Schutz-Initiative kümmert sich darum, dass es weniger Abgase gibt.

Zum Beispiel: Wenn eine Schule neue Lampen kauft, die weniger Strom brauchen, dann hilft die Bundes-Regierung der Schule.

Quellen

[1] Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit: Nationale Klimaschutzinitiative Leichte Sprache

http://www.klimaschutz.de/de/artikel/leichte-sprache

———————————————————-

Anhang: Unser Übersetzer Chris Frey hat einen Text in (hoffentlich) genauso leichter Sprache verfasst. In Anlehnung an den obigen Unsinn liest sich das so:

Herzlich willkommen auf der Website von Klimarealisten.

Klima ist das Wort für Wetter, das man an einem Ort viele Jahre lang beobachtet und dann daraus einen Mittelwert bildet.

Auf der Erde wird es seit ihrer Entstehung vor vier Milliarden Jahren ständig mal wärmer, dann wieder kälter. Dazu sagt man Klima-Wandel.

Die Umwelt hatte also mehr als genug Zeit, sich an diese Wandel anzupassen. Eisberge nahmen zu und wieder ab, Wüsten wurden größer und wieder kleiner.

Das passiert durch die Sonne. Unsere Abgase sorgen nur dafür, dass die Pflanzen besser wachsen. Abgase gibt es, wenn wir Strom machen oder wenn wir mit dem Auto fahren.

Die deutsche Bundes-Regierung will, dass es weniger Abgase gibt. Das ist eigentlich Unsinn. Sie will das Klima schützen. Das ist noch größerer Unsinn. Um das deutlich zu machen, gibt es eine Website von Klimarealisten.

Die Klimarealisten kümmern sich darum, dass die verheerenden Folgen für die Umwelt und unsere Gesellschaft bekannt gemacht werden.

Die Bundes-Regierung will davon nichts wissen. Sie sorgt mit ihren „Hilfen“ dafür, dass die Umwelt immer weiter zerstört wird und unser Strom immer teurer gemacht wird.




Brexit: Greenpeace und Friends of the Earth FOE befürchten, dass grüne Vorschriften in einem „Freudenfeuer“ verbrennen

Brexit: Umweltaktivisten befürchten, dass Vorschriften bzgl. des Kampfes gegen den Klimawandel und des Naturschutzes in einem ,Freudenfeuer‘ in Flammen aufgehen

Verbleibende Campaigner haben argumentiert, dass die EU-Gesetzgebung geholfen hat, gegen Wasser- und Luftverschmutzung vorzugehen, gefährdete Spezies zu schützen und starke Sicherheitsstandards einzuführen bzgl. des Verbrauchs genetisch modifizierter Nahrungsmittel und potentiell gefährlicher Chemikalien.

Vorschriften, die erlassen worden sind, um beim Kampf gegen den Klimawandel zu helfen und das britische Wildlife zu schützen, könnten als Folge des Brexit in Rauch aufgehen. Davor haben führende Umweltaktivisten gewarnt.

Als Reaktion auf das Votum zum Austritt aus der EU haben Wohlfahrtsverbände und Klimawandel-Aktionsgruppen gesagt, dass die Folge ein „verheerender“ Effekt auf die Umwelt in UK sein könnte, stammen doch über 70% der Umweltvorschriften aus Europäischer Gesetzgebung.

UK-Greenpeace-Führer John Sauven sagte: „Viele der Gesetze, die unser Trink- und Badewasser sicherer, unsere Luft sauberer, unsere Fischereiindustrie nachhaltiger und unser Klima sicherer machen, sind jetzt bedroht … Es gibt die sehr reale Angst, dass Camerons Nachfolger aus der Ecke kommt, in der man ein Freudenfeuer mit Anti-Verschmutzungs-Vorschriften unterstützt“.

Plastik sollte als giftig angesehen werden, wenn es erst einmal in die Umwelt gelangt, sagten Abgeordnete des Parlaments in eine Statement nach dem Referendum. Friends of the Earth sagten, dass sie sich „nicht länger auf die EU verlassen könnte bzgl. des Schutzes von Natur und Habitaten“. Sie fügten hinzu, dass saubere Strände, die Luftqualität und Bienen zu den Dingen gehören, die in Gefahr sind durch den potentiellen Verlust der EU-Gesetzgebung.

Mehr: http://www.independent.co.uk/environment/brexit-eu-environmentalists-fear-bonfire-regulations-designed-fight-climate-change-protect-wildlife-a7103001.html

Meine Meinung ist, dass grüne Gruppen jetzt den Preis dafür zahlen, alle ihre Eier in nur einen Korb gelegt zu haben, dass sie seit Jahrzehnten die Wünsche ihrer Mitglieder ignorieren, dass sie sich auf ihren Einfluss auf das Establishment, die Politiker und Agenturen verlassen haben, um ihre Agenda zum Erfolg zu führen. Jetzt kämpfen diese Establishment-Politiker und Agenturen um ihr eigenes Überleben. Ich vermute, dass sie einfach nicht mehr auf die Repräsentanten der immer irrelevanter werdenden grünen Gruppen hören.

Link: https://wattsupwiththat.com/2016/06/25/brexit-greenpeace-foe-fears-a-bonfire-of-green-regulations/

Übersetzt von Chris Frey EIKE




Der Bundestag mag kein Klimaschutz-Gesetz

Bild rechts: Langer Eugen in Bonn. Da war auch der Bundestag mal… Bild: Dirk Sanne  / pixelio.de

Im Kern wäre ein Klimaschutzgesetz der gesetzlich verpflichtende Glaube an (Öko-)Kirchendogmen. Nur weil die Grünen und inzwischen auch die Linken darin ihr Heil und Ziel sehen, werden diese nicht wahrer. Und das ist nicht nur die Meinung von „typischen Klimaleugnern“:

Aussage des ehemaligen Vizedirektors des AWI, Prof. Heinrich Miller:

[2] »Wer von Klimaschutz redet, weckt Illusionen«, mahnt Miller zu Bescheidenheit. »Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert.« Schlagworte wie Klimakollaps oder -katastrophe hält er für irreführend. »Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen.« Was wir Menschen als Naturkatastrophen bezeichneten, seien in Wahrheit Kulturkatastrophen – weil unser vermeintlicher Schutz vor äußeren Unbilden versage. »Wer Häuser dicht am Strand, am Fluss oder in Lawinengebieten baut, muss mit Schäden rechnen«

Es ist deshalb zu begrüßen, dass dies in Deutschland noch jedem frei gelassen wird, daran zu Glauben oder auch daran zu zweifeln. Zudem hat die deutsche Geschichte ausreichend oft gezeigt wozu es führt, wenn Parteiprogramm-Inhalte zum Gesetz erhoben und unter Strafandrohung nicht mehr angezweifelt werden dürfen, der IS macht es aktuell gerade wieder vor.

Warum ein Herr Gabriel ausgerechnet mit Parteien welche dies wieder wollen die Zukunft der SPD sieht, wird sein Rätsel oder seine Verzweiflung bleiben „Sigmar Gabriel fordert ein "Bündnis aller progressiven Kräfte"“.

Und es ist beileibe nicht so, dass mangels Gesetz am Klima-Rettungswahn Abstriche gemacht würden. Diese Hysterie geht auch in der Koalition trotzdem wie gewohnt weiter. Das zeigt schon das Lob für Umweltministerin Hendricks:

SPD-Abgeordneter Frank Schwabe:

[1] Entscheidend seien die Ziele, sagte Schwabe, und die seien "immer gut" gewesen. Gehapert habe es bislang lediglich an der Überprüfung. Umweltministerin Hendricks habe das aber in der Griff bekommen, sie habe den Namen "Mrs. Monitoring" verdient.

Mrs. Monitoring" ist eine originelle, aber wirklich zutreffende Bezeichnung. Dazu muss man nichts wissen, nichts vorgeben, nichts entscheiden, nichts lösen, eben nur nachsehen und mit Vorgaben vergleichen. In einem Zeugnis wäre diese Klassifizierung nicht sehr positiv. Ob es der Abgeordnete vielleicht auch so gemeint hat?

Wer mehr über die Debatte nachlesen will, sei auf die ausführliche Information bei Klimaretter verwiesen.

Quellen

[1] Klimaretter.Info, 23.06.2016: Bundestag mag beim Klima keine Gesetze

[2] Prof. Dr. H. Miller, AWI; Bohrer im Eis, DIE ZEIT, 6.6. 2007 , S. 40




Die Klimarettung segelt unter falscher Flagge

Durch den gezielten Einsatz von Desinformation geben heute die Opfer also freiwillig ihr Geld ab, beispielsweise um die ganze Welt zu retten. Denn „Klimarettung“ steht heute für alles das, was den Bürgerinnen und Bürgern am Herzen liegt: Umweltschutz, Ressourcenschonung und Nachhaltigkeit. Und weil es bei der Energiewende ja um „Generationengerechtigkeit“, globale „Klimagerechtigkeit“ und die Rettung der gesamten Menschheit geht, dürfen natürlich weder die wissenschaftlichen Grundlagen noch die wirklichen Motive oder gar das erzielte Ergebnis hinterfragt werden.
Machen wir es trotzdem einfach mal:
Umweltschutz: Mit Windkraftanlagen und Solarparks werden die letzten naturnahen Landschaften in unserm Land zugepflastert. Windkraftanlagen schreddern tausende von Vögel und Fledermäuse und treiben die Anwohner buchstäblich in den Windwahn. Und Solarparks müssen ständig gereinigt und von pflanzlichem Aufwuchs frei gehalten werden, wie immer das auch ökologisch korrekt geschehen mag.
Widerspruch: Die Erzeugung von „erneuerbarer Energie“ geht zu Lasten von Umwelt, Natur und Menschen! Übrigens sind Windkraftanlagen und Solarparks die einzigen Investitionen, mit der sich momentan ohne großes Risiko um die 10 Prozent Verzinsung jährlich erwirtschaften lassen. Und das soll wohl auch so bleiben, man denke nur einmal an die beabsichtigte zusätzliche Förderung von „windschwachen“ Standorten durch das EEG…
Ressourcenschonung: In Ermangelung von Speichern für den Ausgleich der Erzeugungsschwankungen von Grünstrom müssen weiterhin konventionelle Kraftwerke in Größenordnung der Spitzenlast (maximaler Stromverbrauch) vorgehalten werden. Wir werden am Ende also zwei komplette Kraftwerksparks betreiben, die von der Leistung her beide unsere Spitzenlast bedienen könnten – wenn denn der Wind weht und die Sonne scheint. Außerdem erfordert Grünstrom zusätzliche Stromtrassen quer durchs Land, vom Traum eines intelligenten „Smartgrids“ für alle Stromverbraucher einmal ganz abgesehen.
Widerspruch: Die Energiewende erfordert mehr als doppelt so viele Ressourcen, wie wir sie für eine sichere Stromversorgung allein aus konventionellen Quellen benötigen würden!
Nachhaltigkeit: Moderne Kohlekraftwerke sind so ausgelegt, dass sie bei Nennleistung ihren größten Wirkungsgrad erzielen und damit auch den geringsten CO2-Ausstoß pro Kilowattstunde produzieren. Bei Grünstrom-Überschuss sieht die Sache leider ganz anders aus, da wird unter Teil-Last vermehrt CO2 emittiert, ohne dass der Endkunde diesen Strom verwerten kann. Der produzierte Strom wird vielmehr gegen eine zusätzliche Strafgebühr, für die der Stromkunde ebenfalls aufkommen muss, ins Ausland entsorgt. Kohlekraftwerke können bei Flaute nun einmal nicht mit einem sofortigen Kaltstart reagieren. Unser CO2-Ausstoß sinkt also nicht, sondern unsere alternative Energieerzeugung erfordert weiterhin den Betrieb konventioneller Kraftwerke, schon allein für die Einhaltung der Netzfrequenz, die Grünstrom grundsätzlich nicht gewährleisten kann.
Widerspruch: Der vorgeblichen „Einsparung von CO2“ mittels „Energiewende“ und EEG zwecks Rettung des Weltklimas stehen trotz ungeheurer Kosten für die „nicht privilegierten“ EEG-Endverbraucher und unabsehbaren ökologischen Schäden an naturnahen Lebensräumen auch in Zukunft keinerlei CO2-Einsparungen gegenüber.
Durch den gezielten Einsatz von Desinformation über das natürliche Klimageschehen und die physikalischen Grundlagen der Energieerzeugung bezahlen wir also in einem völlig sinnlosen Ablasshandel sehr viel Geld für vorgeblichen “Klimaschutz“. Aber wegen des dauerhaft notwendigen Parallelbetriebs von konventionellen „Schattenkraftwerken“ ist eine CO2-Reduzierung in der Energieerzeugung überhaupt nicht möglich.
Mit dem falschen Argument einer angeblich notwendigen „Klimarettung“ richten wir also unsere Umwelt und unsere wirtschaftlichen Ressourcen sinnlos zu Grunde und gefährden damit nicht nur nachhaltig unseren eigenen Lebensstandard, sondern auch den der nachfolgenden Generationen…

Uli Weber ist Autor des Buches Klimahysterie ist keine Lösung.

Übernommen von Die kalte Sonne hier




Der „Brexit“ ist auch eine Zurückweisung der EU-Vorschriften zur globalen Erwärmung

„Die Entscheidung der Briten, aus der EU auszusteigen, wird bedeutende und langzeitliche Implikationen für die Energie- und Klimapolitik haben“, sagt Dr. Benny Peiser, Direktor des Global Warming Policy Forum GWPF.

Der konservative Meinungsforscher Lord Michael Ashcroft befragte 12.369 Briten während der Abstimmung und fand heraus, dass 69 Prozent all derjenigen, die für den Ausstieg gestimmt hatten, die „grüne Bewegung“ als eine „Kraft des Bösen“ eingestuft hatten (hier).

„Mit jeweils großer Mehrheit haben Wähler, die Multikulti, Feminismus, die Grüne Bewegung, Globalisierung und Einwanderung als Kräfte des Guten sahen, dafür gestimmt, in der EU zu verbleiben. Hingegen haben all jene, die diese Kräfte als ,Böses‘ sahen, mit sogar noch größerer Mehrheit für den Austritt aus der EU gestimmt“, schrieb Ashcroft.

Die Briten haben seit Jahren unter hohen Energiepreisen gelitten, teilweise infolge der von den EU-Bürokraten erlassenen Vorschriften, die an die Bürger weitergegeben wurden. Umweltaktivisten waren aus genau diesem Grund strikt gegen den EU-Austritt. Das Brexit-Votum signalisiert, dass UK nach rechts abdriftet und dass man drückende klimapolitische Maßnahmen ablehnt.

„Es ist sehr unwahrscheinlich, dass der parteiübergreifende grüne Konsens, der während der letzten 10 Jahre im Parlament vorherrschend war, die seismischen Schockwellen überdauern wird, die sich jetzt nach dem ,Independence Day‘ von UK ausbreiten“, sagte Dr. Peiser.

Premierminister David Cameron verkündete nach der Abstimmung seinen Rücktritt, hatte er doch vehement für den Verbleib in der EU geworben. Cameron war eine der treibenden Kräfte hinter dem sog. „grünen Konsens“ im Parlament, welcher hinter grünen Subventionen und Energiesteuern für die gesamte Bevölkerung stand.

„Die Britischen Bürger haben dafür gestimmt, die EU zu verlassen, und ihr Wille muss respektiert werden“, sagte Cameron nur einen Tag später. „Der Wille der britischen Bevölkerung ist eine Instruktion, der wir folgen müssen“.

Camerons Regierung hat angefangen, Subventionen für Solarpaneele zurückzufahren und das hydraulische Brechen zu fördern (hier). Gesetzgeber der Konservativen Partei stimmten auch gegen weitere Begünstigungen der Windenergie und für die Senkung der Stromkosten. Grüne Steuern kommen die britischen Steuerzahler mit 6,6 Milliarden Dollar pro Jahr zu stehen.

Die Briten zahlten auch mit die höchsten Energiekosten in Europa (hier), teilweise dank grüner Steuern, die auf die Stromrechnungen aufgeschlagen worden waren.

Der Mann, der Camerons Stelle einnehmen wird, fühlt sich sicher nicht verpflichtet, das „grüne“ Image von UK zu pflegen.

Der ehemalige Londoner Bürgermeister Boris Johnson, der der UK-Brexit-Bewegung Gesicht und Stimme gegeben hatte, könnte Camerons Stelle als Premierminister während der kommenden Monate einnehmen. Johnson ist ein Skeptiker der globalen Erwärmung und hat sogar alarmistische Behauptungen zurückgewiesen, denen zufolge menschliche Emissionen Ursache für den ungewöhnlich milden Winter in England waren (hier).

„Es sind wunderbare Nachrichten, dass die Welt sich entschlossen hat, die Verschmutzung zu bekämpfen und den Menschen zu helfen, Geld zu sparen, aber ich bin sicher, dass jene globalen Führer von der primitiven Furcht getrieben waren, dass das gegenwärtige milde Wetter irgendwie von den Menschen verursacht ist. Und jene Angst – so weit ich die Wissenschaft verstehe – entbehrt jeder Grundlage“, schrieb Johnson im Dezember.

Es ist unwahrscheinlich, dass Johnson den „grünen Konsens“ im Parlament wiederbeleben wird. Das heißt nicht, dass Johnson sämtliche EU-Umweltvorschriften abschaffen würde, aber das Vorschriften-Regime wird wahrscheinlich weniger belastend sein als es Brüssel vorschwebte.

„Aber der vielleicht wichtigste Aspekt des EU-Referendums war die erstaunliche Selbstbestimmung und der Skeptizismus der Britischen Bevölkerung angesichts einer beispiellosen Angstkampagne“, sagte Peiser.

Link: http://dailycaller.com/2016/06/24/brexit-is-also-a-repudiation-of-eu-global-warming-mandates/

Es war zu erwarten, dass dieser „Brexit“ auch in der Klima- und Energie-Blogosphäre hohe Wellen schlagen würde. Einige Beiträge gibt es schon, die hier kurz beschrieben werden sollen. Zahlreiche weitere werden wohl noch folgen. – Anmerkung des Übersetzers.

Hier zunächst ein Beitrag, der noch vor der Abstimmung auftauchte. Wegen der vielen Konjunktive darin sei hier nur der Link genannt:

http://www.euractiv.com/section/climate-environment/news/un-boss-brexit-would-mean-rewriting-paris-agreement-on-climate-change/?nl_ref=15561958

Der folgende Beitrag ist nach der Abstimmung erschienen. Interessant, was die jeweiligen Autoren so folgern:

Brexit bringt Chaos in die Ziele Europas bzgl. sauberer Energie

Richard Martin

Der Abschied der zweitgrößten EU-Ökonomie könnte die in Paris festgeschriebenen Klima-Bemühungen erschüttern.

Die Entscheidung der UK-Wähler zum Austritt aus der EU (hier) sandte Schockwellen durch die Weltmärkte, einschließlich des Energie-Sektors. Der Konsens unter Gesetzgebern, Befürwortern sauberer Energie und Analysten war es, dass ein Brexit die EU-Bemühungen zur Reduktion von Kohlenstoff-Emissionen im Zuge des Pariser Klimaabkommens nicht vollständig auf das Abstellgleis fahren würden. Aber sie wird sicher Sand ins Getriebe werfen.

Unter Premierminister David Cameron und seinen Vorgängern war UK ein Führer bzgl. der Energiepolitik und Unterstützung Erneuerbarer Energie. Viele Maßnahmen der EU-weiten Energiepolitik des vorigen Jahrzehnts – darunter das Aufbrechen monopolistischer Strukturen der Kontrolle von Erzeugung, Übertragung und Verteilung – wurden zumindest teilweise in die UK-Gesetzgebung übernommen.

Weiterlesen: https://www.technologyreview.com/s/601776/brexit-brings-chaos-to-europes-clean-energy-goals/

Der folgende Beitrag stammt vom 24. Mai, also lange vor der Abstimmung, weist aber auf einen interessanten Aspekt hin. Der Autor outet sich dabei als entschiedener AGW-Anhänger:

Brexit-Kampagne wird von Klimaskeptikern dominiert

James Crisp

Führende Vertreter der Pro-Brexit-Kampagne haben Verbindungen zu kontroversen klimaskeptischen Denkfabriken und stellen die Wissenschaft hinter der globalen Erwärmung in Frage.

Die drei Führer der Gruppe, Boris Johnson, Michael Gove und Galionsfigur Lord Nigel Lawson haben Zweifel hinsichtlich eines vom Menschen verursachten Klimawandels, der von den meisten glaubwürdigen Experten der Welt gestützt wird.

Lawson gründete im Jahre 2009 die Global Warming Policy Foundation und ist bekennender Klimaskeptiker. Sowohl die Foundation, welche Vorschriften der Wohlfahrts-Kommission von UK für einen Anti-Klima-Bias gebrochen hat (hier), als auch die Austritts-Kampagnen-Führer haben reiche Geldgeber.

Weiterlesen: http://www.euractiv.com/section/uk-europe/news/brexit-campaign-leadership-dominated-by-climate-sceptics/

Und hier wird der Brexit mit der Französischen Revolution verglichen:

http://www.telegraph.co.uk/news/2016/06/24/brexit-is-a-more-impressive-achievement-than-the-french-revoluti/

Übersetzt und zusammengetragen von Chris Frey EIKE




Teil 2: Was geschah vor 10.000 Jahren?

Bild rechts  Von Maximilian Dörrbecker (Chumwa) – Eigenes Werk. using The Physical Map of the World from ShadedRelief.com this map Athanasius Kircher’s imagination of Atlantis, CC BY-SA 2.5, https://commons.wikimedia.org/w/index.php?curid=29157370

…Im Zusammenhang mit dem Ende der Eiszeit ist immer wieder in der Wissenschaft von einem so genannten Polsprung die Rede. Die Erklärungen dafür sind sehr vielschichtig, und die ernsthafte Wissenschaft will von alldem eigentlich nichts wissen. Anhänger dieser Theorie (Niels-Axel Mörner, Brown und Hapgood; auch Einstein gehörte dazu) werden ignoriert, weil eine ernsthafte Debatte zwangsläufig die aktualistischen Glaubenssätze der Wissenschaftsgemeinde ins Wanken gebracht hätte; deshalb wird sie ausgesessen. Ich kann fachlich zu einem Polsprung nichts sagen, möchte aber anhand von drei Indizien darauf hinweisen, dass es möglicherweise doch eine Erdkrustenverschiebung gegeben hat. Erstens hat man gefunden, dass die Mammute in üppigem Grün gelebt haben bevor sie von der Kälte überrascht worden sind. Das deutet darauf hin, dass ihr damaliger Lebensraum weiter südlich lag. Zweitens finde ich in meiner Tageszeitung DNN vom 15. März 2013, dass die Braunbären auf den ABC Inseln vor Alaska eigentlich Eisbären sind. Die zeige eine Erbgutanalyse. Die Forscher vermuten, dass eine "Klimaerwärmung vor 10.000 Jahren" dafür der Grund ist. Es lässt sich aber auch so erklären, dass durch den Einschlag des Asteroiden die Eisbären ein Stück nach Süden ins Warme geschoben worden sind. Durch die Insellage war Ihnen der Weg nach Norden versperrt und sie waren gezwungen, sich anzupassen.

Das hilft uns auch bei der Beantwortung der Frage, die so vielen Leuten heute so große Sorgen bereitet: Was passiert mit den armen Eisbären, wenn es wärmer wird? Sie werden wieder (das sollte uns beruhigen) zu Braunbären werden.
Zum Dritten starben vor 10.000 Jahren die Riesenfaultiere in Südamerika aus. Sie haben wahrscheinlich die Erdverschiebung in den eisigen Süden nicht überstanden. Die gängige wissenschaftliche Erklärung für dieses Aussterben lautet heute, dass der Mensch für das Verschwinden der Tiere verantwortlich ist. Die Kreisbogenlinie von Sibirien (Mammute), über Alaska (Bären) nach Südamerika (Riesenfaultier) liegt in der gleichen Richtung wie die Einflugschneise des  besagten Asteroiden. Es sieht so aus, als hätte die Wucht des Einschlags die Erdkruste verschoben; fast unvorstellbar. Kann das jemand ausrechnen oder wissenschaftlich widerlegen?

Was ich bisher über das Titelthema geschrieben habe, habe ich in 25 Jahren aufmerksamen Lesens und Hörens gesammelt und durch Vergleiche geordnet. Deshalb möchte ich noch einen eigenen Beitrag anzufügen.
Vor zehn Jahren hat mich ein Freund zu einer Weltreise auf einem Containerschiff überredet (etwas für Leute mit viel Zeit und wenig Geld). Die Reise führte uns von Hamburg über den Atlantik und durch den Panamakanal bis nach Süd-Amerika an die Ostküste Kolumbiens. Die Route ging südlich an den Azoren vorbei zur Mona-Passage zwischen Puerto Rico und der Dominikanischen Republik (der Kapitän hat uns nach dem Ablegen in Rotterdam gefragt, ob wir die Azoren nördlich oder südlich passieren möchten!). Die Schiffsautomatik sorgte nach der Passage der Azoren für einen direkten "geraden" Weg Richtung Karibik. Beim Studium der Schiffskarten (wir hatten jederzeit freien Zugang zur Kommandobrücke) stellte ich fest, dass unser Weg genau zwischen den zwei Löchern (54,2 W, 21,5 N und 60 W, 24 N) hindurchführen würde, die Otto Muck als Einschlagslöcher genannt hatte. Da wurde schnell die Frage geboren, ob es an diesen Stellen Abweichungen des irdischen Magnetfeldes geben könnte. An Bord war es üblich, dass alle halbe Stunde über Satellitenmessungen die Position, die Richtung und die Geschwindigkeit des Schiffes bestimmt und aufgeschrieben wurden. Der messtechnisch überholte Magnetkompass wurde routinemäßig nur alle 4 Stunden abgelesen. Als ich dem Kapitän mein Anliegen erklärt hatte, war er sofort bereit, auch den Magnetkompass halbstündlich ablesen zu lassen, so dass die Messpunkte nur ca. 10 km auseinander lagen. Die Messungen wurden spannend als sich bei Annäherung an das linke, erste Loch (7067 m tief) die Nadelstellung veränderte und genau auf der Nord-Süd-Linie der größten Tiefe ihr Maximum von 3 Grad Abweichung (Ablesegenauigkeit +/- 1/4 Grad) erreichte und dann wieder abfiel. Bei Annäherung an das nächste rechte Loch passierte das gleiche, allerdings war die Nadelabweichung mit 2,5° etwas geringer. Sie erfolgte aber in die gleiche Richtung. Ich hatte eigentlich wegen der Links/Rechtslage der Löcher einen Links/Rechtsausschlag der Magnetnadel erwartet. Die etwas geringere Lochtiefe, die etwas geringere Nadelabweichung und die nördlichere Position des zweiten Loches deuten darauf hin, dass die Masse dieses Teiles etwas geringer ist als die des südlicheren, ersten Objektes. Es wird mir wohl niemand übelnehmen, dass ich daran glaube, dass dort zwei von der Wissenschaft vernachlässigte Himmelsboten in der Erdkruste stecken. Ich nehme an, dass es in der Fachwelt sicherlich bekannt ist, dass an dieser Stelle Störungen des Magnetfeldes vorhanden sind. Wahrscheinlich gibt es auch jemanden, der die Masse der beiden metallischen Himmelskörper bestimmen kann (bitte melden). So werden auch Mutmaßungen verständlich, die im Zusammenhang mit Ereignissen im Bermudadreieck genannt werden, wenn es um starke Magnetkräfte geht.

Der Hauptgrund für die Ignoranz der ehemaligen Existenz einer Insel im Atlantik ist meines Erachtens vorwiegend darauf zurückzuführen, dass man keine Spuren gefunden hat. Von Heisenberg (Einstein?) stammt der bemerkenswerte Satz: man findet nur, was man sucht.
Und da man nicht gesucht hat, hat man folgerichtig nichts gefunden. Ich glaube, dass sich ein renommierter Wissenschaftler heutzutage nicht mehr mit einer Insel-Theorie in die Öffentlichkeit trauen kann, ohne seinem Ruf und seiner Existenz zu schaden.

Aber ist wirklich nichts zu finden? Ich möchte in vier Fällen dieser Frage nachgehen.
1. Gehen wir in der Erdgeschichte 120 Millionen Jahre zurück und fügen wir die heutige Westküste von Afrika und Europa an die Ostküste Süd- und Nord-Amerikas an, so stellen wir eine erstaunliche Übereinstimmung der Küstenlinien fest. Das hat Alfred Wegener schon 1915 erkannt, aber bis zu seinem Tode 1931 wurde er von der Wissenschaftsgilde bekämpft und es hat noch 50 Jahre gedauert bis die Plattentheorie anerkannt worden ist. Es fällt aber auch auf, dass im Bereich des Golf von Mexiko und der Westkaribik ein Stück Land fehlt. Wo ist es geblieben? Könnte es nicht sein, dass dieses Land beim Auseinanderdriften der Kontinente im Bereich der Bruchlinie mitgeschwommen ist und vor 10.000 Jahren sich an der Stelle der heutigen Azoren befand?

2. In dem englischen Buch "Wie die Erde entstand" gibt es eine Darstellung sämtlicher Trennlinien der Kontinentalplatten der Erde als gestrichelte Linie. Es fällt auf, dass es diese Linien nur unter Wasser gibt, weil sie dort besser konserviert wurden. Oberhalb des Wasserspiegels sind wegen der Erosion nur Spuren geblieben, wie z.B. in Island. Bild 3 zeigt einen Ausschnitt dieser Linien im Atlantik. Es ist sicherlich kein Druckfehler, dass im Azorenbereich ein Stück Linie fehlt (und nur hier). Warum? Sollte dieses Gebiet noch kürzlich über Wasser gelegen haben? Es sieht so aus. Mit einem gezielten Blick auf die Bruchlinie im Atlantik bei Google Earth kann sich jeder Leser zusätzlich selbst davon überzeugen, dass es an dieser Stelle keinen Riss gibt. In einer Reisewerbung für die Azoren las ich neulich: eines gibt es auf den Azoren nicht, nämlich Strände. Der Durchschnittsleser denkt sich nichts dabei. Mit meiner Sensibilisierung frage ich sofort: Wann sollen die sich auch gebildet haben, wenn die heutige Küstenlinie vor 10.000 Jahren noch 3 km höher lag?

Bild 3

3. Vor einigen Jahren hat eine Gruppe von 50 Wissenschaftlern um Prof. Kucera (Tübingen) in den Weltmeeren danach geforscht, welche Wassertemperaturen vor 20.000 Jahren an der Oberfläche geherrscht haben. Eine immense wissenschaftliche Leistung. Das Ergebnis zeigt Bild 4 für den Nordatlantik. Soweit ich weiß, hat es auf die Aussage dieser Darstellung keine Diskussion gegeben. Mich hat sofort der 10 Grad kältere Fleck zwischen den Azoren und Westeuropa fasziniert. Kann man sich vorstellen, dass es heute in der Golfstromströmung einen so scharfen Temperatursprung von 10 Grad geben könnte? Nicht vorstellbar, aber woher kommt er? Alles deutet auf ein großes Hindernis hin, das dem warmen Golfstrom das freie Strömen gen Osten verwehrte. Es wäre schön, eine Stellungnahme zum kalten Fleck von den Bildschöpfern zu erfahren.

Bild 4

4. Einen für mich besonders wertvollen Beitrag liefern Wissenschaftler des Helmholtz-Zentrums für Ozeanforschung in Kiel (Geomar). Unter dem Begriff "Heinrich-Ereignisse" (Kopplung niederer und höherer Breiten) ist bei Wikipedia das Bild 5 zu finden. Das kleine Bild enthält die Sensation. Bekanntlich sind die 100.000 Jahre lang abbrechenden Eisberge von Norden in Richtung Süden auf den Atlantik gedriftet und haben dort beim Schmelzen ihre Steinelast verloren. Man kann zwangsläufig nur dort Steine finden, wo die Eisberge auch hingekommen sind. Die eigenartige Einbuchtung an der Südflanke des Schotterfläche sollte doch zu Frage anregen, warum liegen dort keine Steine. Offensichtlich hat sich das noch niemand gefragt. Die Antwort scheint besonders hier leicht zu sein. Es muss dort eine Insel gegeben haben. Was sagt Geomar dazu? Ich habe in der langjährigen Beschäftigung mit dem Thema erfahren, dass sich immer mehr Puzzleteile widerspruchslos in ein Mosaik eingefügt haben, dass es schon fast unheimlich wurde.

Bild5

Ich wollte mit dieser Arbeit zeigen, dass die Annahme einer ehemaligen Insel im Atlantik in der Wissenschaft die Beantwortung vieler offenen Fragen erleichtert bzw. erst ermöglicht. Wie wäre es, mit den Computerprogrammen anzufangen? Wahrscheinlich ein Traum. Als Außenseiter habe ich erfahren, aus Fachkreisen sind keine Impulse zu erwarten, bei den zu erwartenden Verwerfungen menschlich verständlich. Aber irgendwie und irgendwann sprießt die Wahrheit doch ans Licht. Bei den Erdwissenschaftlern dauert es etwas länger. Manchmal eröffnet erst die Rente neue Möglichkeiten (s. Klima). Meine sporadischen Suchergebnisse können nur ein Bruchteil von dem sein, was noch zu finden ist. Unter dem Motto "man findet nur, was man sucht", wird weiteres Suchen sich lohnen.

Zum Schluss möchte ich noch etwas zum 8-k Event loswerden.
Über den plötzlichen, kurzfristigen Temperatursturz vor 8.200 Jahren gibt es die Vermutung, dass das Auslaufen großer Süßwassermengen (Agassiz-See) dafür verantwortlich ist. Wacklig wird diese Aussage aber, wenn Harald Lesch diesen See in einer Eiszeitsendung schon vor 12.500 Jahren auslaufen lässt, um die damalige Kältephase zu erklären. Gleichzeitig ist bei Google ein Bild zu finden, auf dem dieser See vor 7.900 Jahren noch vorhanden ist. Damals soll auch das Schwarze Meer vollgelaufen sein. Der Meeresspiegel lag noch 15 m tiefer als heute.

Ich stelle hier die Frage zur Diskussion, ob es zwischen 8-k und dem Volllaufen des Schwarzen Meeres einen Zusammenhang geben könnte. Ich habe mal kurz gerechnet. Das Schwarze Meer enthält heute circa 500.000 km^3 Wasser. Hineingeflossen sind damals in die Nachbarsenke etwa 300.000 km^3, weil die nicht leer war. Das hat vielleicht nicht länger als ein Jahr gedauert; die Uni Bern hat gewaltige Strömungsspuren festgestellt. Diese Wassermenge entspricht einem Meeresspiegelunterschied von 0,85 m. Wie aus Bild 2, Kurve 1 zu entnehmen ist, betrug damals der Meeresanstieg 1,75 m pro Jahrhundert. Das bedeutet letztendlich, dass das Füllen des Schwarzen Meeres den Meeresanstieg um ein halbes Jahrhundert verzögert haben könnte und dass in der Anstiegskurve in Bild 2 eine Störung, wahrscheinlich ein Sprung durchaus vorstellbar sein könnte. Tatsächlich zeigt die Kurve an der Stelle X eine solche Stelle, allerdings einige hundert Jahre versetzt. Etwas viel Spekulation, aber eine schöne Geschichte. Was sagen Sie dazu, Herr Prof. Behre? Wäre diese Thematik nicht ein spannendes Doktorobjekt für Mitarbeiter an Strömungskanälen?

PS in eigener Sache


Ich bin vor 25 Jahren ganz zufällig an dieses Thema (Insel im Atlantik) geraten. Beim sporadischen, zunehmend gezielterem Sammeln von einzelnen Puzzleteilen merkte ich bald, dass diese bessere und logischere Antworten lieferten als die klassischen Einzelwissenschaften. Als Außenseiter habe ich sozusagen den Spezialisten von oben beim emsigen Forschen auf dem Grund ihres Fachtellers zugesehen, dabei bemerkend, dass ein Blick über den Tellerrand, wie ich es mir leisten konnte, kaum vorkommt. Ich glaube inzwischen, dass nur ein Außenseiter diesen Artikel schreiben kann, weil Spezialisten mehrfach befangen sind. Meine Kontaktversuche waren fast immer erfolglos. Wenn überhaupt eine Antwort, dann so: ich bin X- Spezialist, wenden sie sich an einen Y- Kollegen. Heute weiß ich warum. Nur einmal versprach das GEO- Forschungszentrum Potsdam, zuständige Professoren anzusprechen (es gab in einer Ausstellung einen von mir genutzten Briefkasten "Ask a prof"). Nach drei Monaten die Ernüchterung: keiner der Angesprochenen war zu einer Aussage bereit. Heute verstehe ich auch das, kann es aber nicht akzeptieren.

Wer mir vorwirft, dass nicht alles genau, korrekt oder manches überspitzt ist, der hat wahrscheinlich recht. Wer mir vorwirft, dass ich sehr mangelhaft zitiere, dem werde ich nicht widersprechen, denn vor 25 Jahren habe ich nicht ahnen können, dass richtiges Zitieren heutzutage wichtiger ist als der Inhalt. Eine Veröffentlichung war nicht vorgesehen; in einem renommierten Fachblatt ohnehin nicht möglich. Inzwischen hat sich so viel Ungelöstes und Widersprüchliches angesammelt, auch was unsere Klimazukunft betrifft, dass ich mal darüber schreiben wollte.

Dr.-Ing. Gerhard Kühn

 




Deutschland lässt sich abschaffen – macht alle mit

Bild rechts: Startbild eines EEG-Erklärungsvideos Quelle: DIE WELT

Bildbeschreibung des Autors: Kein Windhauch weht, die Sonne geht, der Strom sich gleich mit schlafen legt. Zum Speichern war der Tag zu schlecht, nun wird es kalt, geschieht dir recht. Ein teurer Stromer vor dem Haus, hätte noch Strom, doch wird nichts draus. Das EVU dank Smart-grid Schaltung, lutscht den grad aus – das ist EEG-Mangelverwaltung.

Greenpeace Energy: Alles mit Ökostrom ist machbar

Greenpeace hat sich scheinbar vorgenommen, an Deutschland seine Macht zu prüfen und heraus zu bekommen, wie weit es damit gehen kann[7]. Hebel sind die vollkommen unsinnigen Klimaziele, die dank einer klimahysterischen Umweltministerin – und einer politischen Kaste, sowie Beratern[6] welche sie darin unterstützen – der Welt versprochen hat, Deutschland – koste es was es wolle – als Klima-Vorzeigeland zu präsentieren.

Als Hebel dienen dazu von Greenpeace beauftragte „Studien“, welche immer das Gleiche belegen sollen: Was Greenpeace will und fordert, kann durch genügend Wunder und vor allem Geldausgaben immer irgendwie Wirklichkeit werden. Das gilt für das Klima und natürlich auch für das EEG.

Eine solche Studie ist eben wieder erschienen: htw Berlin: Sektorkopplungsstudie [2]

Die Greenpeace Energy Sektorkopplungssstudie

Wie immer, gibt es dazu zwei vollkommen konträre Meinungen.

Klimaretter.Info als Sprachrohr einer Beraterin[6] unserer Umweltministerin überschlägt sich geradezu mit Lob. Endlich wurde wieder ein Professor gefunden, der das was die Mit-Herausgeberin C. Kemfert schon immer sagt bestätigt. Kleine Wehrmutstropfen bleiben nicht unerwähnt, aber im Großen Ganzen ist das, was dieser Professor errechnet hat doch einfach nur toll. Dass dieser Herr Professor reine Luftschlösser baut, jede Physik ignoriert (fehlende Speichertechnologien) und die einzige Begründung das 1,5-Grad Ziel ist erschüttert eine Regierungsberaterin nicht. Und die utopischen Kosten sind kein Mangel, sondern eine echte Herausforderung.

Schließlich hat das Ziel die Regierung vorgegeben. Aufgabe ist nicht, dieses in Frage zu stellen, sondern ausschließlich diesen Endkampf abgehobener Politiker und Berater um das Klima zu unterstützen.

Vorab zu den Kosten.

Das Beste ist immer, sie gar nicht zu ermitteln, sondern einfach Vermutungen anzustellen, wie es ein Herr Tritti(h)n schon vorgemacht und zielsicher daneben getroffen hat. So kann man hinterher zumindest keinen Rechenfehler nachweisen. Die Studie macht da keine Ausnahme:

[4] Den finanziellen Aspekt des Systemwechsels hat Quaschning in der Studie außen vor gelassen. Keiffenheim schätzt, dass das neue Energiesystem nicht nur sicherer ist als das jetzige, sondern auch günstiger. Neben wegfallenden Folge- und Ewigkeitskosten der fossilen Energieträger würden auch Milliarden an Euro durch das Ausbleiben von Energieimporten gespart.

Nun ein Kommentarauszug von Klimaretter

Klimaretter.Info [1]: Alles mit Ökostrom ist machbar

Deutschland klimaneutral zu machen bedeutet vor allem, die fossilen durch erneuerbare Energien zu ersetzen – nicht nur beim Strom, sondern auch für Wärme und Verkehr. Was offenbar für viele Politiker utopisch klingt, hat Volker Quaschning von der HTW Berlin jetzt durchgerechnet. Alles mit grünem Strom ist danach machbar, allerdings werden manche der Botschaften auch der Ökobranche nicht so gefallen.

"Gut 87 Prozent fehlen also noch an einer erfolgreichen Energiewende", schloss Volker Quaschning von der Hochschule für Technik und Wirtschaft (HTW) am Montag in Berlin. Er stellte eine umfangreiche Studie zur sogenannten "Sektorkopplung" vor. Die Studie geht, einfach gesagt, der Frage nach, wie viel Ökoenergie das Industrieland Deutschland für "alles" – also Strom, Wärme und Verkehr – braucht, wenn es gänzlich auf Atom, Kohle, Gas und Öl verzichtet – und zwar ab dem Jahr 2040.

Diese Marke ist für Quaschning das zeitliche Maß des Klimaschutzes, weil nur dann noch die Chance besteht, dass die Bundesrepublik ihren Beitrag zu einem globalen 1,5-Grad-Ziel leistet. Während derzeit selbst Greenpeace und Co "nur" eine Verdreifachung des Tempos der Energiewende verlangen, setzt Quaschning noch eins drauf und sieht eine vier- bis fünffache Beschleunigung als nötig an.

Ein paar Medien haben die Studie trotzdem unabhängig betrachtet und sind zu anderen Interpretationen gekommen.

DIE WELT [3]: Die absurden Auswüchse des Klimaschutzes

Viele Umweltpolitiker hatten Tränen in den Augen, als die Weltgemeinschaft beschloss, den globalen Temperaturanstieg auf 1,5 Grad Celsius zu begrenzen.

Nur: Was zur Erreichung dieses Ziels notwendig sein würde, war vielen wohl selbst im April dieses Jahres noch nicht klar, als die ersten 170 Staatsvertreter, unter ihnen Bundesumweltministerin Barbara Hendricks (SPD), den Klimavertrag im Hauptquartier der Vereinten Nationen in New York unterzeichneten. Das Papier sieht immerhin die "Dekarbonisierung" der Welt vor – also das Ende aller Emissionen des Treibhausgases Kohlenstoffdioxid. Das ist gleichzusetzen mit dem Ende aller Verbrennungsprozesse in Motoren, Heizungskesseln und Kraftwerken – denn dort entsteht das CO2.

Was es aber genau bedeutet, wenn man alle kohlenstoffhaltigen Brenn- und Kraftstoffe loswerden und durch Ökostrom ersetzen will, zeigt nun eine Studie, die Greenpeace Energy in Berlin präsentierte. Es handelt sich um die erste größere Untersuchung zum Thema "Sektorkopplung" – also die Ausweitung der Energiewende auf die Sektoren Verkehr und Heizwärme. Nach den Berechnungen des Studienautors Volker Quaschning von der Hochschule für Technik und Wirtschaft Berlin (HTW) müssen dafür etwa schon "gegen 2025 die Produktion von Fahrzeugen mit Benzin- und Dieselmotoren eingestellt und für den Güterverkehr wichtige Fernstraßen mit Oberleitungen versehen werden". Oberleitungen wie bei der Bahn sind der Studie zufolge auch über den deutschen Autobahnen nötig, weil selbstverständlich auch der gesamte Bus- und Güterverkehr in kürzester Zeit elektrifiziert werden muss. Konzepte und Kostenschätzungen gibt es dazu freilich noch nicht.

Was der politisch verordnete Tod des Verbrennungsmotors innerhalb der nächsten zehn Jahre für die deutsche Automobilindustrie, ihre Wettbewerbsposition, ihre Arbeitsplätze und ihre Standortpolitik bedeuten würde, darüber lässt sich die Studie nicht weiter aus. Denn es gibt noch andere wichtige Baustellen, etwa im Immobilienbereich: "Da bei Heizungssystemen von Produktzyklen von bis zu 20 Jahren ausgegangen werden muss, ist ein Verbot des Einbaus neuer Öl- und Gasheizungen sowie KWK-Anlagen ab dem Jahr 2020 erforderlich, um eine vollständige Dekarbonisierung im Jahr 2040 zu erreichen", heißt es in der Studie wörtlich.

Deutsche Heizungsbauer müssten sofort die Produktion umstellen

Die Angst vor einer „Öko-Diktatur“

Zieht man ab, dass Windräder immer höher und leistungsstärker werden, bedeutet dies wohl nicht die Verfünffachung der heutigen Zahl an Windkraftanlagen in Deutschland. Vielleicht reicht das Vierfache oder Dreifache aus. Selbst in diesem Fall müssten aber die Landbewohner sich – und ihre Kinder – mental darauf vorbereiten, dass aus den 26.000 Rotortürmen, die heute bereits in der Landschaft stehen, in den nächsten Jahren gut 80.000 Anlagen werden, wenn Greenpeace mit der vorgelegten Studie den Weg zum Pariser Klimaziel denn richtig beschreibt.

Inzwischen werden die Auswüchse der Klimarettung und des EEG so eklatant, dass sogar der FOCUS, sonst für jeden Klimaalarm unbegrenzt empfänglich, einem mutigen Redakteur die Gelegenheit gab, einen Artikel zu platzieren:

FOCUS ONLINE 14.06.2016 [5]: Klimaschutz-Paradox Kommentar: Energiewende richtet größeren Schaden an als die Klimaveränderung

Die Energiewende soll unseren Planeten retten. Dafür werden keine Kosten und Mühen gescheut. Doch der gute Wille verpufft, wenn wir dabei den Ursprungsgedanke überrennen, meint FOCUS-Online-Experte Florian Asche. Die Politik scheint dieses Paradoxon zu ignorieren.

Kürzlich diskutierte die Bundesregierung unter lautstarker Begleitung der Windindustrie über eine Verlangsamung des Ausbaus der Windenergie. Geld spielt in dieser Diskussion keine Rolle, die Verschwendung von Energie und die fehlende Speicherkapazität für Strom. Es ging darin um Zuschüsse und Ausschreibungen, um Klimaziele und Megawatt. Nur zwei Worte fehlten in der Debatte: Umweltschutz und Landschaftspflege.

Doch nichts ist uns zu teuer, wenn es um die Rettung unseres Planeten geht. Bis zum Jahr 2030 werden nach Erhebungen des Wirtschaftsrates insgesamt 400 Milliarden Euro für den guten Zweck der Energiewende lockergemacht. International betrachtet, ist diese Jahrtausendleistung völlig ohne Belang. Die so eingesparte Menge an CO2 entspricht nämlich der Ausstoßsteigerung in China innerhalb von drei Monaten.

Gleichzeitig sorgen unzureichende Stromnetze und fehlende Speichermöglichkeiten dafür, dass dieser gute Wille auch regional völlig nutzlos verpufft. Der Stromkunde zahlt mittlerweile dafür, dass andere Länder den von uns erzeugten Ökostrom abnehmen, um unsere eigenen Netze nicht zu überlasten. All das interessiert offensichtlich niemanden. Das ungeliebte Fracking der USA hat dort für CO2-Einsparungen gesorgt, die den Effekt in Europa um ein mehrfaches übertreffen.

Wäre Deutschland bereit gewesen, durch Energie-Allianzen einen Bruchteil seiner Mehrkosten für alternative Energien in Entwicklungsländern zu investieren, dann wäre der globale Klimanutzen deutlich höher gewesen. Doch niemanden scheint das wirklich zu interessieren. Im Gegenteil, die Apologeten der alternativlosen Windenergie haben Hochkonjunktur.

Es stellt sich inzwischen wieder die Frage: Muss in Deutschland immer alles erst durch „herausragende“ politische Gestalten und ihre willfährigen Mitläufer aus der vermeintlichen „Intelligenz“ vollkommen kaputt gemacht werden, bevor irgendwo Pflänzchen der Vernunft keimen können?

Nachtrag von Fred F. Mueller

Das Narrenschiff 4.0

Das Barometer fällt, es dreht auf Sturm

nur Schwachsinn kommt vom Kommandoturm

ein dumpfes Mahlen schüttelt die Turbinen

bekifftes Lachen tönt aus den Kabinen,

die Spannung schwankt wild wie stürmische See

im Fernsehen spiel’n sie nur Humbatätärä

Die Infrastruktur krankt, Szenarien sind frisiert

die Netze am Limit und Reserven blockiert

die Trafos ächzen, die Leitungen summen

Von den Windmühlen hört man warnendes Brummen,

Das Staatsschiff krängt, es rollt und stampft wie wild

Doch auf der Brücke setzt sich niemand ins Bild

Die Medien lügen, der Käpt’n ist selfie-trunken

Die Industrie in dumpfe Lethargie versunken

Im Wissenschaftsrat lauter meineid’ge Halunken

Die Bürokraten zu feig um SOS zu funken

Und „Burning Barbara“ führt das Narrenschiff

Mit Volldampf voraus und exakt Richtung Riff!

Sehr frei nach einem bekannten deutschen Liedtext

Fred F. Mueller

Quellen

[1] Klimaretter.Info: Alles mit Ökostrom ist machbar

http://www.klimaretter.info/forschung/hintergrund/21439-alles-mit-oekostrom-ist-machbar

[2] Hochschule für Technik und Wirtschaft Berlin: SEKTORKOPPLUNG DURCH DIE ENERGIEWENDE

http://pvspeicher.htw-berlin.de/sektorkopplungsstudie/

[3] DIE WELT: Die absurden Auswüchse des Klimaschutzes

http://www.welt.de/wirtschaft/article156381085/Die-absurden-Auswuechse-des-Klimaschutzes.html

[4] neue energie, Michael Hahn, 20.06.16: Studie zur Sektorkopplung unter Strom

https://www.neueenergie.net/wissen/technologien/unter-strom

[5] FOCUS ONLINE 14.06.2016: Klimaschutz-ParadoxKommentar: Energiewende richtet größeren Schaden an als die Klimaveränderung

http://www.focus.de/wissen/experten/florian_asche/klimaschutz-paradox-kommentar-energiewende-richtet-groesseren-schaden-an-als-die-klimaveraenderung_id_5612641.html

[6] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

http://www.eike-klima-energie.eu/news-cache/eine-professorin-klaert-den-vdi-auf-wie-das-eeg-wirklich-funktioniert/

[7] EIKE: Der Mensch verliert durch Kohlekraftwerke statistisch insgesamt 3 Stunden an Lebenszeit nachdem er vorher damit 40 Jahre Lebenszeit gewann, deshalb muss er Greenpeace zufolge auf billigen Kohlestrom verzichten 21.04.2016

http://www.eike-klima-energie.eu/news-cache/der-mensch-verliert-durch-kohlekraftwerke-statistisch-insgesamt-3-stunden-an-lebenszeit-nachdem-er-vorher-damit-40-jahre-lebenszeit-gewann-deshalb-muss-er-greenpeace-zufolge-auf-billigen-kohlestrom-verzichten/

EIKE: Paris COP21 Verpflichtung: Greenpeace und Hendricks wollen Deutschland über das 1,5 ° Ziel so arm wie Bhutan, Gambia oder Äthopien machen

http://www.eike-klima-energie.eu/news-cache/paris-cop21-verpflichtung-greenpeace-und-hendricks-wollen-deutschland-ueber-das-15-ziel-so-arm-wie-bhutan-gambia-oder-aethopien-machen/

EIKE: Greenpeace eNERGIE und IWES Fraunhofer fordern die vollständige Dekarbonisierung Deutschlands bis zum Jahr 2050 – die Politik macht angefeuert durch die Medien begeistert mit

http://www.eike-klima-energie.eu/news-cache/greenpeace-energie-und-iwes-fraunhofer-fordern-die-vollstaendige-dekarbonisierung/




Teil 1: Was geschah vor 10 000 Jahren?

Es ist nicht abschließend geklärt, ob es sich hier um einen größeren Zeitraum von einigen tausend Jahren handelt oder um ein punktuelles Ereignis. Die Wissenschaft hält ein punktuelles Ereignis, wie z.B. einen kosmischen Einschlag eher für unwahrscheinlich, weil man dafür Spuren oder Signale finden müsste, die man aber bisher nicht entdeckt hat. So ist es heute Praxis, das Ende der Eiszeit vor 18.000 bis 20.000 Jahren, zu ihrem Höhepunkt also, beginnen zu lassen mit einer Laufzeit von mehreren tausend Jahren. Auf dieser Basis erklären die Einzelwissenschaften überwiegend die jeweiligen Ereignisse, die in ihrem Kompetenzbereich liegen.
Was wissen wir über unsere Vorgeschichte in grauer Vorzeit?
Rund um die Erde gibt es Sagen, die durchgängig von Katastrophen in Form von Überschwemmungen und Feuer berichten (Sintflut). Selbst die Gestirne sollen am Himmel herumgeirrt sein.
Von Platon gibt es die berühmte Atlantis-Geschichte, in der an einem "einzigen schlimmen Tag und einer einzigen schlimmen Nacht" eine große Insel im Atlantik versunken sein soll, und zwar, man beachte, vor 11600 Jahren. Diese Idee hat die Menschheit immer inspiriert und inzwischen gibt es über 20 Orte, die für Atlantis gehalten werden. In zahlreichen Büchern wird das Thema behandelt. Unter diesen ragt das so reißerisch betitelte Buch "Alles über Atlantis" von Otto Muck heraus. Der Autor war nicht nur auf vielen Fachgebieten bewandert, er konnte auch logisch und in Zusammenhängen mit Zahlen umgehen. Er hat die Insel-Geschichte aufgegriffen und das Versinken im Meer folgendermaßen begründet: Von Nordwesten über Nordamerika kommend ist ein Asteroid beim Anflug auf die Erde in zwei Teile zerbrochen, im Bereich der östlichen Karibik in den Atlantik gestürzt und hat dort zwei längliche Löcher mit ca. 7 km Tiefe hinterlassen. Die Wucht des Einschlages soll zum Einsinken der östlich im Atlantik liegenden Insel geführt haben. Mit solchen Erklärungen hat sich die klassische Wissenschaft nie anfreunden können.
In der Wissenschaft kommt das Thema "Atlantis" kaum noch vor, der Name Otto Muck ist völlig unbekannt. Atlantis gibt es noch im Hotel-und Filmbereich, immerhin ein Ozean erinnert noch daran. 1992/93 hat das AWI Bremerhaven als deutscher Partner in Zentralgrönland ins Eis bis auf den Grund gebohrt, um aus den Bohrkernen etwas über unsere Erdgeschichte zu erfahren. Über die Bestimmung der O 18-Werte lässt sich das Temperaturprofil in Grönland über 100.000 Jahre zurückverfolgen. Bild 1 zeigt den gefundenen Temperaturverlauf der letzten 50.000 Jahre. Diese Kurve ist in mehrfacher Hinsicht äußerst aufschlussreich. Zunächst ist nicht zu übersehen, dass das Diagramm in zwei Abschnitte mit verschiedenem Charakter geteilt ist. Es gibt den Bereich 1 vor 10.000 Jahren und den Bereich 2 nach 10.000 Jahren. Die Einzelverläufe sind völlig unterschiedlich. Seltsamerweise wird diese Zweiteilung in der Wissenschaft als besonderes Merkmal nicht herausgestellt.
Der Bereich vor 10.000 Jahren ist gekennzeichnet durch einen sägezahnartigen Temperaturverlauf, wobei auffällt, dass die unteren Temperaturwerte, wie es sich für eine gute Säge gehört, markant spitz sind. Der Temperaturanstieg erfolgt extrem steil (im Jahresbereich), während die Abkühlung gemäßigter verläuft. Das ganze Spiel wiederholt sich in den letzten 120.000 Jahren 25-mal und ist benannt nach den Entdeckern als Daansgard-Oeschger-Ereignisse (D/O).

Bild 1
Nach 10.000 Jahren verschwinden diese sägezahnartigen Temperaturverläufe, die Temperatur steigt und verharrt auf einem nahezu konstant hohen Niveau bis heute. Der Wendepunkt zwischen Bereich 1 und 2 fällt zusammen mit dem D/O Null im Jahre 11.650. In der Fachwelt gilt der D/O Null- Punkt gar nicht als echter D/O-Punkt, was man daran erkennt, statt nach unten zu fallen, steigt die Temperatur weiter. Man hat den Eindruck, mit diesem Punkt verschwindet die Ursache, die im Bereich 1 für den Sägezahncharakter zuständig war. Auf die Frage, wie sind im Bereich 1 die seltsamen scharfkantigen Temperatursprünge zu erklären, ist teilweise von Milankovic- und anderen Sonnen- und Meereszyklen die Rede, in denen aber keine Sprünge vorkommen. Breiteren Raum nimmt Rahmstorfs Golfstromtheorie ein, die von zeitweiligen Stillständen des Golfstroms ausgeht.
Doch welche Ursachen gibt es dafür? Die vorherrschende These macht Süßwassereinbrüche, Dichte- und Salzgehaltsunterschiede dafür verantwortlich. Hier ist die grundsätzliche Frage zu stellen, durch welche Mechanismen die Temperaturänderungen in Zentralgrönland gesteuert werden, oder was der Golfstrom und die Temperatur in Grönland miteinander zu tun haben. Man kommt kaum daran vorbei, dass die Nähe bzw. die Ferne großer Wassermengen hier eine dominante Rolle spielen. Wir kennen das von den Begriffen See- und Kontinentalklima. Aus dem Bild 1 ist ablesbar, dass seit dem Punkt D/O Null der Golfstrom näher an Grönland herangerückt zu sein scheint, und zwar dauernd bis heute. Das wird auch dadurch bestätigt, dass plötzlich die 25 großen Temperatursprünge des Bereich 1 verschwinden. Für die Jetztzeit ist immer wieder die Rede davon, dass mit dem Klimawandel die Gletscher schmelzen würden und der gleiche Effekt eintritt, in dem das Schmelzwasser den Golfstrom erneut zum Stillstand bringt mit katastrophalen Kältefolgen für uns. Die Chancen dafür soll eine kleine Überschlagsrechnung zeigen. Für die derzeitigen Abschmelzraten der Grönlandgletscher findet man in der Literatur Werte zwischen 65 und 450 km^3 jährlich (die große Streubreite erklärt sich aus den Unsicherheiten der Messmethoden). Der Golfstrom strömt diesem Süßwasser mit 0,15 Km^3 /Sekunde (150 Sv) entgegen. Nehmen wir 250 km^3 jährlich an (das Abschmelzen Grönlands würde 10.000 Jahre dauern), so ergibt sich ein Mengenverhältnis von Salzwasser zu Süßwasser von ca. 18.000. Was soll da passieren? Offensichtlich nichts. Auch wenn die Schmelzrate deutlich steigen würde, hätte das kaum Folgen für den Golfstrom. Zu Zeiten des stärksten Meeresspiegelanstiegs vor 10.000 Jahren mit ca. 6 m pro Jahrhundert liegt das Verhältnis von Salzwasser zu Süßwasser bei 220. Auch hier ist es zweifelhaft, ob das Schmelzwasser den Golfstrom zum Stillstand zwingen könnte.
In den Computersimulationen wurde gefunden, dass von drei Varianten diejenige stabil ist, bei der der Golfstrom nur bis Island gelangte. Das wird in Bild 1 bestätigt, erreichen doch die oberen Temperaturen der D/O-Ereignisse nicht die heutigen Temperaturen im Bereich 2. Wenn heute von
Erwärmung und Gletscherschmelze die Rede ist, wird uns im Fernsehen immer ein Gletscher mit abbrechenden Eisschollen gezeigt. Der Durchschnittszuschauer glaubt, das Eis bricht ab, weil es wärmer wird. Das ist aber ein ständig kultivierter Irrtum. Abbrechendes Eis und Temperatur haben nichts miteinander zu tun. In der Antarktis brechen selbst im arktischen Sommer bei -12 °C ständig riesige Eisberge ab, weil das Eis in Richtung Meer fließt und die stützende Wirkung des Festlandes verloren geht.
Insgesamt ist die Erklärungslage für den Bereich 2 völlig unbefriedigend, ganz besonders fehlt eine Antwort auf die von der Wissenschaft gar nicht ernsthaft gestellte Frage, warum die Bereiche 1 und 2 so unterschiedlich sind. Die Neolithische Revolution, also das Sesshaft werden der Menschen für diesen Wandel verantwortlich zu machen, ist geradezu lächerlich. Genau so wenig ist der These zu trauen, die Menschen hätten die Mammute ausgerottet. Vor 10.000 Jahren haben etwa 4 Millionen Menschen auf der Erde gelebt, das heißt in unseren Breiten käme auf 1 km2 ein Bewohner. Hatte der wirklich nichts Besseres zu tun gehabt als diese Großtiere umzubringen (und wie?). Im Gegenteil, man spricht sogar von Kulturleere. Erst vor ca. 7.500 Jahren wurde Mitteleuropa durch vom Osten einwandernde Menschen besiedelt. Wer nach besseren Erklärungen sucht, was vor 10.000 Jahren geschah, der sollte die Frage nicht gleich vom Tisch wischen, ob an Platons Bericht über eine große Insel im Bereich der Azoren etwas dran sein könnte.
Stellen wir uns eine Welt mit einer großen Insel X im Atlantik vor:
Der Meeresspiegel ist 120 m (auch 145 m werden genannt) tiefer als heute. Die Neufundland-Bank ist noch Festland und ragt ca. 400 km weiter nach Süden. Dadurch wird der Golfstrom schon vor der amerikanischen Ostküste leicht nach Süden gelenkt und gezwungen, mit seinem Hauptstrom südlich an der Insel X vorbei zu strömen. Er trifft schließlich auf die Nordwestküste Afrikas. Der große Nutznießer ist die Sahara, die damals bekannter Weise durch die reichliche Beregnung grün war. Durch die zwischen der Neufundland Bank und der Insel X offene Meeresverbindung nach Norden von ca. 500-800 km Breite fließt nur ein Teil des Golfstroms (vielleicht 20%) quer zu seiner Hauptströmungsrichtung nordwärts in Gebiete, in die er auch heute noch fließt. Dadurch gelangt viel weniger warmes Wasser als heute in Richtung Grönland, so dass die Chancen für Gletscherbildung von Nordamerika bis Westasien deutlich steigen. Und da kommt ein Mechanismus in Gang, der auf Bild 1 abgezeichnet ist. Durch die jährlichen Niederschläge von ca.500 mm (+/- 200 mm) wachsen die Gletscher bis zu einer kritischen Höhe von vielleicht 3 bis 6 km. Dann beginnt das große Rutschen, begünstigt durch die flache Neigung der Neufundland Bank als ideale Rutschbahn. Das beginnt sehr plötzlich, wie die scharfe Spitze der Sägezahnkurve zeigt; und das geht schnell, deshalb der extrem steile Anstieg, weil plötzlich dem warmen Wasser der Weg nach Norden freigemacht wurde. Während die im Meer schwimmenden Eisberge tauen und ihre Gerölllast im Atlantik fallen lassen, beginnt im Norden die Grundsteinlegung für die nächsten Eisberge. Die heranwachsenden Eismassen versperren mit der Zeit dem warmen Golfstromwasser immer mehr den Zugang nach Norden, so dass die Temperatur in Zentralgrönland zwangsläufig sinken muss, bis nach 3.000-10.000 Jahren das Spiel von neuem beginnt, nachgewiesenermaßen 25 mal in über 120.000 Jahren. Was passierte inzwischen mit dem Golfstrom? Wahrscheinlich gar nichts. Angetrieben durch die natürlichen Kräfte wie Passatwinde und Corioliskraft zog er unbeeinflusst seine Bahn in Richtung Afrika. Verdünnungen durch Süßwasser und Salzgehalt spielten keine Rolle, weil sie den Hauptstrom gar nicht erreichten und anteilig zu schwach waren. In diesem Szenarium spielen CO2 sowie Sonnen- und Meereszyklen auch keine Rolle. Der Eike-Leser Liburg vermutete vor einiger Zeit in einer Frage, dass zu Zeiten der D/O- Ereignisse Wetteränderungen in Europa wesentlich stärker gewesen sein könnten als heute. Das vermute ich auch, denn die starken T emperaturänderungen werden auch in Europa angekommen sein. Es ist wahrscheinlich grundsätzlich kälter gewesen und zu Zeiten der Sägezahnspitzen wird es gewaltige Überschwemmungen gegeben haben.
Nachdem die D/O- Ereignisse mit der Insel-Theorie recht gut erklärt werden können, drängt sich die Hauptfrage auf: Was ist vor 11.650 Jahren um den Punkt D/O Null passiert?
Ich komme wieder an Platon nicht vorbei: die Insel X soll im Meer versunken sein und war dem Golfstrom kein Hindernis mehr. Ungehindert konnte sich der verstärkte Golfstrom nun in Richtung Europa und Nordatlantik ausbreiten. Diese Idee klingt ungeheuerlich, doch sehen wir uns die Fakten an.

Die Temperatur in Grönland steigt plötzlich und nähert sich einem bisher nicht bekannten hohen Wert an und das bleibt so bis heute. Nur einmal vor 8.200 Jahren gibt es einen ungeklärten kurzzeitigen Temperatursturz, in der Fachwelt als 8-k Event bezeichnet (dazu später). Große Temperaturschwankungen werden vom dauerhaft nahen Wasser nicht mehr zugelassen. Es kommt sofort zum Schmelzen der Eisberge und das Meer steigt mit Raten von über 6 m pro Jahrhundert. Bild 2 zeigt Messwerte aus zwei Quellen, die mit dem Gesagten recht gut übereinstimmen. Für den Beginn des Anstiegs gibt es auch andere Werte, allerdings in einem so großen Streubereich, dass eine Interpretation schwierig wird. Helmut Kuntz weist bei Eike in seinem Beitrag "Der Verlauf des Meeresspiegels im Holozän vom 7.4.2016" auch auf die Problematik fragwürdiger Proxys für diese frühe Zeit hin. Die Kurve 3 in Bild 2 habe ich aus Kurve 1 durch Extrapolation entwickelt, wobei der Zielpunkt D/O Null erstaunlich genau getroffen wird.


Bild 2

Es ist schon verwunderlich, dass der rasante Meeresspiegelanstieg um 120 m heute hinsichtlich einer Interpretation völlig von der Wissenschaft ausgeblendet wird, während für die nächsten 100 Jahre düstere Aussichten vorausgesagt werden, weil das Meer sich erstens wegen menschengemachter Erwärmung ausdehnt und zweitens die Gletscher schmelzen. Nur diese beiden Gründe werden in der Öffentlichkeit wahrgenommen. Laut Horst Montag: Meeresanstieg und Erdrotationsmessung 2012, Sitzungsbericht der Leibnitz-Sozietät 118 (2014), 203-215, gibt es aber noch weitere 15 Gründe! Es bleibt ein Rätsel der Klimawissenschaft, warum sie glaubt, auf diese Gründe verzichten zu können und die Öffentlichkeit damit im Unklaren lässt.
Wie sieht es aber wirklich mit der Ausdehnung des Meeres aus? Erwärmt sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm.
Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt. Verfechtern der Wolkenthese, wie Svensmark, wird dagegen das Leben schwergemacht.
Und was liefern die Gletscher?
Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. ca. 10 cm in einem Jahrhundert.
In der Antarktis schmilzt nichts, weil auch im Sommer die höchsten Temperaturen im Minusbereich liegen. Folglich wächst dort nach zahlreichen Quellen die Eismasse stärker als die Masse der abbrechenden Gletscher. Der Anteil der Festlandgletscher auf der Erde ist unerheblich (insgesamt 33 cm Meeresanstieg bei Totalschmelze). Insgesamt haben wir theoretisch im ungünstigsten Fall weniger als 15 cm Anstieg in 100 Jahren zu "befürchten". Das kann jeder selber nachrechnen, Superrechner sind dazu nicht nötig. Es ist ein Rätsel, wie " Fachleute " in zahlreichen Studien und Simulationen zu Anstiegen im Meter-Bereich kommen und sich dann noch in unsittlich große Streubereiche flüchten. Und jeder Forscher kriegt was anderes raus. Es gibt wohl kaum eine Wissenschaft wie die Klimawissenschaft, wo der Doppelsinn, der im Wort "Simulation" und seinen Nachbarbegriffen – Simulator/ Simulieren/Simulant – steckt, so häufig und dicht beieinander liegt.
Geradezu pikant wird das Thema Meeresspiegelanstieg durch eine Studie folgenden Inhalts:
Wird es wärmer, verdunstet mehr Wasser. In der Antarktis schneit es mehr, dieses Wasser wird dem großen Kreislauf entzogen, folglich sinkt der Meeresspiegel. Was ist an dieser Logik falsch? Allerdings haben Forscher der TU Dresden kürzlich einen Eismassenschwund in der Antarktis von 100 km^3 jährlich bestimmt. Das klingt gewaltig, entspricht aber lediglich einer Eisdicke von 8 mm. Die Messungen erfolgen mittels zwei Satelliten aus 500 km Entfernung, die kleinste Änderungen der Schwerkraft erfassen, die zum Beispiel entstehen, wenn Eismassen in verschiedenen Gebieten zu- oder abnehmen. Es ist eine fantastische wissenschaftliche Meisterleistung, wenn man mittels Schwerkraftänderung bei einer 4.800 m dicken Eisschicht messen "kann", ob diese um 8 mm gewachsen oder geschrumpft ist. Dies muss aber hinterfragt werden wegen einer Vielzahl von Stör- und Fehlerquellen, die selbst ständig variabel sind (z.B. schwankende Luftfeuchtigkeit oder unbekannte, wechselnde Dichteschwankungen im Erdinneren).
Aber zurück zum Thema. Es ist mir unbegreiflich, warum die Wissenschaft nicht wissen will, wie die Mammute gestorben sind und warum sie nach 10.000 Jahren so gut erhalten sind; so gut, dass es in fünf Jahren geklonte Mammute geben wird (meine Wette). Ich habe eine VHS-Aufnahme von einem Mammut mit frischem Gras im Maul. Es sieht so aus, als ob das Tier von einer Giftgaswolke überrascht worden ist und dann kam innerhalb von Stunden die große Kälte und blieb über 10.000 Jahre.
Die eingangs gestellte Frage, ob es sich beim Ende der Eiszeit um einen allmählichen Vorgang oder um ein plötzliches Ereignis handelt , lässt nach Abbildungen 1 und 2 und dem hier Gesagten nur  den Schluss zu, dass mit hoher Wahrscheinlichkeit ein plötzliches Ereignis die Ursache für das Ende der Eiszeit war.

Damit wird auch eine Antwort auf die oft gestellte Frage erleichtert, wann die nächste Eiszeit kommen wird. Was in den letzten 10.000 Jahren nicht passiert ist, das wird auch in Zukunft nicht passieren, es wird keine Temperatursprünge der Daansgard-Oeschger-Art mehr geben, weil die Ursache dafür verschwunden ist. Zu glauben, dass die nächste Eiszeit nur deshalb ausfällt, weil die Menschheit zu viel CO2 in die Luft bläst, ist ein Thema für Märchenerzähler.

Für die nahe Zukunft ist aus dem Temperaturverlauf der in diesem Fall nutzbaren IPCC-Kurve für 1860-2000 herauszulesen, dass wir ab 2000 für mindestens 4 Dekaden mit stagnierenden oder sogar sinkenden T emperaturen umzugehen haben. In der dreistufigen, treppenförmigen Temperaturkurve stehen wir seit 19 Jahren auf der obersten Stufe. Der erste Anstieg erfolgte von 1920 bis 1940, der zweite von 1980 bis 2000, in den restlichen 100 Jahren blieb die Temperatur konstant, ja sie fiel sogar (in den Siebzigern wurde sogar eine neue Eiszeit befürchtet). Einige Forscher (Die kalte Sonne) haben das längst herausgefunden und begründet.

Nachdem die bisherigen Ausführungen unter der These gestanden haben, dass es im Atlantik eine Insel gegeben haben soll und dass diese Insel untergegangen ist, muss nun gesucht werden, wie es zum Untergang dieser Insel gekommen ist. Änderungen von solchen Ausmaßen sind im Allgemeinen nur durch Einschläge kosmischer Objekte zu erklären. Vor 65 Millionen Jahren hat es auf diese Art die Saurier erwischt. A. und E. Tollmann haben in ihrem Buch "Und die Sintflut gab es doch" eindrucksvoll aufgelistet, welche Vorgänge sich da abspielen: Druckwelle, Hitzewelle mit Bränden, Giftgasbildung (Stickstoffverbindungen), Tsunamis in km-Höhe, lange Dunkelheit, Kälte, Sintflut und Sturzregen, Massenaussterben. Man kann wohl ruhigen Gewissens davon ausgehen, dass all dieses vor 10.000 Jahren geschehen ist, weil Geschichten aus grauen Vorzeiten rund um die Erde davon berichten. Tollmann’s haben eine Zeit vor 9.545 Jahren für einen Einschlag angegeben. Eine Verbindung zu einer untergegangenen Insel im Atlantik können sie nicht erkennen. Otto Muck kommt auf 10.500 Jahre anhand einer Maya-Chronologie. Mir scheint der Zeitpunkt vor 11.650 Jahren, dem D/O Null-Punkt anhand der GRIP und GISP 2 Bohrungen und Bild 2 / Kurve 3, am glaubwürdigsten. Auch Platons Zeitangabe kommt dem entgegen. Nach H. Lesch wurden in Ägypten 9.000 Jahre altes bearbeitetes Kupfer und Keramik gefunden, was auf eine gewisse Hochkultur hindeutet. Zeugnisse von Hochkulturen gibt es auch an anderen Stellen der Erde. Es stellt sich die Frage, ob einiges, was Erich von Däniken Außerirdischen zuschreibt, nicht besser früheren, aber heute unbekannten Kulturen zuzuordnen ist. Darüber wird man mit ihm wohl nicht reden können. Ist es nicht seltsam, dass nach den Neandertalern lange nichts passiert ist und dann sozusagen "plötzlich" die großen Kulturen im Orient in die Geschichte eintreten.

Nach Otto Muck ist der besagte Asteroid von Nordwesten über Nordamerika kommend in zwei Stücken in den mittleren Atlantik gestürzt und hat dort zwei längliche Löcher von heute noch ca. 7 km Tiefe hinterlassen. Die Wucht des Einschlags, überlagert durch Kilometer hohe Tsunamiwellen haben im Bereich der Azoren zum Aufbrechen der Erdkruste geführt. An der Stelle, wo drei Kontinentalplatten aufeinander stoßen und die Erdkruste am dünnsten ist, ist ein Teil des Festlandes mit hohen Bergen abgebrochen, so dass eine frei schwimmende Insel entstanden sein kann. Auch wenn nur schwer vorstellbar, physikalisch und geologisch sollte das möglich sein. An den Rändern der absinkenden Insel ist das Magma ausgetreten, hat sich mit dem Meereswasser vermischt und riesige Materialmengen wurden in die Luft geschleudert, größenordnungsmäßig 1,5 Millionen km^3 bei 3 km Einsinktiefe. Dieses Material ist auf der nördlichen Halbkugel rund um die Erde abgelagert worden. Ein Teil davon ist noch erhalten, wir nennen es Löss. Die Lössablagerungen werden nach der gängigen Theorie erklärt als vom Wind transportierter Abrieb von Steinen am Rand der Eiszeit- Gletscher. Südlich von London gibt es eine 8 m dicke Lössschicht, die schon von den Römern vor 2.000 Jahren als Material zum Brennen von Lehmziegeln gedient hat, weil es in London keine Steine zum Häuserbauen gegeben hat. Wo sollen eigentlich die vielen Steine gelegen haben westlich von London und für die 300 m dicken Lössbänke in China? Die Lösstheorie glaubt auch, dass eine Vegetationsschicht (Gras) notwendig ist, um den Staub fest zu halten. Das halte ich für fragwürdig; zwei Monate nach der Dresdener Flutkatastrophe 2001 war von der 10 cm dicken Schlammschicht
auf den Elbwiesen nichts mehr zu sehen, weil das Gras erstaunlich schnell wieder die Oberhand gewonnen hatte. Im Löss findet man aber nirgendwo Gras.
Ich stand kürzlich vor einer 4 m hohen, völlig fremdkörperfreien, homogenen Lössschicht, die nach Angaben des Bautzener Museums vor 10.000-14.000 Jahren entstanden sein soll. Die darüber liegende Erdschicht, die 10.000 Jahre Zeit hatte zu wachsen, hatte aber nur eine Dicke von weniger als einem halben Meter. Das Wachstumsverhältnis zwischen beiden Schichten ist völlig unnatürlich. Es mutet auch seltsam an, wenn man einen Klumpen Löss in Wasser löst und in dem Schlamm nicht die Spur eines Sandkorns findet. Das Material muss als Feinststaub in Wolken transportiert worden sein. So ist nur folgerichtig, dass Löss in China noch feiner ist als in Deutschland. Löss wird heute als Heilerde angeboten. Ich vermute, dass die Wissenschaft sich schon Jahrzehnte nicht mehr mit der Lössforschung befasst. Das Thema scheint einfach zu unergiebig zu sein (es fehlt der Klimawandel).
Die gigantischen Schlammwolken verteilten sich innerhalb weniger Tage über die gesamte Nordhalbkugel, es wurde für lange Zeit dunkel und kalt. So erklärt sich das Schicksal der Mammute und anderer Großtiere. In Nordamerika wurde die Clovis-Kultur zuerst unter einer schwarzen, vom Feuer herrührenden Rußschicht mit angesengten Tierknochen begraben. Dann folgte die dicke Lössschicht. Funde von Iridium und Seltene Erden dort erinnern an die Zeit vor 65 Millionen Jahren, und die Dinosaurier. Es gibt auch Spuren in Form von Mikrometeoriten und kleineren Einschlägen um Charleston an der Atlantikküste. Große Einschlagsspuren sind auch nicht zu erwarten, weil die Hauptstücke im Wasser des Atlantiks einschlugen. Außerdem hat der Geologe Peter Schultz durch Versuche nachgewiesen, dass eine km-dicke Eisschicht (wie sie damals existierte) die Energie eines großen Himmelskörpers so stark aufzehrt, dass der Boden nicht mehr die typischen Krater zeigt. Die Aale mussten sich wegen des Verschwindens der Insel X ein neues Festland suchen, deshalb der für die Aalforschung so rätselhafte Knick der Wanderroute von 45 Grad nach Norden im Bereich der Azoren. Demnach dürfte es vor mehr als 10.000 Jahren in Europa keine Aale gegeben haben; vielleicht geht mal jemand dieser Frage nach. Im Schutze der Berge der Ostpyrenäen haben wahrscheinlich einige Menschen überlebt. Das sind heute die aufmüpfigen, nicht integrierwilligen und mit seltsamer Herkunft und Sprache versehenen Basken, deren Sprache mit südamerikanischen Sprachen verwandt sein soll. Interessanterweise ist der siebzig Jahre alte Beitrag von Muck in seinem Atlantisbuch über die Basken aufschlussreicher als der gegenwärtige Wikipedia Beitrag.

Teil 2 folgt in Kürze




Platzt bald die nächste technische EEG-Illusion? Gleichspannungs-Übertragungsleitungen zeigen sich als enorm störanfällig

NWZ Online [1]: Technische Probleme an den komplexen Offshore-Windparks und ihrer Anbindung haben mehrfach Probleme und Millionenverluste durch hohe Ausfallkosten verursacht. 

In den Offshore-Windparks steckt hochkomplexe Technik. Die Anlagen mit ihrer Netzanbindung müssen sich im Alltag noch bewähren, wie die Praxis zeigt.

Norderney/Bayreuth Nach mehreren Defekten ist eine wichtige Stromverbindung von zwei Nordsee-Windparks zum Stromnetz an Land unterbrochen. Die Offshore-Netzanbindung Dolwin 2 sei noch während der Testphase für Reparaturarbeiten vom Netz genommen worden, teilte Geschäftsführer Lex Hartman vom Netzbetreiber TenneT am Dienstag in Bayreuth mit. TenneT forderte den Kabelhersteller ABB auf, den Fehler zu beheben, damit es später keine Probleme im Netzbetrieb und keine Belastungen für Stromverbraucher gebe. Zudem müsse ABB untersuchen, ob ein Einzelfall oder ein systematischer Materialfehler vorliege.

Technische Probleme an den komplexen Offshore-Windparks und ihrer Anbindung haben mehrfach Probleme und Millionenverluste durch hohe Ausfallkosten verursacht. Zuletzt sorgte 2013 der Windpark Riffgat bei Borkum für Spott, weil er wegen zahlreicher Munitionsfunde am Meeresboden verspätet in Betrieb ging und zeitweise mit Notstrom aus Dieselaggregaten versorgt wurde. Riffgat stand zum Jahresbeginn nach einem Kabeldefekt erneut mehrere Wochen still.

Es ist also immer wieder das Gleiche, wie es bei der „Energiewende“ Standard ist: zuerst wird aus einer Not entschieden und gebaut – und dann erst überlegt und geschaut.

Was sind die Probleme:

Allein in der Testphase versagte schon die fünfte Kabelmuffe. Da sich der landseitige Konverter von DolWin2 aber in Dörpen befindet und die Landtrasse ca. 100 km lang sein dürfte, kann man davon ausgehen, dass es über 120 solcher inzwischen als potentiell ausfallgefährdet zu betrachtende baugleiche Kabelmuffen gibt. TenneT hat scheinbar nun die Reißleine gezogen, lehnt den weiteren Testbetrieb ab und fordert von ABB eine Reparatur.

ABB steht nun scheinbar vor dem Dilemma:

-äußerst kostenintensiv alle über 120 Muffen zu tauschen,

-die Betriebsspannung des Kabels und damit die Übertragungskapazität auf ein muffenverträgliches Maß zu reduzieren (damit steigt künftig automatisch das kostspielige Abregeln der Offshorewindparks und es müssten zusätzliche teure Trafoaustausche onshore- und offshoreseitig vorgenommen werden,

-oder man ändert das gesamte Kabelkonzept und ändert die bisherige Belegung der beiden Kabel für Leiter/Rückleiter und klemmt sie parallel (das sind wohl vorerst die noch näher zu untersuchenden Ideen von ABB).

Nun muss man sich vorstellen, dass diese Übertragungstechnik in Deutschland demnächst tausende Kilometer unter die Erde verlegt werden soll. Und damit multiplizieren sich die bei Gleichstromübertragung anscheinend noch nicht beherrschten Muffenverbindungen in ganz andere Dimensionen.

Wieder wird damit eine noch unausgereifte und störanfällige Technik aus rein politischen Gründen buchstäblich „in den Sand“ gesetzt. Bezahlen muss es natürlich der Stromkunde per Gesetz.

Bei den Offshore-Windparks sowieso:

-Der Ausfall des Kabels dauerte ca. 6 Monate, der OWP-Betreiber EWE kassierte erneut ca. 60 Mio Entschädigung für nicht eingespeisten Strom.

Bei den unter die Erde verlegten Gleichstromkabeln wird es nicht anders werden.

Quellen

[1] NWZ Online: Kabeldefekt:

Keine Stromverbindung zu Nordsee-Windparks

http://www.nwzonline.de/wirtschaft/weser-ems/keine-stromverbindung-zu-nordsee-windparks_a_31,0,1640286939.html




Mit Geldverbrennen Klima retten

Es geht um nichts weniger als die Rettung der Welt vor dem Klimatod. Was sind dagegen schon ein paar Milliarden $ oder € – auch egal? 

So jedenfalls denkt das Südafrikansich – kanadische Geschäftswunderkind Elon Musk und handelt danach.

Er will für 2,7 Mrd ¢  die restlichen 80 % der Anteile des US Solarfirma SolarCity, nach eigenen Angaben größere Solarausrüster für den Privathaushalte der USA, die derzeit mehrheitlich seiner beiden Cousins gehört, kaufen. Musk nennt auch den Grund:

"Warum machen wir das, warum gibt es Tesla, warum stellen wir elektrische Autos her und warum ist das wichtig?", fragte der Gründer und Vorstandschef und gab die Antwort gleich selbst. Man müsse den Klimawandel stoppen. "Das ist wirklich wichtig für die Zukunft der Welt."

Kleiner geht´s bei Musk nicht. Ehrlich geht auch nicht.

Man kann´s ihm glauben oder nicht. Für den weniger Klimabesoffenen sieht die Situation ganz anders aus. Musk muss die Flucht nach vorn antreten. 

Denn keines seiner Unternehmen, die er immer mit großem Getöse gründete und auch betreibt macht Gewinn. Im Gegenteil, deren Verluste sind astronomisch hoch.

Allein in seinem Vorzeige Unternehmen TESLA hat er bei ca. 4 Milliarden US $ Umsatz und nur im letzten Jahr einen Verlust von 889 Mio ¢ eingefahren. Bisher hat ihm die Obama Regierung mit großzügigen Subventionen in Höhe von über 4 Mrd ¢ immer wieder aus der Klemme geholfen, auch die Tesla-Aktionäre wurden zur Kasse gebeten und mussten 1,5 Mrd € nachschießen.

So macht Klimaretten eben Spaß – alles für den guten Zweck. Europa machts vor, wenn auch mit Steuerzahlergeld, es lässt grüßen.

Aber seine Neuerwerbung toppt das Geldverbrennen noch einmal locker. Bei ca. 400 Mio $ Umsatz machte SolarCity einen Verlust von 769 Mio $. Der CEO Lyndon Rive sagte dazu: "Wir sind nicht glücklich mit den Ergebnissen."

Diese Untertreibung des Jahres erlaubte sich nicht einmal weiland die Deutsche Bank als sie Leo Kirch in die Pleite trieb oder jetzt VW

Nun, Obama und der US Steuerzahler werden´s schon richten. Wie bisher auch immer.

Vielleicht will Musk aber auch nur den Punkt auf NoReturn errreichen.

"Too big to fail"

Zuzutrauen wäre es ihm. Weitere Details hier

P.s. Man kann sich nur wundern warum die Medien unisono über Donald Trump herfallen und kein gutes Haar an ihm lassen, während sie einem wie Elon Musk jauchzend hinterher hecheln.

Vermutlich ist der Grund der: Trump hat Gewinn gemacht und viel Geld verdient. Und Profit ist böse. Musk hingegen macht Riesenverluste, er verbrennt viel Geld, aber für einen – so glauben die Medien jedenfalls- guten Zweck. Oder weiß jemand mehr?




Fällt die AfD beim EEG um?

Doch nun bekommt diese Hoffnung einen harten Dämpfer. Die AfD-Fraktion im Sächsischen Landtag stellte einen Antrag:

Erprobung der Integration von Smart-Grid-Technologien und Ladetechniken für Elektroautos an Arbeitsplätzen durch den Freistaat Sachsen“

Dazu erklärt der AfD-Landtagsabgeordnete, Gunter Wild:

[1] „Unsere Fraktion bewertet die Förderung alternativer Antriebsarten positiv. Erfahrungen der Vergangenheit haben aber gezeigt, dass es eine Akzeptanz neuer Antriebsarten nur bei genügend entsprechenden Tankstellen gibt. Das weiß ich als überzeugter Auto-Gas-Fahrer ganz genau. Ein schlechtes Tankstellennetz gefährdet dagegen die Akzeptanz der neuen Elektroautos. Supermärkte als Schwerpunkt-Tankplätze genügen nicht. Zudem belasten Schnellladestationen massiv die Stromnetze. Die so genannte Smart-Grid-Technologie wurde vom Frauenhofer-Institut und namhaften Autoherstellern entwickelt und hat zum Ziel, erzeugten Überschussstrom verstärkt dafür zu nutzen. Durch diese Technologie, wird das Auto langsam aufgeladen – dort wo sich der Autofahrer die meiste Zeit aufhält. Also zu Hause oder am Arbeitsplatz. Energie, die einmal da ist, muss man auch nutzen.“

Was der AfD Landtagsabgeordete als Begründung von sich gibt zeigt, dass keinerlei Sachkenntnis vorliegt und auch dieser Politiker jeden Stuss unserer Medien glaubt.

Der Autor behauptet nämlich, dass Smart-Grid weder von den Autoherstellern entwickelt wurde, noch Einfluss auf das „… langsam aufgeladen … „ von Elektroautos hat. Der einzige Sinn und Nutzen von Smart Grid in der EEG-Stromversorgung ist die Möglichkeit, Energiemangel besser zu rationieren und genauer – bedeutet höher – mit Gebühren zu belasten, sowie den Herstellern Gelegenheit zu geben, sich eine goldenen Nase durch das Zwangs-Auswechseln der bewährten und einfach unsittlich unverwüstlichen Haushalts-Ferraris-Zähler zu verdienen, von den Heerscharen an dazu benötigten IT-Fachleuten für die DV-Hintergrundsysteme und Leitwarten ganz abgesehen.

Immerhin ist bis zu diesem Landtagsabgeordneten schon durchgedrungen, dass Schnell-Ladestationen ganz schön viel Strom brauchen, der mangels Zuleitungsstärke beileibe nicht an jeder Hausecke zur Verfügung steht und im Netz auch zu dem Zeitpunkt vorhanden sein muss.

Nur ist seine Ableitung dann hanebüchen:

Langsames Laden von Elektroautos ist beim EEG-Zappelstrom keine Lösung. Einmal, weil die Sonne nachts immer noch nicht scheint und der Wind dem Beispiel der Unzuverlässigkeit geradezu penetrant folgt. Wann also Überschussstrom vorliegt, ist unplanbar und die zeitliche Länge steht dann in den Sternen. Die „überschüssige Energie“ könnte also realistisch nur mit Schnellladestationen in Elektroautos gelangen, sofern diese zufällig an einer Stromtankstelle hängen und der Akku auch leer ist – alles andere erfordert Zwischenspeicher, die es für diese Energiemengen nicht gibt und nicht geben wird, weil dann die Preise in ungeahnte Höhen steigen[2]. Nicht umsonst lautet die einhellige Empfehlung, überflüssigen Strom wegzuschmeißen, weil das immer billiger kommt als der Versuch, ihn zu speichern. Dass man die Akkuspeicher, welche zur Regelenergie-Bereitstellung[3] inzwischen auch von lokalen EVUs für Wahnsinnssummen aufgebaut werden der Öffentlichkeit als „Energiespeicher“ verkauft, steht auf einem anderen Blatt, löst aber das Speicherproblem nicht.

Nun kann man über die Anträge von politischen Landtagsfraktionen hinwegsehen, denn diese sind gerade bei Oppositionsparteien oft bis meistens das Gegenteil von durchdacht oder wirklich sinnvoll.

Die AfD ist aktuell aber eine Protestpartei. Und dies bestimmt nicht wegen eines genialen Programms, sondern alleine wegen dem Versagen der etablierten Parteien. Wenn sie das vergisst und bei der Klimahysterie und dem EEG-Wahnsinn zum Öko-Glaubensmainstream der Regierungsparteien umschwenkt oder gar meint den Grünen Konkurrenz machen zu müssen, dürfte ihr Schicksal genau so schnell und so sicher wie bei den „Piraten“ besiegelt sein.

Bleibt nur zu hoffen, dass diese Gefahr im AfD Bundesvorstand noch früh genug erkannt und behoben wird und nicht ein Versicherungsvertreter (Gunter Wild) aus Unkenntnis, aber Begeisterung in der (für ihn wohl falschen) Partei ein Pöstchen ergattert zu haben, diese kaputt machen darf.

Der Autor dankt Herrn Duepmann, Vorsitzender NAEB e.V. für den Hinweis und Information in seinem Newsletter. Daraus wurden auch Passagen für diesen Artikel übernommen.

Quellen

[1] NAEB-Strom-Newsletter 2016/06Wandelt die AfD (Beritt von Frau Petry) jetzt auf Trittins Pfaden? (Überschußstrom)

[2] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

http://www.eike-klima-energie.eu/energie-anzeige/elektro-energiespeicherung-notwendigkeit-status-und-kosten-teil-3-abschluss/

[3] EIKE 6.6.2015: Schlaraffenland im EEG-Paradies – Wie man die Verbraucher gegeneinander ausspielen und dann austricksen kann

http://www.eike-klima-energie.eu/energie-anzeige/schlaraffenland-im-eeg-paradies-wie-man-die-verbraucher-gegeneinander-ausspielen-und-dann-austricksen-kann/