1

Hat Kolumbus versehentlich die kleine Eiszeit angestoßen? So mancher Professor ist davon überzeugt

        Die kleine Eiszeit

Es handelt sich dabei um die Abkühlungsperiode nach der mittelalterlichen Warmzeit, welche mit dem Beginn des AGW-Klimawandels endete. Wie immer beim Klimawandel, sind viele Daten dazu umstritten, deshalb nur der Versuch einer kleinen, informativen Darstellung.

WIKIPEDIA: Die Kleine Eiszeit war eine Periode relativ kühlen Klimas von Anfang des 15. Jahrhunderts bis in das 19. Jahrhundert hinein. Sie gilt in der heutigen Klimadiskussion als das klassische Beispiel einer durch kurzfristige Schwankungen geprägten natürlichen Klimavariation.
Auch
während der Kleinen Eiszeit gab es erhebliche Klimaschwankungen; zum Beispiel waren die Zeiträume von 1570 bis 1630 und von 1675 bis 1715 besonders kalte Zeitabschnitte
Der Kleinen Eiszeit ging eine Periode voraus, die als mittelalterliche Warmzeit bezeichnet wird; sie ist inzwischen weltweit nachgewiesen. Regional und zeitlich unterschiedlich gewichtet lagen die Temperaturen während der Kleinen Eiszeit global um bis zu 0,8 K niedriger als während der vorangegangenen Jahrhunderte, in einigen europäischen Regionen auch 1 bis 2 K. Während der Mittelalterlichen Warmzeit zog sich zum Beispiel im nördlichen Atlantik das Packeis nach Norden zurück, und die Landgletscher verschwanden teilweise. Diese Erwärmung erlaubte es den Wikingern, Island (seit etwa 870) und Küstenbereiche von Grönland (seit 986) zu besiedeln.
Die Kleine Eiszeit war eine Erdabkühlung, die mit regionalen und zeitlichen Schwerpunkten weltweit auftrat und für Europa,
Nordamerika, Russland und China und auch für Arktis und Antarktis (in letzterer durch polare Eisbohrkerne) nachgewiesen ist. … Das Gletscherwachstum während der sogenannten „Kleinen Eiszeit“ war das stärkste seit der langandauernden Vereisung der letzten Eiszeit

Wie immer beim Klimawandel, schwanken die Angaben erheblich. Beim wiki Bildunggserver steht dazu:
Kleine Eiszeit
Die genaue Datierung der kleinen Eiszeit ist unter Forschern zwar nicht einheitlich, es steht jedoch fest, dass etwa zwischen 1300 und 1900 n. Chr. insgesamt kühlere Umweltbedingungen herrschten …
Den Beginn der kleinen Eiszeit stellt eine abrupte Abkühlung der Sommer im Zeitraum 1275-1300 dar … Von 1430-1455 intensivierte sich der Kälteeinbruch weiter und die Temperaturen in ganz Europa nahmen weiter ab… Der kälteste Abschnitt der kleinen Eiszeit wurde etwa um 1550 erreicht

Wer oder was verursachte die kleine Eiszeit

WIKIPEDIA:
Als Ursachen für die Kleine Eiszeit gelten hauptsächlich eine geringere Aktivität der Sonne sowie ein verstärkter Vulkanismus. Für Wiederbewaldung, die durch Bevölkerungsrückgang oder durch regionale Klimaänderungen hervorgerufen worden sein könnte, sowie veränderte Meeresströmungen wird eine verstärkende Rolle vermutet. Zusätzlich zu diesen über Zeiträume von Jahrzehnten wirkenden Einflüssen gab es einen geringen, über Jahrtausende reichenden Abkühlungstrend, der durch Änderungen der Erdumlaufbahn bewirkt wurde.
Wiederbewaldung infolge von Bevölkerungsrückgang
Ruddiman (2003)
schlug die Hypothese vor, dass massiver Bevölkerungsrückgang zu einer Wiederbewaldung geführt haben könnte. Diese hätten genug Kohlenstoff aus der Luft gebunden, um durch die daraus resultierende Verringerung der CO2-Konzentrationen die kleine Eiszeit auszulösen. Ruddiman vermutet speziell die Pestepidemien des späten Mittelalters als Auslöser. Es wurde auch vermutet, dass durch den massiven Bevölkerungsschwund auf den amerikanischen Kontinenten, ausgelöst durch von Europäern eingeschleppte Krankheiten, die zuvor genannten Ursachen noch verstärkt wurden.
Nach der Dezimierung der Bevölkerung in Amerika um ca. 95 % wurden große Teile von zuvor mit Feuer gerodeten Ackerflächen wiederbewaldet, wodurch Schätzungen zufolge
2 bis 5 Gigatonnen Kohlenstoff aus der Atmosphäre gebunden worden sein könnten. Das entspricht ca. 4 bis 14 % eines Rückgangs der CO2-Konzentrationen um 7 ppm, der in den Zeitraum 1550–1750 fällt. Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt.

Die „Indianer-Hypothese“

Eine Quelle für die „Indianer-Hypothese“ ist beispielsweise:
SCIENCE NEWS, October 13, 2011, Devin Powell: [2] Columbus‘ arrival linked to carbon dioxide drop, Depopulation of Americas may have cooled climate

Trees returned, reforesting an area at least the size of California, Nevle estimated. This new growth could have soaked up between 2 billion and 17 billion metric tons of carbon dioxide from the air.

Ice cores from Antarctica contain air bubbles that show a drop in carbon dioxide around this time. These bubbles suggest that levels of the greenhouse gas decreased by 6 to 10 parts per million between 1525 and the early 1600s.

Ein Artikel darüber erschien in:
TELEPOLIS, 18. Oktober 2011, Peter Mühlbauer: [4] Kleine Eiszeit“ durch Bevölkerungsschwund in Amerika?
Der Geochemiker Richard Nevle sieht im Regenwaldwachstum nach der Conquista einen möglichen Grund für die häufigen Missernten, die Europa zwischen 1550 und 1850 verbuchte.
Bisher wird diese Kleine Eiszeit unter anderem mit einem Rückgang der Sonnenaktivität, einer Verdunkelung durch Vulkanausbrüche und Veränderungen in Meeresströmungen erklärt. Nevle geht davon aus, dass durch die natürliche Wiederaufforstung zwischen 2 und 17 Milliarden Tonnen Kohlendioxid gebunden wurden, was seiner Ansicht nach ausgereicht haben könnte, um den Rückgang des Kohlendioxidanteils um sechs bis zehn Teile pro Million zu erklären, der sich zwischen 1525 und 1600 in eingefrorenen Luftblasen im Antarktiseis feststellen lässt. Dieser Rückgang des Kohlendioxidanteils könnte Nevle zufolge den Treibhauseffekt spürbar vermindert und damit maßgeblich zur Abkühlung der Erde beigetragen haben.

Der Verlauf der kleinen Eiszeit

Im Bild 1 kann man die kleine Eiszeit sehen. Diese geringe Temperaturverringerung (schwarze Linie) verursachte katastrophale Missernten – ein deutlicher Hinweis, dass eher Kälte als Wärme für die Welt ein Ernten-Ertragsproblem darstellt. Bild 2 zeigt dazu den CO2-Verlauf der Atmosphäre. Dieser ist als rote Linie in das Bild 2 hineingezeichnet.

Die rot gestrichelten Zeit-Begrenzungen kennzeichnen die Zeitspanne des „Indianer-Klima-Einflusses“.

Bild 1 Temperaturproxis Klimaverlauf Jahr 1 – 2000, Quelle: IPCC AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor angegraut. Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre von 700 – 2000. Quelle: IPCC AR4 2007: Figure 1. Die globale Mittelwertkurve aus der Darstellung IPCC AR5, Land und See global wurde vom Autor verstärkt dargestellt (dicke, schwarze Verlaufskurve). Die zwei rot gestichelten, vertikalen Linien kennzeichnen den Zeitraum von 1525 – 1700. Die dicke, rote Verlaufskurve zeigt den CO2-Verlauf (maßstabslos) von 1000 – 2000 (vom Autor aus Bild 2 entnommen)

Bild 2 Verlauf des CO2-Anteils in der Atmosphäre von 1000 – 2000.Quelle: [4] WUWT, Text: this citation in Wikipedia: Law Dome ice cores show lower levels of CO2 mixing ratios during 1550-1800 AD, leading investigators Etheridge and Steele to conjecture “probably as a result of colder global climate”.

Wiederholung: Die „Indianer-Einfluss“ Hypothesen

Anmerkung: Auf WIKIPEDIA wird auch über die Hypothese der Europäischen Bevölkerungsdezimierung berichtet (Ruddimann). Aus bestimmten Gründen wird hier jedoch nur auf die Hypothese des amerikanischen Kontinents eingegangen.

WIKIPDIA:
… wodurch Schätzungen zufolge 2 bis 5 Gigatonnen Kohlenstoff aus der Atmosphäre gebunden worden sein könnten. Das entspricht ca. 4 bis 14 % eines Rückgangs der CO2-Konzentrationen um 7 ppm, der in den Zeitraum 1550–1750 fällt. Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt.
(SCIENCE NEWS) TELEPOLIS:
… zwischen 2 und 17 Milliarden Tonnen Kohlendioxid gebunden wurden, … um den Rückgang des Kohlendioxidanteils um sechs bis zehn Teile pro Million zu erklären, der sich zwischen 1525 und 1600 in eingefrorenen Luftblasen im Antarktiseis feststellen lässt.

Sichtung der Hypothese, die Reduzierung der Indianerpopulation hat die kleine Eiszeit mitverursacht

WIKIPEDIA

Bereits auf WIKIPEDIA werden gleich nach der Listung der Hypothesen diese wieder eingeschränkt:

WIKIPEDIA:
Der Rückgang an Bränden in Amerika begann jedoch bereits ab 1350, der stärkste Rückgang an verbrannter Biomasse wurde gerade in Regionen Amerikas mit geringer Bevölkerungsdichte und spätem Kontakt zu den Europäern lokalisiert. Gefundene Kohlereste korrelieren dagegen gut mit den zeitlich und räumlich uneinheitlichen Klimaschwankungen der Kleinen Eiszeit.
Daraus schließen andere Autoren, dass nicht der Bevölkerungsschwund, sondern lokale Klimaschwankungen Hauptursache für die Wiederbewaldung waren. Insgesamt gibt es im Holozän global keine hohe Korrelation zwischen Bränden und CO
2-Konzentrationen. Der Rückgang der CO2-Konzentrationen werde anderen Forschern zufolge eher durch die CO2-Aufnahme in Mooren und Ablagerung von Calciumcarbonat in flachen Gewässern erklärt.

CO2-Daten

Es ist festzustellen, dass die Angaben je nach Autor stark schwanken, sowohl in der Zeitangabe, wie auch beim CO2-Entzug der Atmosphäre.
Obwohl in beiden Fundstellen ca. 7 ppm CO2-Änderung gelistet werden, sind die Angaben zum äquivalenten CO2 nicht stimmig und vor allem auch nicht plausibel.

Abschätzung zur CO2-Konzentration:
Lt. WIKIPEDIA verursacht ein anthropogener Eintrag von 36,3 Gt CO2 / pa eine Erhöhung von 1,4 ppm.
Eine Differenz von 7 ppm benötigt somit ca. 181 Gt CO2-Änderung.
Angegeben sind dafür jedoch:
Bei „TELEPOLIS“ 2 … 17 Gt CO2, also weit weniger als ein Zehntel des benötigten Emissionsgewichtes!
Bei WIKIPEDIA: Die angegebenen 2 bis 5 Gigatonnen Kohlenstoff entsprechen umgerechnet 7,3 … 18,4 Gt CO2.
Kohlendioxid in der Atmosphäre: 1 t Kohlenstoff entspricht 3,67 t Kohlendioxid.

In den folgenden Betrachtungen wird diese enorme Datendiskrepanz (welche die Hypothese von vornherein ausschließen würde) nicht berücksichtigt, sondern angenommen, der anthropogen verursachte CO2-Entzug von 7 ppm Differenz würde stimmen.

Der Einfluss der 7 ppm CO2-Minderung

Als (mit-) verursachend für die Kleine Eiszeit wir eine CO2-Reduzierung um 7 ppm (Basis: 280 ppm) angegeben. Das ergäbe eine Temperatur-Veränderung (bei sprunghafter Reduzierung!) von ca. 0,11 Grad nach IPCC-Forcing (3 Grad / Verdopplung), wie bei WIKIPEDIA angegeben. Bei realistischem Forcing (maximal 1 Grad / Verdopplung) allerdings nur von 0,035 Grad. Der verschwindend geringe Einfluss ist damit schon rechnerisch erkennbar. Die (eher unwahrscheinlichen) 0,1 Grad sind im Bild 1 und Bild 3 eingezeichnet, um die Größenordnung zu zeigen.

Dabei muss aber berücksichtigt werden, dass die +7 ppm CO2-Reduzierung nicht auf einmal als Impuls entstanden, sondern über den Zeitraum von ca. 150 Jahren. In diesem Zeitraum ist jedoch ein erheblicher Anteil schon wieder natürlich ausgeglichen, da CO2 in der Atmosphäre eine Verweilzeit von ca. 100 Jahren hat (Anmerkung: Herr Lesch gibt die 100 Jahre CO2-Verweildauer in einem seiner Videos ebenfalls an).

Eine überschlägige Abschätzung ergibt dann jedoch die folgenden Einfluss-Daten.
Annahmen:
-Die CO2-Reduzierung erfolgt linear fallend über den 150 Jahre-Zeitraum (erst nach 150 Jahren sind -7 ppm erreicht),
-in jedem Folgejahr wird wieder ein 100tel des Vorjahreswertes ausgeglichen.
Dann beträge die verbleibende CO2-Reduzierung nach 150 Jahren lediglich ca. -2 ppm und der richtige Temperaturbeitrag zwischen: -0,03 … -0,01 °C.
Die Temperaturveränderung kann also maximal zwischen -0,01 … -0,1 °C, mit sicherer Tendenz zum niedrigeren Wert betragen haben. Die Annahme, es waren maximal um die – 0,01 … 0,03 °C, dürfte eher richtig sein, als die 0,1 Grad-Hypothese. In den Publizierungen wird dies jedoch nicht berücksichtigt.
Anmerkung: Dass die 7 ppm Änderung nach den Gewichtsangaben sich auf nur 0,7 ppm reduzieren, sich der Temperatureinfluss damit nochmals auf 1/10tel reduzieren könnte, sei dahingestellt.

Der zeitliche Verlauf

Bild 1 (und Bild 3) zeigen, dass angegebenen Zeit 1525 laut dem CO2-Proxi das CO2 schnell reduziert, die Temperatur aber je nach Rekonstruktion zuvor oder kurz danach zunimmt. Auch der CO2-Gehalt verhält sich nicht wie in der Hypothese angegeben, er nimmt nämlich mit dem Jahr 1600 ebenfalls wieder zu und nicht erst nach 1750.
Auch erfolgt die CO2-Reduzierung praktisch als Impuls, was mit der „Indianertheorie“ aber nicht erklärbar ist.

Bild 3 [7] Rekonstruktionen verschiedener Atmosphärengase vom Jahr 0 – ca. 1800

Genauigkeit der historischen CO2-Rekonstruktion

Ob man dazu die CO2-ppm Wert-Verläufe von damals wirklich mit ausreichender Genauigkeit rekonstruieren kann, um die 7 ppm CO2-Veränderung festzustellen und zeitlich zuzuordnen, bleibt fraglich, Begründung:
EIKE:[5] Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm! (Anmerkung: Ein auch heute immer noch lesenswerter Beitrag)
Bild 4 zeigt daraus verschiedene CO2-Rekonstruktionen über den relevanten Zeitraum. Der CO2-Wert hängt von der Rekonstruktionsart ab. Die (übliche) Rekonstruktion durch Eisbohrkerne neigt danach mindestens zum starken Mitteln und zur Anzeige niedriger Werte.

Bild 4 [5] Verschiedene CO2-Rekonstruktionen. Weiße Linien kennzeichnen ca. -7 ppm Differenz. Die gelben, vertikalen Linien kennzeichnen den Zeitraum von 1575 – 1700

Genauigkeit historischer Temperatur-Rekonstruktion

Es ist wieder auffallend, welche unglaubliche Datenpräzision angegeben wird:
Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt“.
Im Bild 3 ist schon erkennbar, wie weit sich alleine die zwei Rekonstruktionen (blaue-, grüne-Kurve) im Zeitraum 1000 (mittelalterliche Warmzeit) bis 1600 (Minimum der Temperatur) unterscheiden:
Rekonstruktion „Mann …“: -0,9 Grad,
Rekonstruktion „Moberg at al.“: Ca. -0,3 Grad

Es ist nicht möglich, daraus eine Temperaturdifferenz zwischen 0,01 … 0,1 Grad zu detektieren und einer Ursache zuzuordnen.

Wie (un-) genau misst man heute

Genauigkeit der aktuell gemessenen Globaltemperatur
Eine super-moderne, sorgfältig geeichte und eingerichtete Temperaturmessstation misst auf +-0,2 °C genau. Trotzdem listen die heutigen Globaltemperatur-Angaben der verschiedenen Institute für das Jahr 2015:
GISS: 0,86 °C;
HadCRUT: 0,727 °C;
NOAA: 0,9 °C.
Spanne: 0,173 °C.

Genauigkeit der Temperaturangaben um die Zeit der kleinen Eiszeit

In einer Publizierung wurden dazu einst einiges an Beispielen zusammengetragen:
EIKE [6] Die Problematik der Temperaturrekonstruktion.

Daraus Beispiele, wie es mit den Daten um 1500, während der relevanten Zeit in der kleinen Eiszeit aussieht.

Die Rekonstruktionen Nordamerika und Südamerika des aktuellsten und größten internationalen Proxi-Rechercheprojektes, Pages2k sehen wie folgt aus:

Bild 5 Proxis Nordamerika. Quelle: Active viewer for the Pages2K proxies

 

Bild 6 Proxis Südamerika. Quelle: Active viewer for the Pages2K proxies

Leider ist im Pages2k-Viewer keine absolute Temperaturdimension angegeben. Aber alleine aus den Verlaufsrekonstruktionen versuche man abzulesen, dass zwischen 1550 und 1700 sich die Temperatur aufgrund eines neu auftretenden Einflusses nochmals verringert hat. Da die verursachende Quelle in Amerika gewesen sein soll, sollte es sich dort ja am ehesten im Temperaturverlauf zeigen.

Im Bild 7 nochmals die Darstellung der IPCC-Rekonstruktion „Nordhemisphere“ mit Temperaturachse. Auch darin versuchen, eine (zum normalen Temperaturverlauf) zusätzliche Verringerung um weniger als 0,1 °C ab 1550 zu detektieren. Computer können das (auch nicht). Aber niemanden stört es, wenn es behauptet wird.

Bild 7 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

Kann man der „Indianer-Hypothese“ damit glauben

Bei der „Indianerhypothese“ passt wirklich überhaupt nichts zusammen. Weder die Größenordnung des Forcings, bzw. der Temperaturveränderung, die Zeiten, noch die Verläufe und deren Korrelation. Tatsache ist: Alle Daten widersprechen ihr. Trotzdem wurde es publiziert und weiterhin zitiert.

Wie so oft, wenn man in den AGW-Klimawandel „hineinsticht“: (fast) nichts ist genau bekannt, es gibt aber viele Vermutungen trotz unplausibelster Daten, die aber regelmäßig zitiert werden und mit häufigerem Zitieren dann immer mehr zur „Wahrheit“ mutieren.

Das ist auch auf WUWT aufgefallen. Dort wurde die Veröffentlichung damals diskutiert:
WUWT: [4] New science field: “paleoblameatology
Some days you just have to shake your head and say to yourself that there’s irrational fixation on CO2 that has deep roots in the psyche when we see things like this. The 10:10 video was proof enough, but now we have “paleoblameatology” entering the picture to explain the Little Ice Age.
Meet Christopher Columbus, who had his day this week, but who has gone in the same week from being lauded explorer to destroyer of Europe’s climate by being a catalyst. From Stanford via
Science News, of all places.
It boggles the mind
[2]

Eine Vermutung geht dem Autor nicht aus dem Sinn: Die Professoren hatten ihr Publikationssoll vielleicht nicht erfüllt, weshalb sie unbedingt noch schnell etwas veröffentlichen mussten. Das machten sie auch. Um die Fachkollegen aber darauf hinzuweisen, dass diese „Vermutungshypothesen“ nur zur Erfüllung der Publikationszahl dienen, aber bitte nicht verwendet werden sollen, mit so falschen und übertriebenen Angaben, dass jeder – der mitdenkt – es sofort erkennen muss, die Administration es jedoch nicht bemerkt.
Leider funktioniert dies beim Klimawandel nicht. Denn wenn es den vom Menschen gemachten Einfluss bestätigt, kann nichts hanebüchen genug sein, um nicht von Gläubigen sofort aufgenommen und zitiert zu werden.

Herr Professor Lesch ist überzeugt, dass es die Ursache gewesen ist

Man kann solche hypothetischen und allen Daten widersprechenden „Erklärungen“ kritisch rezensieren, um auf die eklatant mangelhafte Qualität vieler Klimastudien und -Hypothesen – in denen teils reinste Vermutungen und Visionen als „belegbar“ in den Raum gestellt werden – hinzuweisen.
Aber solche als von einem Fachmann geprüfte Wahrheit dem staunenden Publikum erzählen, trauen sich wohl nur wenige.

Einer davon ist der Bayerische Klimawandel-Prophet und Klimaberater der Bayerischen Landesregierung, Prof. Harald Lesch.
In seinem Video, Link: Frag den Lesch – Steht uns eine kleine Eiszeit bevor?, kann man es nachhören.

Bild 8 Screenshot (Auszug) Video: Frag den Lesch – Steht uns eine kleine Eiszeit bevor? .Quelle YouTube, veröffentlicht 26.10.2015

Video, H. Lesch (etwas Grammatik und Zeichensetzung vom Autor zugefügt): [1] … es gab sicherlich andere Gründe, weshalb es zu einer allmählichen Abkühlung gekommen ist. Unter anderem sogar sind das Vorgänge, die sich in Nordamerika abgespielt haben. Durch die ziemlich dramatische Veränderung der Bevölkerung in Nord- und Südamerika ist es zu einem Rückgang von Kohlendioxyd in der Atmosphäre gekommen. Ja, weil sich immer mehr und mehr Wälder gebildet haben denn die Indianerstämme sind von den Entdeckern ziemlich dezimiert worden, teilweise durch Krankheiten, teilweise durch Gewalt. Das hat dann dazu geführt dass ehemals landwirtschaftlich genutzte Fläche immer mehr und mehr von Wäldern übernommen wurde. Daraufhin wurde mehr und mehr Kohlenstoff in den Wäldern eingelagert und das führte zu einer Abkühlung, zusammen mit einigen Vulkanausbrüchen die damals ebenfalls zu einer allgemeinen Abkühlung geführt haben. Und dann war sozusagen eine Lawine angetreten. Wenn nämlich sich mehr Schneefelder bilden im Winter … die werden ja dann eben auch mehr Strahlung von der Sonne zu reflektieren. Das führt dazu, dass wieder mehr Strahlung im Universum landet, nicht auf der Erde, was wiederum zu einer Abkühlung führt. Und so gab es einen Kreislauf, der ungefähr bis Mitte des 19. Jahrhunderts dann durch unseren menschlichen Einfluss dann völlig konterkariert wurde. Seitdem wir richtig industrialisieren, beziehungsweise richtig fossile Brennstoffe verbrennen, haben wir eine … gibts da kein Halten mehr … haben wir jede Menge Entkopplung zwischen den natürlichen Zyklen, die wir schon lange kennen, haben wir alle längst abgelöst …

Fazit:

Wer will, frage weiterhin „den Lesch“. Aber glauben sollte man ihm nicht so einfach, zumindest wenn es um Klimathemen geht.
Man gewinnt den Eindruck, dass Herr Lesch den typischen Anfängerfehler macht und beim AGW-Klimawandel wirklich jeden – des in immensen Mengen, auch von Professorenkollegen hemmungslos publizierten Unsinns – für bare Münze nimmt und brühwarm weiter erzählt, wenn es nur seine immer erkennbarere Klimahysterie unterstützt.
Weitere Beispiele dazu:
EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann
EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

Doch damit wird man eben Klimaberater, wenigstens der Bayerischen Landesregierung. Es bleibt abzuwarten, wann eine gute Position in einem bestimmt bald kommenden, bayerischen Klimainstitut dabei herausspringt. Das schützt die Bayerische Umweltministerin davor, mit zu viel Fachkompetenz konfrontiert zu werden. Der Bund macht es ja vor.

Quellen

[1] Video: Frag den Lesch – Steht uns eine kleine Eiszeit bevor? .Quelle YouTube

[2] SCIENCE NEWS, October 13, 2011, Devin Powell: Columbus‘ arrival linked to carbon dioxide drop, Depopulation of Americas may have cooled climate

[3] Energy & Environment, 18.2/2007, Ernst-Georg Beck: 180 Jahre atmosphärischer CO2-Gasanalyse mittels chemischer Methoden

[4] TELEPOLIS, 18. Oktober 2011, Peter Mühlbauer: „Kleine Eiszeit“ durch Bevölkerungsschwund in Amerika?
[4] WUWT October 14, 2011: New science field: “paleoblameatology

[5] EIKE 06. Januar 2011: Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm!
http://www.eike-klima-energie.eu/2011/01/06/eisbohrkerne-und-pflanzenstomata-der-historische-co2-gehalt-der-atmosphaere-war-oft-deutlich-hoeher-als-280-ppm/

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[7] C. M. F. Meure at al.: Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP

Mit dem Verlauf soll auch gezeigt werden, wie Angaben: „Begann zu Anfang des 15. Jahrhunderts“ und „global um bis zu 0,8 Grad niedriger“ bewertet werden müssen. Geht man nach der globalen Temperaturkurve, wurde es bereits ab dem Jahr 1000 kälter, und die Temperaturproxis reichen von +2 … – 2 K Differenz. Erst die Mittelung aus der Spaghettikurve der Proxis engt die hohen Temperatur-Spannen ein. Ob sie den Verlauf wirklich repräsentiert, sei dahingestellt.




Für die Zukunft der NASA ist Erforschung der Erderwärmung für die Obama Regierung wichtiger als der Weltraum

++++++++++++++++++

Sie finden hier übersetzte Inhalte aus verschiedenen Beiträgen im Daily Caller und der NASA

Im wesentlichen von

Autor Andrew Follett,
Energy and Science Reporter; Daily Caller News Foundation

 

 

Die NASA hofft bis 2028 eine große Raumstation in die Umlaufbahn um den Mars bringen

An Bord dieses „Mars Base Camp“ werden die Astronauten für etwa ein Jahr Informationen sammeln zur Vorbereitung für die erste bemannte Landung, so die NASA Vertragspartner Lockheed Martin und Deep Space Systems Inc.

„Bevor wir Menschen auf die Oberfläche des Mars schicken, schulden wir es dieser Mannschaft und uns selbst, zu wissen ob es Leben auf dem Planeten gibt und ob es irgendetwas gibt, das für Menschen ungesund ist“ erklärte Steve Bailey, Chefingenieur von Deep Space Systems Inc gegenüber Space.com. „Diese Mission wird diese beiden grundlegenden Dinge feststellen.“

Der Plan von Lockheed Martin ist es, eine 132-Tonnen-Raumstation in den Orbit um den Mars zusammen zu setzen, die sechs Astronauten für ein Jahr aufnehmen kann. Zum Vergleich: Die Internationale Raumstation ISS wiegt rund 440 Tonnen. Die Astronauten würden von dort die Rover fernsteuern, Proben von Schmutz und Felsen analysieren und sogar kurze Trips zu den zwei Monden des Mars machen können.

Eine solche Mission wäre relativ erschwinglich. Die Station könnte wiederholt genutzt werden, erklärte Lockheed Martin, nannte aber keine Kostenvoranschläge für das Programm.

Die Trägerrakete, die im Jahr 2030 amerikanische Astronauten auf den Mars bringen soll, erfüllte Ende Juni ihre endgültigen Testversuche. Es war der letzte Test der Rakete vor ihrem ersten unbemannten Flug im Jahr 2018. Astronauten werden bis mindestens 2021 nicht mit dieser Rakete in die Umlaufbahn fliegen.

Die NASA sammelt Informationen, um die Machbarkeit potenzieller Nutzlasten auf dem zweiten Testflug der Space Launch System-Rakete zu ermitteln, die innerhalb des Universal-Stufen-Adapter montiert werden würde. Credits: NASA

(Programmname: Space Launch System SLS, ist die Entwicklung einer wiederwendbaren Trägerrakete zur bemannten Erforschung des Weltraums über einen niedrigen Erdorbit hinaus, Booster ähnlich denen beim alten „Spaceshuttle“ werden für den notwendigen Anfangsschub sorgen, A. Demmig]

„Der erfolgreiche SLS-Booster-Test der NASA und Orbital ATK [Orbital ATK ist ein US-amerikanisches Raumfahrt-, Rüstungs- und Luftfahrtunternehmen mit Sitz in Dulles] , stellt Fortschritte in Richtung zukünftiger Weltraummissionen dar“, sagte der Texanische Republikaner Lamar Smith, Vorsitzender des House Science Committee [Wissenschaftskomitee], dem Daily Caller. „Als Amerikaner sollten wir unsere Führung im Raum beibehalten und auf eine erfolgreiche Vollendung einer bemannten Mission zum Mars hinarbeiten. Unglücklicherweise, beschneidet die Obama-Regierung die Budgets der SLS und der Orion [bemanntes Raumfahrzeug] Programme Jahr-für-Jahr, obwohl das die bestmöglichen Programme sind, um uns dort hinzubringen. „

„Der Wissenschaftsausschuss widmet sich der Wiederherstellung der Finanzierung wichtiger Programme, die entwickelt werden, um den Weg für eine menschliche Präsenz im Weltraum zu ebnen“, so Smith weiter. „Amerika führt die Welt in der Weltraumforschung an und das ist eine Führungsrolle, die wir nicht für selbstverständlich halten können. Es ist über 40 Jahre her, seit der Astronaut Gene Cernan der letzte Mensch wurde, der auf dem Mond spazieren ging. Der gestrige Test des Booster-Systems war ein weiterer positiver Schritt, und ich freue mich auf die Zusammenarbeit mit meinen Kollegen, um dieses wertvolle Programm voranzubringen.

Mit auf dem Weg zum Mars wird auch ein System das 13-Tonnen-Servicemodul der ESA (European Space Agency) sein, das für zukünftige Besatzungsmitglieder an Bord von Orion Antrieb, Leistung, Temperaturregelung und Luft und Wasser bereitstellt.

Ingenieure und Techniker der Abteilung Technische Dienste des WSTF führen funktionelle Tests an der OMS Engine 108 durch; Credits: NASA WSTF

Die Haupt-Antriebsmaschine des Servicemoduls ist ein modifizierter Orbitalmanöver-System (OMS) -Motor, der anfänglich auf dem Space Shuttle verwendet wurde, um Schub zum Ein- und Ausfahren von Orbit-, Rendezvous- und Abort-Situationen bereitzustellen. Die NASA nutzt die OMS-Motoren für den Einsatz im europäischen Servicemodul. Das Testzentrum der NASA WSTF [White Sands Test Facility in Las Cruces, New Mexico] bewahrte 11 Shuttle-OMS-Motoren und Komponenten aus dem Schubvektor-Steuersystem auf, so dass die NASA auf erprobte Hardware zurückgreifen kann.

Erforschung der globalen Erwärmung ist wichtiger als der Weltraum

Die Pläne der NASA, Astronauten zum Mars zu transportieren, wurden wiederholt durch die Obama-Regierung sabotiert, die beschuldigt wurde, Informationen an die Presse über Missionen durchsickern zu lassen und gedroht haben soll, ihr Veto gegen die Projekte einzulegen. Das Budget der Weltraumbehörde umfasst mehr als 2 Milliarden US-Dollar für die Abteilung „Earth Science Mission“ [~ Erdkunde] für globale Erderwärmung, was speziell zur Verbesserung der Klimamodellierung, der Wettervorhersage und zur Abschwächung der Auswirkungen von Naturgefahren eingesetzt wird. Im Vergleich dazu bekommen die anderen Abteilungen der NASA, wie Astrophysik und Raumfahrttechnik, nur 781,5 $ bzw. 826,7 Millionen US-Dollar.

Präsident Barack Obama und die Demokraten im Kongress denken daran, das NASA-Budget für die Erforschung des Mars zu beschneiden, um die Erforschung der globalen Erwärmung als politischen Imperativ zu erweitern. Obama hat wiederholt versucht, andere NASA-Abteilungen, wie die Weltraumforschung, zu beschneiden, damit Geld auf die globale Erwärmungswissenschaft umgeleitet werden könnte [Stand Juni 2016].

Die wichtigste Frage der [Weltraumforschungsanstalt] NASA lautet im Juni 2016: „Wie verändert sich das Klima der Erde und die Umwelt?“ Die typischen Weltraumfragen wie „Sind wir allein?“ Und „Wie funktioniert das Universum?“ finden sich ganz unten auf der Budget-Liste. [NASA Budget Aufstellung für wissenschaftliche Forschungen in 2017]

Amerika ist derzeit besser aufgestellt, den Mars zu besuchen, als in den sechziger Jahren um den Mond zu besuchen, nach einer Studie des Johnson-Weltraumzentrums der NASA. Die Gesamtkosten der gegenwärtigen Pläne um Amerikaner zum Mars zu schicken kommen auf ungefähr $ 35 Milliarden, die bis 2025 auszugeben sind, um den roten Planeten im Jahr 2030 zu erreichen.

Die Weltraumforschungsinitiative des ehemaligen Präsidenten George H.W. Bush wurde auf 400 Milliarden Dollar im Jahr 1989 über 20 bis 30 Jahre projektiert, aber das Programm kam nie auf die Füße. Es wäre das kostspieligste Vorhaben einer Regierung seit dem Zweiten Weltkrieg gewesen. Im Jahr 2004 hätte die Vision des George W. Bush für die Weltraumforschung 230 Milliarden Dollar gekostet. Im Vergleich dazu hätte das Apollo-Programm, das Astronauten auf dem Mond landete, im Jahr 2005 rund 170 Milliarden Dollar gekostet, so dass die Kostenvoranschläge für aktuelle Pläne dazu im Vergleich preiswert erscheinen.

Dieser Beitrag ist ausgesucht, zusammengestellt und übersetzt von Andreas Demmig.

 

http://dailycaller.com/2016/06/29/nasas-mars-rocket-passes-major-test/

http://dailycaller.com/2016/08/16/nasa-wants-to-build-a-space-station-around-mars-by-2028/

https://www.nasa.gov/feature/nasa-s-first-flight-with-crew-will-mark-important-step-on-journey-to-mars




Rundbrief der GWPF vom 30. 12. 2016

1) Skeptische Klimawissenschaftler kommen herein aus der Kälte

In der Welt der Klimawissenschaft kommen die Skeptiker aus der Kälte herein. Forscher, die die globale Erwärmung als eine geringere Sache betrachten als eine den Planeten zerstörende Kalamität glauben, dass die ins Amt tretende Trump-Regierung zulässt, dass sich ihre Ansichten entwickeln und sie gehört werden. Unter der Obama-Regierung war dies nicht der Fall, hat diese doch schlicht geleugnet, dass es überhaupt eine Debatte gibt. Jetzt, so sagen manche Wissenschaftler, könnte eine ehrlichere Annäherung vor der Tür stehen – und die Milliarden Dollar Steuergeld, die es unterstützen könnten. – James Varney, RealClearInvestigations, 30. Dezember 2016

2) Republikanische Staatsanwälte brennen darauf, Obamas Klima-Agenda abzuwickeln

Sobald der designierte Präsident Trump am 20.Januar sein Amt antritt, werden Staatsanwälte der Republikaner, die während der vergangenen acht Jahre die Klimawandel-Agenda der Obama-Regierung bekämpft hatten, eine neue Rolle spielen: nämlich die komplexen juristischen Bemühungen des republikanischen Präsidenten zu unterstützen, eben jene Agenda abzuwickeln. – Ben Wolfgang, The Washington Times, 26. Dezember 2016

3) Trump legt Maßnahmen bzgl. globaler Erwärmung auf Eis

Auf besonders festem Boden steht Trump beim Thema Klimawandel. Globale-Erwärmung-Alarmisten proklamieren, dass ihre düsteren Szenarien mit Sicherheit eintreffen werden, und sie hätten auch vollkommen recht, wenn das einzige die Temperaturen betreffende Kriterium Kohlendioxid-Emissionen wären. Aber viele andere Kriterien wirken auch auf das Klima (z. B. die Sonne), und die Wechselwirkungen zwischen diesen sowie deren unterschiedliche Auswirkungen sind noch nicht voll verstanden, wie das Scheitern der Modelle der Klimawissenschaftler beim Nachvollziehen von Beobachtungen aus der Vergangenheit zeigt. Das Vernünftigste, was jetzt kommen muss, ist mehr über Klimawandel in Erfahrung zu bringen, Forschungen zu finanzieren (und nicht lediglich die Gläubigen der alarmistischen Religion) sowie ernsthaft darüber nachzudenken, wie man möglichen schlimmen Auswirkungen begegnen – und Vorteile aus den möglichen guten Auswirkungen ziehen könnte. In der Zwischenzeit werden wir uns nicht dem Pariser Klima-Abkommen unterwerfen, und wir werden nicht fossile Treibstoffe auf das Abstellgleis schieben. Wir werden sogar aufhören, „Häretiker“ und „Leugner“ zu schikanieren – zumindest während der nächsten vier Jahre. – Michael Barone, National Review, 27. Dezember 2016

4) Kanada strebt nach Gemeinsamkeiten mit den USA bzgl. Energie

Der Energieminister von Kanada sagt, er könne Gemeinsamkeiten finden mit dem designierten Präsidenten Donald Trump bzgl. Öl-Pipelines und Energie-Infrastruktur. „Wir werden sehr zurückhaltend sein bei der Beurteilung dieser Regierung von irgendetwas anderem als dem, was sie tut. Und was sie tut, wird nach dem 20. Januar viel klarer“, sagte Jim Carr, der kanadische Minister für Natur-Ressourcen. Carr brachte auch die Möglichkeit ins Spiel, „Felder gemeinsamer Interessen“ mit der kommenden Trump-Regierung finden zu können. – Chris White, The Daily Caller, 28 December 2016

5) Klimawissenschaft und die Illusion des Wissens

Nichtwissenschaftler verfügen nicht über das notwendige Wissen, um sich eine angemessene Meinung zur Klimawissenschaft zu bilden. Was wir gewöhnlich tun ist, nur die eine Seite der Debatte zu hören, die andere Seite zu ignorieren und einen Bestätigungs-Bias zu gebrauchen, um unsere Illusion sicher zu sein zu erhärten. So funktionieren normale Denkapparate. Falls Sie also sowohl normal sind und eine feste Meinung zur Klimawissenschaft haben, kann ich mit Sicherheit sagen, dass Sie hinsichtlich der Sicherheit Ihrer Meinung einer Halluzination unterliegen. Ich kenne nicht die der Klimawissenschaft zugrunde liegende Wahrheit. Aber ich weiß eine Menge über Beeinflussung. Und ich kann mit absoluter Sicherheit sagen, dass falls Sie ein Nichtwissenschaftler sind und Sicherheit bzgl. Ihrer Meinung zu Klimawissenschaft haben, Sie hinsichtlich der Kapazität Ihres eigenen Gehirns einer Halluzination unterliegen. – Scott Adam, 30. Dezember 2016

6) David S. D’Amato: Die wahren Freunde der Umwelt sind die Libertären [Liberalen?]

Die libertäre [liberale?] Bewegung sollte die natürliche Heimat des Umweltaktivismus‘ sein. Feste, gut definierte Eigentumsrechte sowie ein gegenseitig vorteilhafter Austausch in einem echten freien Markt erzeugen starke Anreize zur Bewahrung der Umwelt und lassen die Arten umweltlicher Degradierung verschwindend klein werden, welche nur allzu oft unter dem Status Quo allgemein waren, definiert durch allgegenwärtige Vorschriften, einer plumpen Bürokratie und demzufolge häufigen Katastrophen. Die Regierung selbst ist der schlimmste Verschmutzer; sie ist mehr verantwortlich für schwerere Umweltschäden als jeder andere Einzelakteur. Die Regierung verschwendet und zerstört ihre eigenen Besitztümer, weil es an Anreizen der wirklichen Besitzer fehlt, isoliert wie sie sind von den zugehörigen Kosten. – David S. D’Amato, Foundation for Economic Education, September 2016

Übersetzt von Chris Frey EIKE




Ruhmloser Abgesang auf den Steinkohlebergbau

Gedacht ist an Projekte für „erneuerbare Energien“, an „Windkraftanlagen auf Halden“, „Solarparks auf Brachflächen“, die Wärmegewinnung aus Grubenwasser. Doch dies ist ein Wunschtraum, der gnadenlos an den natürlichen Randbedingungen scheitern wird. Musste der Bergbau sterben, damit die Illusion von „Klimaschutz“ leben kann? Die RAG begnügt sich mit dem Satz: „Ob dies aber auf lange Sicht klug ist, bleibt fraglich“.

Erdgeschichte, das Karbonzeitalter und die Kreidezeit

Die Steinkohle ist das „Kapital“, dass die Natur in ihrem ewigen Wandel im Ruhrgebiet deponiert hat. Zusätzlich konnte an tektonischen Störungen Magma aufsteigen, wodurch Eisenerzlagerstätten entstanden. Im „Karbonzeitalter“ vor 360 bis 300 Millionen Jahren wurden im Wechsel von Sumpflandschaften und Überflutungen des Meeres zahlreiche Schichten abgelagert. Unter Druck entstanden durch Inkohlung die Kohleflöze. Sieben Meter dicke Torfschichten wurden zu 0,60 Meter dicken Steinkohlenflözen verdichtet. In der Kreidezeit von 135 bis 65 Millionen Jahren überdeckte ein tropischer Ozean das Ruhrgebiet und überdeckte alles mit einer mächtigen Mergelschicht. Durch Absenkung neigten sich die Flöze um 6 Grad nach Norden hin. Auch die Wechsel von Eis- und Warmzeiten formten an der Topographie mit wobei die Ruhr das Schmelzwasser nach Westen abführte. Die Steinkohle entdeckte man im Mittelalter. Man dachte, es wären „brennende Steine“. Oblag das „freie Kohlegraben“ zunächst den Bauern, so wurde dies unter Karl dem Großen zu untersagen versucht. Die Kohle wurde als „Bodenschatz“ und „Naturalabgabe“ unter das Eigentum der Herrschenden gestellt.

Anfänge des Bergbaus und Frühphase der Industrialisierung

Die Vorphase der Industrialisierung ging von der Jülich-Clevischen Bergordnung vom 24. April 1542 aus. Am 13. Juli 1753 erhielt der Kölner Erzbischof die Erlaubnis, am Sterkrader Bach einen Hochofen mit Hammerwerk zu errichten. Damit beginnt die Geschichte der Eisen- und Stahlindustrie im Ruhrgebiet. Den staatlichen Dirigismus im Steinkohlenbergbau führte Friedrich II. am 29. April 1766 ein. 1784 wurde Karl Freiherr von und zum Stein Direktor des Bergamtes Wetter an der Ruhr. 1787 wurde ein Schiebeweg mit eisernen Schienen gebaut, wodurch die erste „Eisenbahnstrecke“ in Deutschland entstand, indem die Pferde durch Dampfzüge ausgetauscht wurden. 1802 wurde die erste Dampfmaschine importiert. Die Dynamik war ungeheuer. 1825 begann man mit dem Bau einer Eisenbahnlinie von Köln nach Minden und 1847 fuhr der erste Dampfzug durch das Ruhrgebiet. 1811 errichtete Friedrich Krupp in Essen eine „Krupp Gussstahlfabrik“. Ab 1819 werden Dampfmaschinen gebaut und die Stahlherstellung beginnt 1826. 1850 entsteht der erste Malakoff-Turm und 1854 wird der erste Kokshochofen errichtet. Die 1. Phase der Industrialisierung dauert von 1835 bis 1873. Die Ruhr war die Transportader. Der Kohleumschlag betrug 1830 etwa 275 000 Tonnen, 1849 circa 514 000 Tonnen und 1860 rund 868 000 Tonnen, um dann rapide abzufallen auf nur 10 000 Tonnen 1884 und 3 000 Tonnen 1889. Die Eisenbahn war bequemer!

Beschäftigungswunder und demographischer Wandel

Die Bevölkerung stieg in dieser Zeit gewaltig. Zahlreiche Dörfer erhielten Stadtrecht: Mülheim am 4. 9. 1846, Dortmund am 10. 4. 1874, Oberhausen am 10. 9. 1874. Um 1900 gab es 170 Zechen mit 228 000 Beschäftigten. Sie förderten 60,1 Millionen (Mio) Tonnen Steinkohle. Mit dem Ruhrstatut vom 28. 4. 1948 wurde die Kohle- und Stahlproduktion der Internationalen Ruhrbehörde unterstellt, bevor am 23. 7. 1952 die Europäische Gemeinschaft für Kohle und Stahl begründet wurde. 1950 arbeiteten in 143 Zechen 433 359 Beschäftigte und förderten 103 Mio Tonnen Steinkohle. Das Maximum wurde 1956 erreicht mit 494 000 „Kumpeln“ und 124,6 Mio Tonnen Steinkohle. Ab 1958 begann das „Zechensterben“ durch den Import billiger Kohle aus den USA wie die Überschwemmung durch billiges Heizöl. Am 31. Oktober 1964 wurden 31 Großzechen mit 64 000 Kumpeln und einer Jahresförderung von 26,5 Mio Tonnen zur Stilllegung angemeldet. Auf der Zeche Monopol wurde 1977 eine Teufe von 1415 Meter erreicht. Von 1974 bis 1977 ging die Rohstahlerzeugung von 32,2 auf 21,5 Mio Tonnen zurück. 200 000 Arbeitsplätze gingen verloren. 1990 gab es noch 19 Zechen mit 101 000 Arbeitern und einer Förderung von 54 Mio Tonnen Steinkohle. 2004 gab es noch 4 Bergwerke und Ende 2018 wird das letzte geschlossen. Das „Ruhrgebiet“ wird es in seiner klassischen Prägung nicht mehr geben, ohne dass auf Steinkohle verzichtet werden kann. 2005 wurden 42 % heimisch erzeugt, 2010 noch 23 % 2015 noch 11 % und ab 2019 werden es 0 % sein. Dafür steigt der Import von 58 über 77, dann 89 auf 100 %. Die Gesamtmenge an Steinkohle wird ziemlich konstant etwas unter 60 Mio t SKE liegen! Die Importkohle wird also die wichtige „Brückenfunktion der Ausgleichs- und Reservekapazität für den fluktuierenden Wind- und Solarstrom ausüben“. Glaubt die Politik, dieser Etikettenschwindel würde nicht auffallen?

Von der postindustriellen über die dekarbonisierte in eine postfaktische Ära?

Wie also wird die Zukunft aussehen? Um diese zu „meistern“ hat man 2010 das Projekt „Innovation City Ruhr“ ins Leben gerufen. Es wird wie folgt beschrieben: „Das Ziel dieses ehrgeizigen Projekts lautet, am Beispiel einer typischen Ruhrgebietskommune einen klimagerechten Stadtumbau mit Halbierung der CO2-Emissionen bis zum Jahr 2020 bei gleichzeitiger Sicherung des Industriestandorts und spürbarer Verbesserung der Lebensqualität zu demonstrieren.“ Modellkommune ist die Stadt Bottrop. Bottrop soll ein Musterbeispiel sein für eine „Energiewende von unten“. Um die CO2-Emissionen um 38 Prozent zu senken, hat man rund 290 Mio € investiert. Doch dies ist nur eine fiese Milchmädchenrechnung, indem man nur die Emissionen durch die „heimische Kohle“ reduziert, aber die Emissionen durch die importierte Kohle „untern Teppich“ kehrt. Wenn man dann noch die Gewinnung von Erdöl und Erdgas einstellt, ist Deutschland rechnerisch Null-Emittent an CO2 und damit „Vorreiter“ in Sachen „Klimaschutz“. Man mag sich nach außen brüsten, das „Pariser Abkommen“ zur Einhaltung des Zwei-Grad-Zieles erfüllt zu haben, aber auf wen macht dieser Selbstbetrug Eindruck? Auf das Wetter mit absoluter Sicherheit nicht und damit auch nicht auf dessen „Abfallprodukt“, das Klima. Mag auch der „Leitzielcharakter der Klimaziele“ zwecks Erreichung der globalen „Klimaneutralität“ in der zweiten Hälfte des 21. Jahrhunderts rechnerisch auf dem Papier erfüllt werden, die Wetterrealitäten werden sich davon nicht beeindrucken und beeinflussen lassen.

Mag auch das „Ruhrgebiet“ als „Industrieregion“ ob der weltweit freien Märkte mit ihren ökonomischen Regeln auch nicht zu retten gewesen sein, doch zur „Stabilisierung“ einer nicht existenten „Globaltemperatur“ als „Leitziel“ eines nicht existenten „Globalklimas“ die gesamte „Industrie“ dekarbonisieren zu wollen, ist an Wahnsinn nicht zu überbieten. Ohne Wasserstoff, Sauerstoff und Kohlenstoff ist organisches Leben nicht möglich. Dies gilt primär für die grünen Pflanzen als „Primärproduzenten“, die Nahrung für Tier und Mensch als Konsumenten produzieren.

Die Erde war nie ein Wetterparadies und wird auch nie eines sein! Ein „Klimaparadies“ mit der postfaktischen Wunschvorstellung von „globaler Klimagerechtigkeit“ ist ein unrealistischer Traum von Ideologen, die in ihrer theoretischen Modellbesessenheit die Realität völlig aus dem Blick verloren haben.

 




Die erschreckende Geister­fahrt der „Deutschen Energie­wende“ im Rahmen des „Klimaschutz­planes 2050

 Spätestens in 2030 gehen in Deutschland die Lichter aus, da die sichere Stromerzeugungkapazität zum Ausgleich der Schwankungen über die Stromerzeugung über Wind und Sonne nur in Ansätzen ausreicht, es sei denn, es werden Stromspeicher mit einer täglichen Kapazität von 22 Gigawatt (GW) als Jahresmittelwert zur Verfügung gestellt (entsprechend etwa 79 Pumpspeicherwerke der Goldisthalgröße).

Ebenso bleibt die Wunschvorstellung der „Dekarbonisierung“ in 2050 eine Fata Morgana ohne eine tägliche erforderliche Stromspeicherkapazität von 31 GW als Jahresmittelwert (bei diesem täglichen Speicherbedarf erübrigt sich eine Betrachtung zum Speicherbedarf bei einer z.B. 14-tägigen Windflaute im Winter).

Der CO2-Gehalt in der Atmosphäre liegt z.Z. bei 400 ppm bzw. 0,0400%.

Durch die Energiewende in Deutschland könnte – wenn sie denn funktioniert – theoretisch der CO2-Gehalt der Atmosphäre um 0,13 ppm abgebaut werden bei natürlichen jährlichen Schwankungsbreiten der gemessenen CO2-Gehalte durch die Photosynthese zwischen 3 (Äquator-fern) und 20 ppm (Äquator).

Der kostenmäßige Aufwand für die Absenkung des CO2-Gehaltes im Rahmen der Energiewende von 0,13 ppm (0,000 013%) liegt bis 2025 bei         520 Mrd.€.

„Postfaktisch“ ist das Wort des Jahres 2016. Für die CO2-Hysterie seit den 1980er Jahren sowie die daraus resultierende Energiewende in 2000 kommt das Wort zu spät. Beides ist seit Anbeginn ein „Postfaktisches“ Desaster.

……………………………………………………………………………………………………………………

Basierend auf der Angst vor einem Weltuntergang durch einen hohen CO2-Austoß hat es in Deutschland zu diversen „Energiewenden“ geführt, nicht zuletzt auch, weil Deutschland ein Vorbild in der Weltgemeinschaft darstellen möchte (Ausrufung der „Dekarbonisierung“ durch Frau Merkel auf dem G7-Gipfel in Elmau in 2015).

Nun hat die Bundesregierung unter dem Begriff „Klimaschutzplan 2050“ für die Weltklimakonferenz in Marrakesch eine neue Energiewende kreiert, wobei wie bei allen bisherigen Energiewenden die Frage von Machbarkeit und Bezahlbarkeit auch nicht im Ansatz geprüft wurde, was erstaunlicherweise in unserer Gesellschaft nicht wahrgenommen wird, ein Aufschrei der Wissenschaft findet nur vereinzelt statt.

Vielmehr wird das Thema beherrscht von staatlich dotierten Klimawissenschaftlern, Politikern, Soziologen etc.

Im Folgenden sollen nun zunächst noch einmal rückblickend die letzten Energiewenden für den Bereich „Energiesektor“ mit ihren Zielen aufgeführt werden, um dann schließlich den „Klimaschutzplan 2050“ näher zu diskutieren:

a) „Energiewende 2010/2011“

b) „Energiewende 2014“

 

Stromerzeugungskapazitäten

(keine Angaben zu Wind See in 2030-2050)

c) „Eckpunkte für die geplante Novelle des EEG“ (Beschluß am 08.06.2016) (1)

(Wind See 15 GW bis 2030)

(keine Begrenzung mehr für Solar mit 52 GW)

d) „Klimaschutzplan 2050“ (2)

Bild 1 zeigt in einer Graphik die Zielsetzungen des „Klimaschutzplanes 2050“ für die einzelnen Bereiche in CO2-Äquivalenten.

Die Entwicklung der Abnahme der CO2-Äquivalente seit 1990 in Deutschland ist in Bild 2 dargestellt.

Nach Frau Hendricks ist dies das erste Regierungsdokument, das den Weg in ein weitgehend treibhausneutrales Deutschland in 2050 aufzeigt.

Auf die CO2-Einsparungen in anderen Wirtschaftszweigen soll hier nicht näher eingegangen werden.

Die o.g. Absenkung des CO2-Ausstoßes für den Energiesektor kann naturgemäß nur über eine Stilllegung von Kohlekraftwerken führen (worüber es noch Einwendungen in der Bundesregierung gibt), wofür dann ein Leistungs-entsprechender Ausbau der Stromerzeugung über Wind und Sonne erfolgen muß, da ein Zuwachs der Stromerzeugung über Biomasse etc. vernachlässigbar gering ist. (1)

Berechnung der still zu legenden Stromerzeugung über Kohlekraftwerke, um bis 2030 175 Mio. t CO2/a einzusparen

Der Abbau von 175 Mio.t CO2, der bis 2030 erfolgen soll, ist ein Mindestwert.

Bei Kenntnis des CO2-Ausstoßes von Kohlekraftwerken je erzeugter kWh kann nun die mit dem CO2-Abbau verknüpfte Stromerzeugung über Braunkohle- und Steinkohlekraftwerke errechnet werden:

Der CO2-Ausstoß schwankt je nach Wirkungsgrad der Kraftwerke zwischen

Braunkohlekraftwerke (BKK)     850-1200 g CO2/kWh         Mittelwert: 1,1 kg/kWh

Steinkohlekraftwerke (SKK)     750-1100 g CO2/kWh         Mittelwert: 0,9 kg/kWh

Nach dem BDEW lag die Bruttostromerzeugung in 2015 wie folgt:

Die Stromerzeugung über BKK +SKK liegt somit bei 273 Mrd.kWh/a.

Aus diesen Angaben errechnet sich dann ein CO2-Ausstoß von

BKK       155 x 1,1 = 171 Mio.t CO2

SKK         118 x 0,9 = 106 Mio.t CO2

277 Mio.t CO2

Um nun bis 2030 175 Mio.t CO2 einzusparen, liegt der erlaubte CO2-Ausstoß über Kohlekraftwerke in 2030 bei

277 – 175 – = 102 Mio. t.CO2

entsprechend einer Stromerzeugung über Kohlekraftwerke von

273 x 102/ 277 = 101 Mrd.kWh/a bzw. 101 000 GWh/a ,

d.h. es müssen

273 – 101 = 172 Mrd.kWh/a

über alternative Energien erzeugt werden.

Berechnung der zu installierenden Stromerzeugungskapazitäten über Wind und Sonne, um 172 Mrd. kWh/a in 2030 darstellen zu können

Bekanntlich schwanken die Stromleistungen über Wind und Sonne in weiten Grenzen praktisch zwischen null und ihren Nennleistungen. (3)

So überrascht es nicht, dass in den Jahren 2010-Juli 2016 die kleinsten Jahresleistungen für Wind zwischen 0,07 und 0,43 % bezogen auf die jeweilige Nennleistung (Viertelstundenwerte) schwanken. (4) Die höchsten Einspeisungen liegen bei etwa 80 % der Nennleistung (Bild 3).

Erschreckend niedrig ist auch der mittlere Beitrag der Windanlagen von lediglich 15,2 – 21,3 % (Mittelwert 17,7 %) im gleichen Zeitraum bezogen auf ihre Nennleistung. (4)

Die Schwankungen der mittleren Jahresleistungen über die Sonne liegen in den Jahren 2011-November 2016 zwischen 9,9 und 11% bezogen auf die jährlichen Nennleistungen mit einem Mittelwert von 10,4%, die Maximalwerte zwischen 65 und 77% (Bild 4). (5

Damit kann eine definierte mittlere Erzeugung von Strom über Wind und Sonne nur erzielt werden, wenn der über der mittleren nutzbaren Leistung anfallende Strom gespeichert werden kann, um ihn bei Werten unterhalb der mittleren nutzbaren Leistung wieder einspeisen zu können. (6,7) (vgl. auch Bild 5; hier wurden die unterhalb der mittleren nutzbaren Leistung anfallenden Werte in Ermangelung von Stromspeichern über Erdgas ausgeglichen). (8)

Mit diesen fluktuierenden Stromerzeugungsanlagen Wind und Solar müssen nun

172 Mrd. kWh/a oder 172 000 GWh/a     erzeugt werden.

Im Klimaschutzplan 2050 sind keine Angaben zum Zuwachs an Biomasse etc. gemacht worden, der Zuwachs ist aber nach früheren Angaben gering. (1)

Um den zu erzeugenden Strom über Wind und Sonne abzuschätzen, wird von den Angaben nach (1) ausgegangen: 58 % Wind, 42 % Solar.

Somit müssen von 172 000 GWh/a

99 760 GWh/a über Wind,

72 240 GWh/a über Sonne

erzeugt werden, um den CO2-Ausstoß über Kohlekraftwerke um 175 Mio. t CO2/a bis 2030 abzubauen bzw. eine entsprechende Kapazität an Kohlekraftwerken stillzusetzen (31 GW eff.).

Die über Wind und Sonne herzustellenden Kapazitäten können nun bei mittleren Nutzungsgraden von Wind (17,7%) und Sonne (10,4%) wie folgt abgeschätzt werden:

Wind     64 GW inst.,

Solar     79 GW inst.

143 GW inst.

Das entspräche einem jährlichen Zuwachs bis 2030 von

Wind   4,6 GW/a

Solar   5,6 GW/a.

Daraus errechnet sich für 2030 ein Gesamtbestand von

Wind 47 (z.Z.) + 64 = 111 GW inst.

Solar 40 (z.Z.) + 79 = 119 GW inst.

230 GW inst.

Die mittlere nutzbare Kapazität für Wind+Solar errechnet sich dann zu   43,7 GW eff.

Derzeit sind etwa 26 800 Windanlagen mit einer Leistung von etwa 47 GW installiert, für eine Kapazität von 111 GW ergeben sich dann     63 290 Windanlagen.

In Bild 6 sind nun zunächst die für das Jahr 2015 bekannten Stromleistungen über „Sonstige“ (Biomasse etc.) von etwa 12 GW, die sicheren Stromerzeuger Erdgas, Kern und Kohle mit 48 GW sowie die Installation der fluktuierenden Stromerzeuger Wind und Solar mit einer Schwankungsbreite von 87 GW (9) mit dem mittleren nutzbaren Wert von 12 GW aufgetragen.

Der Strombedarf schwankt zwischen etwa 35 und 73 GW. Die Netzkapazität liegt z.Z. bei 80 GW.

Mit den Kapazitäten der „Sonstigen“ (12 GW), der Kohle-, Kern- und Erdgaskraftwerken (48 GW) sowie der mittleren Nutzung von Wind und Solar (12 GW) kann der höchste Strombedarf von 73 GW gerade abgedeckt werden.

Geht jedoch die Wind-+Solarkapazität gegen null (nachts bei Windstille oder an windstillen Tagen im Winter), reichen die Kapazitäten mit 60 GW nicht mehr aus, um die Strombedarfsspitzen abzudecken, d.h. es muß kräftig Strom importiert werden (nach dem „Statistischen Bundesamt“ mußten in 2015 37 Mrd.kWh (5,7 %) importiert werden, alleine über Frankreich 10,7 Mrd.kWh). (10)

Andererseits wurden 85 Mrd.kWh (13 %) in 2015 exportiert, da die Stromerzeugung über erneuerbare Energien am Bedarf vorbei ging oder die Netzkapazität nicht ausreichte, was in den letzten Jahren mit dem immer weiter steigenden Anteil des Stroms über alternative Energien weiter zunahm mit weiter steigenden „Negativen Strompreisen“. (3)

Hinzu kommt, dass von den 6100 Kilometern Leitungen, die sich aus dem Bundesbedarfsplan ergeben, gerade 350 km genehmigt und 69 km gebaut wurden. Von den geplanten Pilotstrecken für Erdkabel ist noch keine in Betrieb.(11)

Geradezu explodiert ist in 2015 die „Ausfallarbeit“, d.h. der Strom, der wegen Netzüberlastung nicht eingespeist werden konnte. Diese Menge hat sich in 2015 verdreifacht. Erstmals mußten Windkraftanlagen auf hoher See abgeregelt werden, um das Netz zu schonen.(11)

Nach Aussage der Netzbetreiber müssen seit dem 10.10.2016 fast jeden zweiten Tag Notfallkraftwerke zugeschaltet werden. Die Netzbetreiber haben auf Anweisung der Netzagentur als „Winterreserve“ die Kapazität der Notfallkraftwerke von 6,6 in 2016 auf 8,3 GW erhöht. (12)

Vor diesem Hintergrund soll nun der „Klimaschutzplan 2050“ gestartet werden, mit einem ersten Schritt bis 2030, nämlich dem Abbau von 175 Mio. t CO2/a.

Nach der Stilllegung der Kohlekraftwerke mit einer Kapazität von 172 Mrd.kWh und nach der Schließung des letzten Atommeilers in 2022,ergibt sich dann folgendes Bild:

Die Kapazität der „Sonstigen“ ist auf 13 GW leicht gestiegen (Bild 6), die der Kohlekraftwerke auf 11 GW abgeschmolzen (die Kapazität der Gaskraftwerke ist wie 2015 angesetzt worden (7 GW)), so dass in Summe nur etwa 18 GW (Kohle+Gas) verbleiben, um Schwankungen in der Stromerzeugung von Wind und Solar auszugleichen. Dazu gekommen ist eine Kapazität über den Zubau von Wind- und Solaranlagen von 143 GW, so dass in Summe eine Kapazität von 230 GW vorhanden ist mit einem mittleren Nutzungsgrad von rd. 44 GW eff. (Mittlere Nutzung Wind+Sonne; Bild 6)

Die mittlere Nutzung Wind+Sonne stellt gleichzeitig die Summe der Kapazitäten von „Sonstigen“, Kohle und Gas einschließlich der mittleren Nutzung von Wind + Sonne (der letzte Atommeiler soll 2022 geschlossen werden) dar und deckt sich praktisch mit dem oberen Strombedarf in 2030 (Bild 6).

Um das Auffangen derartiger Spannbreiten in der Erzeugung zu ermöglichen, ist naturgemäß zunächst eine kräftige Erweiterung der Netzkapazität von z.Z. 80 GW erforderlich.

Im Übrigen wird in 2030 von einer gleichen Verteilung des Strombedarfes wie in den Jahre 2011-2015 ausgegangen.

Nachts bei Windstille oder bei windlosen Tagen im Winter reicht die Summe der „Sonstigen“ mit 13 GW einschließlich der verbleibenden Kohle- und Gaskraftwerken mit 18 GW nicht einmal aus, den Mindeststrombedarf von 35 GW zu decken.

 

Um den höchsten Strombedarf (73 GW) bedienen zu können, müßten die Kapazitäten der Gaswerke von 7 GW um

73-13 („Sonstige“) – 11 (Kohle) = 49 GW auf 56 GW aufgestockt werden.

Herr Putin wird sich freuen, außerdem wird das Ziel des Abbaues von 175 Mio. t.CO2 wegen des CO2-Anfalles beim Verbrennen von Erdgas verfehlt.

Um die instabile Stromerzeugung über Wind- und Solaranlagen auszugleichen, müßten bis 2030 Stromspeicher in der Größenordnung von

44/2=22 GW

geschaffen werden, da nur durch das Auffangen der über dem nutzbaren Mittelwert liegenden Kapazitäten von Wind und Sonne und ihre Einspeisung bei Ergebnissen unterhalb des Mittelwertes der Mittelwert gehalten werden kann (vgl. Bild 5) .

Die zu speichernden Strommengen lägen dann von 22 GW und einer jährlichen Bruttostromerzeugung von 647 Mrd.kWh in 2015 ausgehend bei

192 720 GWh/a oder 528 GWh/Tag.

Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 1,05 GW und kann diese Leistung jeweils 8 Stunden halten entsprechend 8,4 GWh (Kosten 600 Mio.€).

Für eine tägliche Stromspeicherung wären dann bei einem Wirkungsgrad der Speicher von 80%

528/ 8,4 x o,8 = 79 Speicher

als Jahresmittelwert erforderlich, ohne eine Gesamtbetrachtung der zu bauenden Speicher zum Beispiel bei einem 14-tägigen Zeitraum ohne Wind im Winter anstellen zu wollen.

Die Topographie Deutschlands ließe eine solche Anzahl ohnehin nicht zu, andere Speicher wie „Power To-Gas“ oder Batterien sind für solche Strommengen weder geeignet noch bezahlbar.

Kann eine ausreichende Zahl an Speichern nicht zur Verfügung gestellt werden- wovon auszugehen ist- gehen in Deutschland in 2030 die Lichter aus.

Die Stromversorgung kann dann in 2030 nur aufrecht erhalten werden, wenn die fehlende Speicherkapazität von 22 GW über Kohle- und Gaskraftwerke ausgeglichen wird.

Das würde bedeuten, dass im Sinne von Bild 5 die unter dem Mittelwert liegenden Werte (im Bild über Gas ersetzt) über leicht steuerbare Kohle- und Gaskraftwerke ständig angepaßt werden müßten.

Das heißt, der Strombetrieb kann in 2030 nur funktionieren über eine Kohle-+ Gaskapazität von

18 GW (Kohle+Gas – wie bereits erwähnt)

+ 22 GW (Kohle+Gas als Ersatz für fehlende Speicher)

= 40 GW

Gleichzeitig müßte die Stromkapazität über der mittleren Nutzung von Wind+Sonne auch im Sinne einer gezielten Kapazitätseinstellung still gesetzt werden, d.h. hälftig, nämlich 22 GW. (vgl. Bild 6)

Das bedeutet, dass neben der Kapazität über Kohle und Gas von 40 GW, „Sonstige“ von 13 GW für Wind+Sonne nur noch 20 GW oder einschließlich der „Sonstigen“ ein Anteil über alternative Energien von 33 GW bzw. 45% verbleibt (vgl. (6,7))

Eine für ein Industrieland wie Deutschland beschämende Vorstellung eines Planes zur „Dekarbonisierung“, genannt „Klimaschutzplan 2050“.

 

Die Wunschvorstellung der Vollendung der „Dekarbonisierung“ im Jahre 2050

Wenn nun bis 2050 dieses Drama weiter gehen soll, müßten die 18 GW, die in 2030 noch über Kohle- und Gaskraftwerke abgedeckt werden, stillgesetzt und über eine entsprechende Kapazität über Wind+Sonne ersetzt werden.

Geschieht dies unter den o.g. Randbedingungen, so gilt:

18/ 0,19 ( %uale Nutzung von Wind (17,7%) und Sonne (10,4%) bezogen auf die

Nennleistung) = 95 GW inst.

Damit lägen dann die zu installierenden Kapazitäten über Wind+Sonne in 2050 insgesamt bei:

230 GW (bis 2030)

95 GW (2030-2050)

 = 325 GW

mit einer mittleren Nutzung von 44+18=62 GW.

Hinzu käme noch die nur leicht gestiegenen Kapazität über die „Sonstigen“ von etwa 17 GW (Bild 6) . (1)

Entsprechend den bereits oben gemachten Ausführungen müßte bis 2050 eine tägliche mittlere Speicherkapazität von 62/2 = 31 GW aufgebaut werden, um die Kapazität von 62 GW nutzen zu können (s.oben).

Da eine derartige Speicherkapazität auch bis 2050 nicht aufgebaut werden kann, bleibt der „Klimaschutzplan 2050“ eine Fata Morgana.

Denn es müßten nämlich dann analog zu 2030 nun 31 GW durch die fehlenden Speicher über Kohle- und Gaskraftwerke im Sinne von Bild 5 ausgeglichen werden, gleichzeitig dürften die Wind-+Solaranlagen keinen Strom mehr über der mittleren Nutzung erzeugen, d.h. die Anlagen müssen hälftig stillgesetzt werden, nämlich 31 GW.

Hier verbleiben dann neben der Stromkapazität über Kohle und Gas von 31 GW, den „Sonstigen“ von 17 GW nur noch 31 GW für Wind+Sonne.

Das bedeutet, dass zur Aufrechterhaltung der Stromerzeugung in 2050 die Stromkapazität über die alternativen Energien Wind+Sonne (31 GW) einschließlich der „Sonstigen“ (17 GW) nur noch bei 48 GW oder 61% liegen kann – anstelle der Wunschvorstellung von 100% (vgl. auch (6,7)).

Wenn dann das Programm der Grünen vorsieht, nach 2030 keine Verbrennungsmotoren mehr zuzulassen mit dem Ziel einer kompletten Umstellung aller PKW, LKW und Bussen auf Elektroantrieb, so zeugt dies von einer tief verwurzelter Abkehr von einem technischen Verständnis und eher von einer Hinwendung zu einem religiösen Sendungsbewußsein.

Der Strombedarf würde dann nämlich bis 2050 um etwa 200 Mrd. kWh/a höher liegen als heute (13), abgesehen von einer zusätzlichen kompletten Umstellung der Strominfrastruktur (Kraftwerke, Netzausbau etc.).

„Postfaktisch“ ist das Wort des Jahres 2016. Im Rahmen der Energiewende wird das  „Postfaktische“ jedoch seit ihrer Gründung im Jahre 2000 praktiziert. Mit einer Kugel Eis fing es an. (Trittin)

Wen wundert es da noch, wenn die größten CO2-Emittenten wie China, Indien, Rußland und Amerika die deutsche Klimapolitik über alle Maßen loben- aber vor ihrer Nachahmung warnen. (14)

Die postfaktische Energiewende, verborgen hinter einer vordergründigen Weltrettung über einen CO2-Abbau

Der in den Jahren 1977 bis 1998 gefundene Gleichlauf von CO2-Gehalten in der Atmosphäre und der globalen Temperatur wird 1986 von der Deutschen Physikalischen Gesellschaft (DPG) aufgegriffen und zur „Klimakatastrophe“ stilisiert.

Im Jahre 1988 wurde dann von den Vereinten Nationen die Unternehmung „Intergovernmental Panel on Climate Change“ (IPCC) als eine politische Institution gegründet, die die Aussagen der DPG gerne aufgriff.

Weltweit wurden in der Folgezeit im Auftrage des IPCC Klimainstitute gegründet und finanziell unterstützt mit dem Ziel, ausschließlich das Ausmaß von CO2 auf die Erderwärmung zu untersuchen, insbesondere den aus anthropogenen Quellen stammende CO2-Anteil.

Die staatlich dotierten Wissenschaftler folgten diesem einseitig definierten Auftrag, zahlreiche Klimamodelle zum Einfluß von CO2 auf das Klima wurden erstellt, obwohl vor 1977 und nach 1998 ein Zusammenhang zwischen dem CO2-Gehalt und der globalen Temperatur nicht existiert (Bild 7,8).) (15)

Wen wundert bei diesen staatlichen Eingriffen die Aussage einschlägiger Vertreter des Klimaalarmismus, wenn sie von einer Übereinstimmung aller Wissenschaftler hinsichtlich einer Klimaänderung durch CO2 von 97% sprechen.

Zwangsläufig scheiterten die Klimamodelle auch aus thermodynamischen Gründen mit ihren bedrohlichen Aussagen zum Temperaturanstieg an der Wirklichkeit (16), aber die Angst der Menschen vor dem Weltuntergang durch überhöhte Temperaturen (Kirche: Höllenfeuer) war im kollektiven Gedächnis der Menschen verankert, besonders in Deutschland („German Angst“).
Daß CO2 das Klima nicht beeinflussen kann, zeigt auch die Klimageschichte der Erde nach der letzten Eiszeit (Bild 9). Von den sechs wärmeren Phasen nach der letzten Eiszeit waren alle wärmer als die Jetzige, auch ohne den Einfluß von anthropogenem CO2.

Damit war auch die Klimawissenschaft flächendeckend politisiert, alle Medien und Nichtregierungsorganisationen griffen in dem 1980er Jahren dieses Angst-einflößende Thema zur Anhebung ihrer Auflagen/Einschaltquoten/Spenden dankbar auf, abenteuerliche Meeresspiegelanstiege wurden auch noch vorausgesagt und damit weitere Urängste geweckt, was für viele nach der Abwendung vom Christentum zu einer neuen Heilsbotschaft wurde.

Zudem gab es in der Klimageschichte der Erde Zeiträume, in denen der CO2-Gehalt in der Atmosphäre um mehr als eine Zehnerpotenz höher lag als heute, ohne dass die Temperatur in dieser Zeit höher lag.

Ein zufälliger nicht kausaler Zusammenhang zwischen CO2-Gehalt in der Atmosphäre und globaler Temperatur von etwa 21 Jahren (1977 bis 1998) wird von den politisierten Wissenschaftlern zu einem Dogma stilisiert, das die Welt- vor allem Deutschland- massiv verändern wird, wenn nicht Einhalt geboten wird.

Weiterhin kommt hinzu, dass das CO2 aus verschiedenen Quellen stammt: Ausgasung Meere, Atmung Pflanzen, Zersetzung Bodenorganismen, Entwaldung, Atmung Lebewesen etc., in Summe etwa 800 Gt C/a, wovon nur etwa 3% aus der Verbrennung fossiler Stoffe stammt.

Bei einem CO2-Gehalt in der Atmosphäre von 400 ppm oder 0,0400% errechnet sich dann ein Anteil über Verbrennung von 12 ppm oder 0,0012%.

Der Anteil von Deutschland liegt bei 2,7%, bezogen auf den insgesamt von Menschen verursachten CO2-Anteil, also 0,32 ppm bzw. 0,000 032%.

Der theoretisch abbaubare CO2-Anteil über die Energiewende läge bei einem CO2-Ausstoß von 42% über den Energiesektor (Bild 1) bei 0,13 ppm oder 0,000 013%.

Damit liegt der theoretisch mögliche CO2-Abbau durch die Energiewende – so sie denn gelingt -mit 0,13 ppm weit unterhalb der natürlichen jährlichen Schwankungsbreite durch die Photosynthese von 20 ppm (Äquator) und 3 ppm (Äquator-nah). (17)

Die mögliche Absenkung des CO2-Gehaltes über die Energiewende kostet Deutschland bis 2025

520 Mrd.€ (18)

Der weltweite geringe anthropogene CO2-Anteil von 12 ppm oder 0,0012% soll nun in der Lage sein, gegen thermodynamische Gesetzmäßigkeiten eine Wärmemenge von 324 W/m2 (IPCC) im Sinne eines Treibhauseffektes aus der Atmosphäre zurück zur Erde zu bewegen – das wäre dann ein Perpetuum Mobile ungeahnten Ausmaßes!

Dennoch hat das IPCC bereits 1992 die Forderung erhoben, durch Begrenzung des anthropogenen CO2-Ausstoßes den Anstieg der globalen Temperatur auf 2° Celsius zu begrenzen.

Deutschland zahlt neben den genannten 520 Mrd.€ für die Energiewende (bis 2025) auch noch in 2016     2,7 Mrd.€     für den internationalen Klimaschutz. (19) Die Entwicklungsländer mit ihren korrupten Regierungen werden sich freuen.

Wo bleibt der Aufschrei der nicht staatlich dotierten Wissenschaftler, der Gesellschaft? Ein Aufschrei der Medien ist nicht zu erwarten, zu tief ist die Verflechtung in einer „mediatisierten“ Gesellschaft und Politik.

Medien bevorzugen außerdem zur Anhebung ihrer Auflagen/Einschaltquoten eine dramatisierende, skandalisierende und emotionalisierende Berichterstattung nach dem Motto „Only bad news are good news“, wo dann leicht der Respekt vor der Wahrheit verloren geht.

War vor einigen Jahren die Angsteinflößung durch einen Anstieg der globalen Temperatur noch das Monopol der Grünen, so haben nun fast alle Parteien dieses Machtinstrument entdeckt.

Irgendwann wird diese CO2-Hysterie auf dem Müllhaufen der Wissenschaftsgeschichte landen, wie z.B. das Waldsterben etc.- Verantwortliche wird es nicht geben.

 

Quellen

1.FAZ, 09.06.2016

2.Klimaschutzplan 2050: Beschluß Bundeskabinett im Umlaufverfahren vom 14.11.2016

3.Beppler, E.: „Der unaufhaltsame, gestufte Fall der „Deutschen Energiewende“, ein quantitatives Desaster“, EIKE,11.07.2016

4.Schuster, R.: Mitteilung Juli 2016

5.Schuster, R.: Mitteilung 03.12.2016

6.Beppler, E.: „Energiewende – Zweite industrielle Revolution oder Fiasko“, 2013, ISBN 978- 3-7322-0034-4

7.Beppler, E.: „Energiewende 2014 – ein Debakel“, 2015, ISBN 978-3-7386-9418-5

8.Öllerer, K.: Windenergie in der Grund-, Mittel- und Spitzenlast: www.oellerer.net

9.Schuster, R.: Mitteilung Februar 2016

10.“Der Spiegel“ 41/2016

11.FAZ, 26.11.2016

12.FAZ, 08.12.2016

13.Mueller, F. F.: „Wenn der Wirt die Ökorechnung selbst nachprüft. Der neue Tesla, eine Dreckschleuder.

14.FAZ,28.11.2016

15.Puls,K.-E.: „CO2 am Pranger“, EIKE, Vortrag 2016

16.Spencer,R.: www.drroyspencer.com

17.Wikipedia: „CO2 in der Erdatmosphäre“

18.Limburg, M.: Mitteilung EIKE vom 10.10.2016 (Untersuchung des Düsseldorfer Instituts für Wettbewerbsökonomik)

19.FAZ, 11.11.2016

 

Bildunterschriften

Bild 1: CO2-Einsparungen in einzelnen Bereichen nach dem Klimaschutzplan 2050

Bild 2: Gasemissionen in Deutschland nach 1990 in CO2-Äquivalenten

Bild 3: Kleinste, mittlere und größte Jahreseinspeisungen Wind 2010 bis 2016

Bild 4: Kleinste, mittlere und größte Jahreseinspeisungen Sonne 2011 bis 2016

Bild 5: Gesamtwindleistung von März 2011 hochgerechnet auf eine Stromleistung von 40 GW

Bild 6: Stromerzeugungskapazität „Sonstige“, Kohle, Kern, Gas und Wind+Solar von 2015 über 2030 bis 2050

Bild 7: Temperaturverlauf 1850 bis 2015

Bild 8: Temperaturverlauf 1997 bis 2015

Bild 9: Temperaturverlauf nach der letzten Eiszeit

 

 

 




Der Fukushima-­Report (4): Das Panik-Orchester

Angela Merkel, die kritische Meinungen inzwischen schon mal als „postfaktisch“ bezeichnet, hat 2011 die damals frisch beschlossene Laufzeitverlängerung der deutschen Atomkraftwerke einkassiert und eine „Energiewende“ in Deutschland eingeleitet. Die von linksgrüner Angstpropaganda nach dem Unglück in Japan verunsicherte deutsche Öffentlichkeit – darunter vor allem die Medien – unterstützte die Kehrtwende der Kanzlerin, obwohl es Merkel dabei erkennbar nicht um die Sache ging. Die CDU-Vorsitzende handelte vor allem aus der Angst heraus, ihre Partei werde bei den Landtagswahlen in Baden-Württemberg und Rheinland-Pfalz Stimmen verlieren. Das plötzliche Abrücken von ihrer früheren Energiepolitik zahlte sich für die Union nicht aus: In Stuttgart gewann eine grün-rote Koalition und auch in Mainz schafften es die Christdemokraten nicht in die Regierung.

Ob der Kanzlerin damals klar gwesen war, dass Deutschland in der Mitte Europas in ein riesiges europäisches Energieverbundnetzwerk eingebunden war, ist zu bezweifeln. Denn sonst hätte die große Europäerin sich ja wenigstens mit ihren Nachbarn über diesen Schritt abgestimmt, da diese direkt von der Entscheidung betroffen sind und jetzt Schutzmaßnahmen technischer Art (Phasenschieber) in ihre Netze an den Grenzen zu Deutschland installieren, um sich vor den Folgen der deutscen „Energiewende“ zu schützen.

Bei uns kommt der Strom aus der Steckdose

Wie naiv – und das ist mit dem Mäntelchen der Nächstenliebe ausgedrückt – die deutsche Energiepolitik ist, möchte ich an einem Beispiel aus der jüngsten Geschichte der „Energiewende“ zeigen. Die Bundesregierung hat beschlossen, dass bis zum Jahre 2020 eine Million Elektroautos auf Deutschlands Straßen fahren sollen, um – wie es heißt – den Verkehr umweltfreundlicher zu machen. Dafür will der Staat sogar eine Kaufprämie zahlen, natürlich aus Steuergeld – woher auch sonst? Da wollen die ach so fortschrittlichen Vorstände der Automobilkonzerne natürlich nicht zurück stehen – oder besser: mitkassieren – und lassen fleißig Elektroauto-Systeme entwickeln, die die miserable Reichweite für den mobilen Bürger attraktiv machen sollen, etwa Schnelladestationen von sage und schreibe 350kW Leistung, die in kurzer Zeit die riesigen Autobatterien laden sollen.

Ich kann mir so ein Ladekabel eigentlich nur gekühlt vorstellen, da fließen bei 650 Volt Betriebsspannung eines E-Mobils immer noch über 500 Ampere durchs Kabel. Zum Vergleich: Die meisten Haushaltsstromkreise sind mit 10 Ampere abgesichert. Unter großem medialen Getöse wurde diese Idee gefeiert und der Bund stellt schon mal 300 Millionen Euro Steuergeld für Tausende solcher Stationen bereit. Steckdose statt Zapfsäule: Bekanntlich kommt der Strom in Helldeutschland aus der Buchse.

Kommt ein Milchmädchen daher – eines, das noch vor der deutschen Matheschwäche die Hauptschule abgeschlossen hat – und fängt an, zu rechnen. Nehmen wir an, es ist 20:00 Uhr. Von der Million Autos werden jetzt, na sagen wir 10 Prozent, also 100.000 zum Aufladen mit dem Stromnetz verbunden. Jede Dose hat 350 kW, macht 100.000 mal 350 kW macht 35 Millionen Kilowatt oder 35.000 Megawatt. Das sind 23 Großkraftwerke von der Güte Brokdorfs oder Emslands mit je 1.500 MW Leistung.

Aber bis 2022 werden die restliche Handvoll AKWs abgeschaltet sein, die es noch gibt, und bis 2050 soll auch der Ausstieg aus der Kohle-Verstromung vollendet sein. Tja, liebe Politiker, dann fangt schon mal an, Ideologie-Verbrennungs-Kraftwerke zu bauen, denn in Deutschland gibt es insgesamt 60 Millionen Kraftfahrzeuge, deren Verbrennungsmotoren die Regierung bis 2035 verbieten will. Und die wollen alle irgendwie geladen werden.

Per Ordre di Ethik-Kommission

Wievielt Autos von den 60 Millionen abends an die Steckdose gehen und welche Kraftwerksleistung dafür benötigt wird, können sich andere Milchmädchen ausrechnen. Hier ist nur anzumerken, dass der Planungs-und Bauzeitraum für ein Kraftwerk ca. 10 bis 15 Jahre beträgt. Aber niemand, wirklich niemand würde in Deutschland heute auch nur einen Cent in einen neuen Kraftwerksbau stecken. Wir legen gerade brandneue Kraftwerke wie Irsching still, das modernste Gaskraftwerk der Welt. Im Subventions-Gestrüpp der Energiewende sind sämtliche Kraftwerke nämlich einfach nicht mehr rentabel zu betreiben. Gegen Erzeuger, die 80 Prozent ihres Einkommens aus Subventionen generieren, kommt keine Industrieanlage an. Und welcher Investor baut ein Kraftwerk in einem Land, wo die Regierung es mal eben so „per Ausstiegsbeschluss“ und Ordre di Ethikkommission aus irgendeinem zurzeit gerade ideologisch missliebigem Energieträger gegen eine kleine Entschädigung enteignen kann?

Kommt ein umweltbegeisterter Politiker daher und säuselt: „Bis dahin haben wir ja die intelligenten Netze, die eine Überlastung der Netze sicher verhindern“. Ach hätten wir doch intelligente Politiker, die selber merken, dass dies nur bedeutet, dass das Netz nicht zulässt, dass mehr Autos geladen werden, als die Kraftwerke gerade bespeisen können. Dann würden sie nämlich selber merken, dass nicht mehr alle Bürger Auto fahren können, da ihre Batterien leer bleiben. Autofahren ist dann wie Segeln – wenn der Wind weht, geht’s voran. Interessant wird dann die Frage: Wessen Auto wird heute geladen? Und wessen morgen? Willkommen in der schönen neuen Fußgänger-Welt mit den Mehrkosten einer Eiskugel (Minute 6:45) pro Monat. Noch was, liebe Politiker: Stromautobahnen produzieren keinen Strom. Genauso, wie Autobahnen keine Autos herstellen.

Fachleute können meine stark vereinfachte und fehlerbehaftete Darstellung durchaus als Milchmädchenrechnung abtun – sie will ja auch nur die Dimensionen zeigen, mit denen wir es zu tun haben. Ist es nicht eher ein bisschen arg „postfaktisch“, den Elektroenergieverbrauch in gigantischem Umfang für Mobilität der Straßen hochfahren zu wollen, bei gleichzeitigem Herunterfahren der Elektroenergieproduktion durch Ausstieg aus diversen Grundlastenergieträgern? Ausstieg aus allem, ist das nicht irgendwie irre?

Windmühlen, Brenngläser, Furzgas

Doch zurück zu Fukushima und der Atomenergie. Zu Beginn hieß es noch: Wir sind mit der Energiewende die Vorreiter und die Welt wird uns folgen. Inzwischen sind wir die Geisterfahrer der Energiewende. Für Politiker: Geisterfahrer ist immer der, dem alle anderen entgegenkommen. Kernenergie-Ausstiegsland ist Deutschland. Belgien, die Schweiz, Taiwan und Spanien wollen – vielleicht – später mal aussteigen.

Umgekehrt steigen die Vereinigten Arabischen Emirate und Weißrussland neu in die Kernenergie ein. In den beiden Ländern werden derzeit insgesamt sechs Kernkraftwerke gebaut. In den USA sind vier Kernkraftwerke im Bau. Großbritannien hat beschlossen, seinen Kernkraftwerkspark mit mindestens drei Anlagen moderner Bauart zu ersetzen. China, Indien und Russland verfolgen umfangreiche Ausbaupläne. Auch in Argentinien, Finnland, Frankreich, Pakistan, Polen, Rumänien, der Slowakei, Südafrika, Südkorea, der Türkei oder Ungarn wird die Kernenergienutzung vorangetrieben.

Derzeit befinden sich weltweit 60 Atomkraftwerke im Bau. Seit Anfang 2015 haben 17 Kernkraftwerke den kommerziellen Betrieb aufgenommen und 11 neue Bauprojekte wurden gestartet. International wird die Atomtechnologie weiterentwickelt. In China sind zwei sogenannte Hochtemperatur-Kugelhaufen-Reaktoren im Bau. Diese ursprünglich aus Deutschland stammende Bauart hat wegen ihrer Sicherheitseigenschaften – eine Kernschmelze ist dort aus physikalischen Gründen nicht möglich – ein vielversprechendes Zukunftspotenzial, genau wie der neuartige Thorium-Flüssigsalzreaktor, der kaum radioaktiven Abfall hinterlässt.

Den 60 AKW-Neubauten weltweit steht eine Handvoll deutscher AKW zur Abschaltung gegenüber. Wenn die Deutschen keine Atomkraftwerke wollen – die Italiener und Österreicher denken ja genauso – dann ist das in Ordnung. Aber die Deutschen wollen auch keine Kohle- oder Gaskraftwerke und an diesem Punkt wird es eben irrational. Deutschland auf dem Weg zurück zur Technologie des Mittelalters: Windmühlen, Brenngläser und Furzgas. Oder wenn man sich ehrlich machen würde: auf dem Weg in die Energiemangelwirtschaft.

Politik auf dem Prinzip Hoffnung

Und noch eine schlechte Nachricht für umweltbesoffene Politiker: Außer Pumpspeicherkraftwerken existiert keine industriereife Speichertechnologie für Strom. Notabene – ich rede hier nicht von Handyakkus oder Einfamilienhäusern, sondern vom Industriestandort Deutschland. Pumpspeicher gibt es in Deutschland noch nicht einmal mit 10 Prozent der Kapazität, die benötigt würde, um den Kernenergieausstieg mit erneuerbarer Energie zu kompensieren. Und die existierenden Pumpspeicherwerke sind nicht einmal mehr rentabel – auch sie müssen subventioniert werden. Für hunderte neuen Pumpspeicherwerke, die für die Energiewende gebraucht würden, gibt es in Deutschland gar keine Standorte, geschweige denn Investoren oder Akzeptanz.

Nicht umsonst hatte die Regierung die glorreiche Idee, norwegische Fjorde als Pumpspeicherwerke zu nutzen. Nur haben sie vergessen, die Norweger dazu zu befragen, und es ist sehr still um die Idee geworden. Auch die Sahara wurde leider den Deutschen nicht für die Energiewende zur Verfügung gestellt. Deshalb bleibt die Energiewende eine Rolle rückwärts in die Braunkohle. Die deutsche Regierung betreibt Energiepolitik basierend auf dem Prinzip Hoffnung, dass demnächst großtechnisch nutzbare Energiespeicher erfunden werden. Jede Woche wird eine neue Idee in den Medien gehypt, eine spinnerter als die andere. Die Projekte haben alle eines gemeinsam: Nach kurzer Zeit verschwinden sie aus den Nachrichten und werden durch neue Wunderwaffen für den Endsieg der Energiewende ersetzt. In Wahrheit steigt mit jedem neuen Windrad und mit jedem neuen Sonnenpaneel das Risiko eines Blackouts in Deutschland, dessen Folgen ich mir gar nicht vorstellen mag.

Der Frühmensch brauchte tausend Jahre, um das erste Feuer zu beherrschen. Die Kernenergie ist das zweite Feuer und erst im 50. Jahr ihrer Entwicklung. Wenn sie sicher, ökonomisch und kohlendioxidfrei Strom für die Menschen produzieren kann, dann steht sie erst am Anfang ihrer Entwicklung. Wenn sie das nicht kann, dann wird sie verdientermaßen untergehen. Wir werden sehen.

„Halbe Wahrheit ist ganze Lüge“

Ich schließe diese Artikelserie mit einem persönlichen Erlebnis ab, das ein bezeichnendes Licht auf die Haltung der deutschen Medien zur Atomenergie wirft. Vor drei Jahren wurde ich von einem seriösen Wissenschaftsredakteur zum Thema „Energie, Wohlstand und Freiheit“ befragt. Der Redakteur arbeitete für ein Magazin, dass sich damit brüstete, größten Wert auf Fakten zu legen. Als der Artikel in Druck ging, stoppte der damalige Chefredakteur den Andruck mit der Bemerkung: „Das ist ja kernenergiefreundlich. Das bringen wir nicht.“ Verärgert ließ der düpierte Journalist den Artikel in der Schweizer „Weltwoche“ veröffentlichen.

Wenn ein deutsches Magazin, das sich gern seiner Faktentreue rühmt, einen Bericht unterschlägt, weil ihm dessen Richtung nicht paßt, dann sind viele Fakten dieser Fukushima-Artikelserie vielleicht auch für Sie neu gewesen. Wie sagte der kluge Rabbiner? „Eine halbe Wahrheit ist eine ganze Lüge.“ Und „fake news“ sollen in Deutschland möglichst unterbunden werden. Was angeblich falsche Nachrichten sind, entscheidet dann womöglich ein Wahrheitsministerium (s. dazu auch hier und hier).

 




Netzausbau – Status nach dem 3. Quartal 2016

Um Planung und Bau über die Grenzen von Bundesländern hinweg zu straffen, wurden 2009 das Energieleitungsausbaugesetz EnLAG und 2013 das Bundesbedarfsplangesetz BBPlG verabschiedet. Den Übertragungsnetzbetreibern wurden immer mehr Zuständigkeiten zugunsten der staatlichen Bundesnetzagentur entzogen. Die öffentliche Hand, hoffte die Bundesregierung, werde für kurze Planungs-, Genehmigungs- und Errichtungsphasen sorgen können. Der Status heute, im 7. Jahr nach Verabschiedung des EnLAG.

 

Status nach dem 1. Quartal 2016

Ein Blick zurück auf den Stand der Vorhaben aus dem BBPlG nach dem 1. Quartal 2016, Blogartikel vom 07. Juni 2016. Auszug:

„Stand nach dem ersten Quartal 2016

  • Die Gesamtlänge der Leitungen, die sich aus dem Bundes­bedarfs­plangesetz ergeben, liegt aktuell bei etwa 6.100 km. Im Netz­entwicklungs­plan sind davon etwa 3.050 km als Netz­verstärkung kategorisiert.
  • Die Gesamtlänge der Leitungen in Deutschland wird stark vom Verlauf der Nord-Süd-Korridore abhängen und sich im weiteren Verfahrens­verlauf konkretisieren. 
  • Insgesamt sind rund 350 km genehmigt und 65 km realisiert. Im ersten Quartal wurden sechs Kilometer realisiert.“

Status nach dem 3. Quartal 2016

Die Bundesnetzagentur teilt mit:

 

  1. Bundesbedarfsplangesetz BBPlG

„Stand nach dem dritten Quartal 2016

  • Die Gesamtlänge der Leitungen, die sich aus dem Bundesbedarfsplan­gesetz ergeben, liegt aktuell bei etwa 6.100 km. Im Netzentwicklungs­plan sind davon etwa 3.050 km als Netzverstärkung kategorisiert.
  • Die Gesamtlänge der Leitungen in Deutschland wird stark vom Verlauf der Nord-Süd-Korridore abhängen und sich im weiteren Verfahrens­verlauf konkretisieren.
  • Insgesamt sind rund 400 km genehmigt und 80 km realisiert. Im dritten Quartal wurden elf Trassenkilometer realisiert.“
  1. Energieleitungsausbaugesetz (EnLAG)

„Stand nach dem dritten Quartal 2016

  • Die Gesamtlänge der Leitungen, die sich aus dem EnLAG ergeben, liegt aktuell bei rund 1.800 km.
  • Im dritten Quartal wurden drei Kilometer fertig­gestellt. Insgesamt sind rund 900 km genehmigt und rund 650 km realisiert, das sind rund 35 Prozent der Gesamtlänge.
  • Die Übertragungsnetzbetreiber rechnen mit einer Fertigstellung von rund 45 Prozent der EnLAG-Leitungs­kilometer bis 2017.
  • Noch keines der Vorhaben mit Pilotstrecken für Erd­kabel ist in Betrieb. Der Übertragungsnetzbetreiber Amprion bereitet aktuell den Test­betrieb für das erste 380-kV-Erdkabel-Pilotprojekt in der Gemeinde Raesfeld vor.“

Fazit nach dem 3. Quartal 2016

BBPlG (seit 2013): Gesamtlänge 6.100 km, genehmigt 400 km, 80 km fertiggestellt, davon 11 km im Q3/2016 gebaut. Die aktuelle Fertigstellungsrate in Höhe von aufgerundeten 50 km/Jahr sieht nicht vertrauenserweckend aus.

EnLAG (seit 2009): Gesamtlänge 1.800 km, genehmigt 900 km, fertiggestellt 650 km, davon 3 km in Q3/2016. Prognose: Bei der mittleren Baurate seit 2009 in Höhe von ca. 130 km/Jahr wird die letzte der geplanten Leitungen in 9 Jahren fertiggestellt sein.

Die Nord-Süd-HGÜ-Trassen befinden sich noch im Stadium der Trassenplanung. Nach aktueller Terminplanung werden sie etwa 2025 fertiggestellt sein. Inwieweit die Terminplanung bei dem wachsenden Widerstand der Bevölkerung eingehalten werden kann, wird die Zukunft zeigen.

Ähnliches gilt auch für die Verkabelung von 380-kV-Drehstromtrassen, für deren Versuchsbetrieb die Pilotstrecken per Ende Q3/2016 noch fehlen.

Ausblick

Der Netzausbau entwickelt sich viel langsamer, als die Bundesregierung mit dem EnLAG 2009, bei der Energiewende 2011 und mit dem ergänzenden BBPlG 2013 angenommen hatte.

Infrastrukturmaßnahmen, gleich welcher Art, können in Deutschland seit Mitte der 1970ger Jahre nur noch gegen großen Widerstand spezieller Interessengruppen, nach endlosen Gerichtsverfahren und mit explodierenden Kosten durchgeführt werden.

Im Gegenzug sind alle Maßnahmen Pflicht, die unter die Titel CO2-Reduzierung, Dekarbonisierung und Atomausstieg fallen.

Dazu gehören die gesetzlich angeordnete Abschaltung aller Kernkraftwerke, die letzten werden 2022 den Leistungsbetrieb einstellen müssen, die forcierte Außerbetriebnahme von Braunkohlekraftwerken und die folgende Außerbetriebnahme von Steinkohlekraftwerken. Als Kompensation soll der Neubau von „Reservekraftwerken“ mit insgesamt 2.000 MW in Süddeutschland per staatlicher Ausschreibung vorangetrieben werden, die als wesentliches Merkmal innerhalb von 45 Minuten nach Kaltstart unter Volllast laufen können müssen. In Deutschland werden Kohlekraftwerke durch Gasturbinenkraftwerke ersetzt werden, deren Brennstoff i. W. aus Russland kommen wird und der schwieriger zu bevorraten ist, als Kohle. Es wird nicht einfach sein, Unternehmen zu finden, die unter den unsteten Bedingungen in Deutschland neue Kraftwerke bauen und betreiben werden.

Der Netzausbau geht nur sehr langsam voran. Die Außerbetriebnahme von politisch unerwünschten Kraftwerksanlagen wird jedoch planmäßig (Kernkraftwerke) und forciert (Kohlekraftwerke) weitergeführt. Wie lange das Elektrizitätssystem diese Divergenz ohne staatliche Stromrationierung wird aushalten können, werden wir in wenigen Jahren wissen.

Blogbeitrag vom 07. Juni 2016 zum Status des Netzausbaues per Ende Q1/2016.

Gesetz zum Ausbau von Energieleitungen (Energieleitungsausbaugesetz – EnLAG)

Gesetz über den Bundesbedarfsplan (Bundesbedarfsplangesetz – BBPlG)




Harald Lesch trägt vor den GRÜNEN zum Klima­wandel vor: Der Klima­wandel ist kein Thema, das man ernsthaft bezweifeln kann

Immerhin ist Prof. Lesch Klimaberater der Bayerischen Umweltministerin. Seine Beratung kann also Auswirkungen auf Maßnahmen und Ausgaben mindestens der Bayerischen Landesregierung haben.
Es lohnt sich, den Vortrag anzuhören. Er ist eine Lehrstunde in schlimmster „Oberlehrermanie“ und elitärem Überlegenheitsdünkel (H. Lesch: „Ich unterrichte auch Philosophie“), leider auch verbunden mit mehr als indirekter Drohung gegen die moderne Landwirtschaft und „Konzerne, welche den Globus kaputt machen“. Den GRÜNEN Zuhörern scheint es aber gefallen zu haben.

Die Rezension recht lang geworden. Sie soll aber nicht nur eine Linksammlung, sondern auch die Daten der kritischen Argumentation bringen. Es ist zudem eine Illusion zu glauben, das Für und Wider ließe sich in Talkshow-manier in einer kurzen Abhandlung mit wenigen, dafür immer „wahreren“ Statements „berufener Diskutanten“ darlegen, vielleicht sogar klären.
Oft liegt die Wahrheit auch mehr in der Mitte. Diese Mitte wird von Herrn Lesch jedoch nicht vermittelt.

Der Vortrag vor den GRÜNEN

Hier zunächst das Video: Harald Lesch fordert endlich Konsequenzen aus dem Wissen um den Klimawandel zu ziehen. Quelle: YouTube, Veröffentlicht am 21.11.2016 [1]

Seit einigen tausend Jahren befeuert der Mensch die Atmosphäre mit Kohlenstoff

H. Lesch: Dass wir schon lange den Planeten Erde beeinflussen, vor allem durch unsere Landwirtschaft. Das ging schon vor ein paar tausend Jahren los … Man kann es heute nachweisen, wie die natürlichen Rhythmen bei der Emission von Treibhausgasen systematisch entkoppelt werden von dem was wir anstellen. Wir sind das, was der Fall ist.
Und das zieht sich schon ziemlich lange hin. Wenn man diese Daten tatsächlich etwas genauer analysiert dann stellt man fest, dass wir natürlich über die letzten 10.000 Jahre immer mehr und mehr und mehr Fläche von diesem Planeten benutzen und man kann hier auch sehen, wie also dann
wirklich vor einigen tausend Jahren es systematisch losgeht, das wir die Atmosphäre befeuern mit Kohlenstoff. Es hilft nichts, das ist so, schlicht und ergreifend.
Das kann man zusammenfassen: Wir nehmen alles was wir kriegen können und tun das in einem Ausmaß wie man sich das noch vor wenigen Jahrzehnten überhaupt nicht hat vorstellen können. Die Lage ist echt katastrophal, also nicht nur ein bisschen,
sondern so richtig schlecht, so richtig schlecht..
...Ist ihnen klar, dass die Kenntnis davon, dass die Welt aus Atomen, bzw. Molekülen und so weiter besteht, uns überhaupt erst in die Lage versetzt hat, Natur so stark zu manipulieren wie sie es heute tun. Wären wir noch in dem Wissensstand von dem Jahre 1900 oder 1800, hätten wir gar nicht die Möglichkeit die Erde so zu verhunzen wie wir es momentan tun.

Kritische Anmerkungen dazu

Herr Lesch muss einen wahren Hass auf die Moderne und auf die moderne Landwirtschaft haben – und die feste Überzeugung, als einer der Wenigen die absolute Wahrheit zu kennen. Er bringt (auch im ganzen weiteren Vortrag) keine Lösung für die Probleme der Menschheit, doch hat man den Eindruck, die Vergangenheit würde ihm generell besser gefallen.
Allerdings entzieht es sich jeglicher Logik, weshalb er sagt: „ … wirklich vor einigen tausend Jahren es systematisch losgeht, das wir die Atmosphäre befeuern mit Kohlenstoff“.
Diese Darlegung ist bezüglich eines auch nur entfernt denkbaren Klimaeinflusses vor-historischer CO2-Verfeuerung absurd überzogen. Zudem stellt sich die Frage, was er damit aussagen will. Möchte er wirklich die Menschheit seit der Steinzeit verantwortlich machen, mit ihren Feuerstellen das Klima kaputt gemacht zu haben? Welche Alternative hätte er sich dazu vorgestellt? … Noch öfter zu erfrieren und zu verhungern? Oder will er damit für die Ökokirche eine „Klima-Erbsünde“ konstruieren?

Zum Klimawandel gibt es keinen Dissens

H. Lesch: Und dabei (meint die Erderwärmung) handelt es sich vor allen Dingen um einen Vorgang der uns massiv Probleme macht, … über den überhaupt kein wirklicher Dissens mehr besteht, auch wenn heute der mächtigste Mann der Welt behauptet, die globale Erwärmung sei ohnehin eine Erfindung der Chinesen.
… Man sollte ihm vielleicht einmal sagen, dem blonden Lord … dass die Chinesen momentan was die erneuerbaren Energien betrifft ganz ganz ganz weit vorne
sind. … wir heizen die Atmosphäre auf … eine erhitzte Atmosphäre ist das, was über unseren Köpfen passiert… und das ist gesichert… ich nehme an, dass hier im Saal wohl niemand ist, der an der globalen Erwärmung zweifelt …es gibt die gesicherten Erkenntnisse zur Klimaforschung
… Wir sind der soziale Meteoriteneinschlag. ... Und zwar namentlich die Art und Weise wie wir im Westen mit dem umgehen, was um uns herum ist und dass das kein Thema ist was man ernsthaft bezweifeln kann, das sehen sie hier (zeigt Bild 3)
33.700 Autoren von peer-reviewed Artikeln sind eindeutig der Meinung dass der Klimawandel menschengemacht ist. Nur 34 …also wir reden hier
(Anmerkung: Bei den nicht-Zustimmenden) über einen Promilleanteil…. also es ist absolut klar, was hier passiert …. es wird immer wärmer und wärmer und wärmer.

Bild 3 [1] Screenshot Bild-Ausschnitt aus dem Vortrag. (Rote Unterstreichungen vom Autor zugefügt). Quelle YouTube Video

Kritische Anmerkungen dazu

Konsens beim Klimawandel

Nachdem es immer noch keinen messtechnischen Beleg für den CO2-menschengemachten Klimawandeleinfluss gibt, sucht man seit langem nach anderen Belegführungen. Und dafür gilt auch die Auswertung der „wissenschaftlichen“ Meinung. Angeblich verhält sich das Klima nach Abstimmungsergebnissen und Anzahl der Veröffentlichungen.
Generell wäre dagegen – zumindest zur Meinungsunterstützung – nicht einmal so viel einzuwenden, wenn beim anthropogenen Klimawandel wirklich eine freie und offene Meinungsbildung herrschen würde. Wer sich aber heute traut, als Klimawissenschaftler gegen den AGW-Klimawandel zu publizieren, hat seine Karriere alleine dadurch verwirkt. Und das gilt nicht nur für Forscher:
SOTT, 04 Nov 2015: Französischer Meteorologe verliert seinen Job wegen Zweifel am Klimawandel

Konsensstudien

Es ist vergleichbar, als wenn man zur Zeit der Hexenverfolgung die Publikationen zu Hexen gezählt und darauf die Wissenschaftlichkeit des Hexenglaubens begründet hätte, mit besonderer Berücksichtigung, dass große Hexenjäger, also wirkliche Fachpersonen, besonders oft zustimmend publizieren (wie es bereits damals indirekt auch so begründet wurde).
Der Deutsche Bundestagsbeschluss mit 100 % Zustimmung aller Parteien ohne Enthaltung oder ungültige Stimmzettel, also „sicherer“ als DDR-Volkskammerwahlen, zum Klimavertrag ist ebenfalls ein passendes Beispiel: Wurde der Klimawandel dadurch wirklich auch zu genau 100 % belegt?
Die DDR Volkskammer hatte zur letzten Wahlperiode (1986) 99,94 % Ja-Stimmen bei 0,06 ungültigen Stimmen, also auch 100 % Zustimmung. Trotzdem gab es diesen „zu 100 % bestätigten“ Staat am Ende der Wahlperiode nicht mehr. Soweit zum Wahrheitsgehalt und Beständigkeit welche auf Abstimmungsergebnissen basiert.
Doch das Vorgehen wiederholt sich:

In der jüngsten Konsensusstudie:
JohnCook at al.: [5] Consensus on consensus,
sind von 1991 bis 2014 alleine 14 Konsensusumfragen gelistet. Die Zustimmungswerte ([5] Table1. Estimates of consensus on human-caused global warming among climate experts) reichen von 40 … 91,9 % sofern man alles einbezieht und von 67 … 97,2 %, wenn nur „Sub-sample of publishing climatologists“ berücksichtigt werden.

Die Zahlenangaben im Vortrag beziehen sich aber wohl auf die Untersuchung eines Herrn Powell, der es ganz genau herausfand und zum folgenden Ergebnis kam:
[6] Powell wählte für seine Analyse die umgekehrte Vorgehensweise wie Doran/Zimmermann/Cook und andere und suchte nach Fachartikeln, die “anthropogenic global warming” (AGW) ausdrücklich ablehnen – und fand einen Anteil von 0,0058 Prozent.
Um als kritisch eingestellter Wissenschaftler nach Herrn Powell und Herrn Lesch zu gelten, muss man also in einer peer-reviewten Studie (wer traut sich, im Review der These zuzustimmen?) einen möglichen AGW-Klimaeinfluss vollkommen ablehnen. Wer sagt (wie wohl die meisten Kritiker): Es kann einen Einfluss geben, doch ist dieser bei Weitem nicht so stark, wie vom IPCC angenommen und damit kein wirkliches Problem, welches die überzogenen CO2-Reduktions-Maßnahmen rechtfertigt, stimmt der AGW-These statistisch betrachtet, voll zu.

Doch wie immer beim Klimawandel, gibt es nicht einmal über die Konsensstudien Konsens:
Spiegel Online,
23.09.2014:[3] Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
Ruhrkultour: [8] Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler

Von den rund 12.000 Veröffentlichungen bestätigte nur rund ein Drittel der Wissenschaftler, 32,6 Prozent, die Ansicht, dass die globale Erwärmung durch Menschen verursacht sei (Anthropogenic Global Warming-AGW), 97 Prozent dieses Drittels, nicht der Gesamtmenge, hielt “die jüngste Erwärmung vor allem von Menschen gemacht”. Die Mehrheit der Wissenschaftler, 66,4 Prozent, bezog keine Position zum AGW. Aber die Zahl 97 machte weltweit die Runde. Noch am selben Tag der Veröffentlichung des IOP twitterte der Präsident der USA, Barack Obama: (Bild 4)

Bild 4 [8] Tweet von B. Obama zur Konsensstudie
In einer Anlage am Artikelende ist eine inhaltliche Darstellung dieser „97% Studie“ (ist wohl die am häufigsten zitierte Konsensstudie) hinterlegt.

Es gibt auch Konsens gegen Konsensstudien

Nicht gelistet sind in diesen Studien und Blogs gegensätzliche Meinungen:
Natural News, August 31, 2016: [7] Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
The Petition Project Site also includes a petition to the US Congress. The wording of the petition is:
We urge the United States government to reject the global warming agreement that was written in Kyoto, Japan in December, 1997, and any other similar proposals. The proposed limits on greenhouse gases would harm the environment, hinder the advance of science and technology, and damage the health and welfare of mankind.
There is no convincing scientific evidence that human release of carbon dioxide, methane, or other greenhouse gasses is causing or will, in the foreseeable future, cause catastrophic heating of the Earth’s atmosphere and disruption of the Earth’s climate. Moreover, there is substantial scientific evidence that increases in atmospheric carbon dioxide produce many beneficial effects upon the natural plant and animal environments of the Earth.

Given the fact that over 17,200 scientists have signed this petition, I would have to say that there certainly is no consensus among scientists that global warming is real or that it is man made.

kaltesonne 24. April 2013: Größte unabhängige Forschungsorganisation Norwegens: Es gibt keinen wissenschaftlichen Konsens in den Klimawissenschaften
Die größte unabhängige Forschungsorganisation Norwegens, die SINTEF, gab Mitte April 2013 einen neuen Bericht mit dem Titel “Konsensus und Kontroverse” heraus, in dem die wissenschaftliche Klimadebatte kritisch analysiert wurde. Der Bericht ist im Internet als pdf frei verfügbar. … In der Kurzfassung der lesenswerten Studie fasst SINTEF zusammen:
Dieser Bericht lehnt das Konzept ab, dass es einen einstimmigen wissenschaftlichen Konsensus zur Frage der anthropogenen Klimaerwärmung gäbe und dass die wissenschaftlichen Grundlagen heute vollständig bekannt wären. Der Bericht schlußfolgert, dass eine bedeutende kritische wissenschaftliche Diskussion in den Klimawissenschaften existiert. In dieser Diskussion einen Konsensus herbeiführen zu wollen entspricht einem politisierten und unwissenschaftlichen Glauben an die Forschung, welcher mit dem Ethos der traditionellen Wissenschaft unvereinbar ist.
… Zunächst kann festgestellt werden, dass die Behauptung schlichtweg falsch ist, dass jegliche Zweifel in der Klimadebatte ausgeräumt wären. Trotz eines hohes Maßes an Übereinstimmung in der wissenschaftlichen Literatur darüber, dass eine menschengemachte Klimaerwärmung prinzipiell existiert, gibt es in der Diskussion eine Vielzahl von abweichenden Meinungen, offene Fragen und gegenteilige Ansichten, sowohl in der wissenschaftlichen Debatte als auch in der öffentlichen Meinung. Die Behauptung “alle Zweifel sind heute ausgeräumt” ist daher unhaltbar.

Und es gibt begutachtete Studien mit klimakritischen Inhalten

Peer-reviewte Studien mit klimakritischem Inhalt sind inzwischen auch in größerer Zahl zu finden, man muss nur nach der Information suchen. Doch so, wie es dem Autor beim Anhören von Lesch-Klimahysterie-Videos geht, wird es wohl Herrn Lesch beim Ansehen Klimawandel-kritischer Infoseiten gehen:
NoTricksZone: Reader Kenneth Richard presents 282 peer-reviewed papers published in 2015 supporting the skeptical position that natural factors are in fact a dominant climate driver. Feel free to send this list to a political leader.
NoTricksZone: 2016 Highlights: Tsunami Of Skeptic Papers And Desperate Attempts To Silence Dissenters.
Summary With the huge tsunami of NEW papers disputing the claims of rapid, man-made global warming and the shock election of Donald Trump as President, things are looking awfully desperate for the junk-science fuelled climate alarmism industry. We could all but bury it in 2017.

Es ist bezeichnend, dass im Vortrag von Herrn Lesch genau – und vor allem ausschließlich – das extremste Extrembeispiel gezeigt wurde (man höre sich seine „Erklärung“ dazu an). Doch Zweifel darf und kann es nach H. Lesch zum Klimawandel sowieso nicht geben.

Ich nehme an, dass hier im Saal wohl niemand ist, der an der globalen Erwärmung zweifelt

Beim Vortrag hat sich dazu wohl kein Zweifler gemeldet. Wohl ein Beleg, dass GRÜNE nicht bei EIKE vorbeisehen, oder es (wie auf alten, sozialistischen Parteitagen) tunlichst vermeiden, zu unpassender Gelegenheit „hervorzustechen“, um nicht einen Kopf kürzer zu werden.
Chruschtschow soll einen solchen Test auf einem Parteitag auch einmal gemacht haben. Als sich auf seine Frage zu einer abweichenden Meinung niemand meldete, sagte er dann sinngemäß: Genau wegen der gleichen Angst haben wir (seine Generation) unter Stalin auch keine gegensätzliche Meinung gehabt.
Jedenfalls nimmt der Autor diese Rezension zum Anlass, weiterhin seine Zweifel anhand von (schon oft in Artikeln gebrachten) Fakten zu outen.

Wie sicher ist der Klimawandel belegbar?

Eine Korrelation zwischen anthropogenem CO2-Eintrag und einer Temperaturerhöhung lässt sich erst seit ca. 1950 bildhaft zeigen. Statistisch signifikant ist eine Korrelation jedoch erst seit 1990 (was aber kein Beleg für einen ausreichenden Klimaeinfluss ist). Behauptungen, es wäre seit ca. 1830 belegbar, sind Märchen. Und für die Zeit davor ist es reinster Unsinn.
EIKE 30.09.2016: Statistisch gesehen, begann der leicht wärmende Klimawandel erst mit dem Ende des kalten Krieges signifikant zu werden

EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
In einer Zusammenfassung kann man einen Teil der vielen, sich widersprechenden und nicht eingetroffenen Aussagen prominenter AGW-Klimaforscher nachlesen:
ScienceScepticalBlog: [2] Die Top 5 Lügenmärchen der Klimaforscher

Die vielen Widersprüche sind kein Zufall. Entgegen der öffentlich verkündeten Darstellung ist die klimahistorische Datenlage im vollkommenen Gegensatz so unglaublich schlecht und chaotisch, dass damit gar kein Beleg möglich ist:
EIKE: Wettbewerb um Nachweis, dass Klimawandel mehr als natürliche Variation ist – gescheitert!
Dazu Bilder von Proxisammlungen (Bilder 5, 6). Bitte versuchen zu belegen, dass die Temperaturveränderung seit dem Jahr 1880 (offizieller Beginn des Klimawandels) keine natürlichen Ursachen haben kann, weil eine solche steile Änderung in der Vergangenheit noch nie vorgekommen sei. Computer können das (auch nicht). Da diese jedoch nicht mitdenken, spucken sie Ergebnisse mit vielen Stellen nach dem Komma aus.
Vor allem zeichnen sie aus beliebigem Datenchaos und Rauschen durch Mitteln eine dünne, genaue „Wahrheitslinie“, ergänzt um einen Vertrauensbereich. Der Mittelwert-Vertrauensbereich wird dabei stur einfach durch Erhöhen der Anzahl verwendeter Proxis mit Wurzel (n) immer „enger“. Nur stimmen die erforderlichen statistischen Basisbedingungen für die Grundgesamtheit und Stichproben nicht, weshalb die daraus abgeleiteten Ergebnisse schlichtweg falsch sind. Doch darauf nimmt ein Computer keine Rücksicht – und die, welche die Daten verwenden auch nicht.

Das Ergebnis solcher „Statistik“ lässt sich anhand von Bild 5 betrachten. In die „Proxispaghetti“ ist der Hockey-Stick und die aktuell (angeblich) genauste Globaltemperatur-Rekonstruktion von Pages2k kopiert (Quelle: Klimalounge – Blog von Herrn Rahmstorf). Die fast waagerechte, grüne Linie ist laut Statistik der genaue Temperaturverlauf (Pages2k-Projekt), die blaue der Hockey-Stick, und die grauen Felder der Vertrauensbereich.
Mittelwertberechnungen sind einfach geduldig. Jedenfalls leitet aus dieser Kurve die ganze Klimawelt ab, dass es trotz der Datenspaghetties mit ihren riesigen Temperaturspannen noch nie einen so unnatürlichen Anstieg wie den aktuellen gegeben hat.

Bild 5 Proxirekonstruktionen der Temperatur der letzten 1200 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies. Darüber gelegt die Kurven Hockey-Stick (grün) und Pages 2k(blau), Vertrauensbereich (grau). Quelle: Klimalounge

Bild 6 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Zum Hockey-Stick noch die Anmerkung, dass der rote, steile Teil am Ende nicht anhand der sonst verwendeten Proxidaten gezeichnet wurde, sondern eine Weiterführung durch die modernen Thermometermessungen ist. Der Grund war: Die Proxis gaben keinen großen Anstieg „her“, beziehungsweise zeigten am nicht mit den Thermometerdaten übereinstimmenden Verlauf überdeutlich ihre Fehler.

Manchem wird zwischen Bild 5 und 6 schon auffallen, dass selbst darin die Proxidaten nicht übereinstimmen. Die Temperaturspannen im Bild 5 reichen bis +-2,5 °C. Im Bild 6 ist die Spanne in diesem Bereich erheblich niedriger.

Bild 6.1 [13] Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor ergänzt
Der Autor leitet aus den Datenspaghetties sogar ab, dass sich das Klima bereits weit vor Beginn der Industrialisierung gewandelt hat, also auf einem natürlichen Vorgang basiert [11][12]. Ein Proxibild aus dem IPCC AR5 Langebericht soll das verdeutlichen:

Die Erde in den letzten 65 Millionen Jahren

H. Lesch: dass wir jetzt in einem Zustand sind, den die Erde in den letzten 800.000 Jahren sicherlich nicht gehabt hat, neueste Daten führen darauf zurück, dass wir es in den letzten25 Millionen Jahren nicht gehabt haben und möglicherweise sogar in den letzten 65 Millionen Jahren.

Kritische Anmerkungen dazu

Es ist ein starkes Stück, das bisschen aktuelle Erwärmung seit einer Kaltzeit als „eventuell seit 65 Millionen Jahren einmalig“ darzustellen. Nicht einmal für die angeblich sicheren, letzten 800.000 Jahre kann es der Autor feststellen. Dazu ein Bild der letzten 1 Millionen Jahre. Erkennbar befindet sich die Erde (zum Glück!) in einer der im Vergleich zur Dauer der Kaltzeit sehr kurzen, zyklischen Zwischenwarmzeit. Nichts „unnatürliches“ ist daran erkennbar.

Bild 7 [9] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur
Noch unheimlicher wird es, wenn man die letzten 65 Millionen Jahre betrachtet. Die Temperatur lag ungefähr +6 Grad höher und der CO2-Gehalt bei 800 ppm, dazwischen sogar bei 1600 ppm. Was der Weg dorthin zurück mit der vergleichsweise „mickrigen“ Klimaänderung der letzten 150 Jahre zu tun haben soll, kann wohl nur ein Klimaprophet erahnen. Zudem die Erde sich trotz der aktuellen „Warmzeit“ in einem Kältezustand befindet, die allseits beschworene „Überhitzungsgefahr“ demnach ein rein fiktives Ergebnis Menschen-gemachter Simulationen darstellt, während die Gefahr einer weiteren Abkühlung mit wirklich tödlichen Folgen sich wesentlich realer darstellt:

EIKE: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Man betrachte in Bild 9 auch den Verlauf von CO2 und Temperatur – es findet sich zwischen beiden keine Korrelation.

Bild 8 Temperatur und CO2 über die letzten 65 Millionen Jahre. Quelle: WUWT Paleoclimate Page

Das Wort „Starkregen“ war früher nicht gebräuchlich, ein Beleg, dass es früher nicht so stark geregnet hat

H. Lesch: .Und ich habe mich immer gewundert … warum die welche dies bezweifeln, nicht mal mit Landwirten reden. … (die) wissen wie sich ihr Land entwickelt und wissen wie sich die Niederschläge verändert haben, wie sich die Dürreperioden vergrößern, wie Starkregenereignisse auf einmal alles niederwälzen und so weiter … und wo selbst 90-jährige sagen: das hab ich noch nie erlebt, das gabs noch nie. Man sieht es auch am Sprachgebrauch. das Wort Starkregen ist in Deutschland noch nicht so lange …. also wir können es direkt vor unseren Augen sehen.

Kritische Anmerkungen dazu

Es ist beim Klimawandel üblich, als Beleg lokale „Betroffene“ zu Wort kommen zu lassen, welche in aller Regel dann erzählen, „ …dass sie ein so schlimmes Wetter, Stürme, Fluten …. wie derzeit“ noch nie erlebt hätten. In aller Regel kann man das durch historische Analysen schnell entkräften.
Zum Beispiel auch bezüglich des extra angegebenen Starkregenereignisses wie in Simbach im Frühsommer 2016. Dort haben sich solche Niederschläge selbst zu Lebzeiten Geschädigter mehrfach wiederholt. Nur brach eben der Talübergang vor dem Ort zufällig nicht – doch diesmal brach er: Nicht wegen des vielen Regens, sondern wegen Verstopfung des Abflusses. Das ist aber menschliches Versagen und kein Klimawandel, nachzulesen in:
EIKE: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

Die Begründung, das Wort „Starkregen“ hätte man früher wenig gebraucht, weshalb es früher weniger stark geregnet hätte, ist dazu einfach hanebüchen. Die wirklichen Überschwemmungen in Deutschland, von der Nordseeküste bis zu den Alpen sind (bis auf eine einzige Hochwassermarke in Passau) alle historisch, wie man an den Pegelmarken leicht nachsehen kann:
EIKE 21.11.2015: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu . Doch stimmt das wirklich?

Weiter ausgeführt, will Herr Lesch damit vielleicht auch noch mitteilen, dass es deshalb früher keinen Klimawandel gegeben haben kann, weil der Begriff „menschengemachter Klimawandel“ in der historischen Literatur nicht vorkommt?
Und immer wieder muss man betonen: Das IPCC nahm im letzten Bericht AR5 seine schlimmen Extremereignis-Prognosen des Vorgängerberichtes zurück und musste zugeben, dass sich nichts davon belegen lässt. Die Listung der IPCC-AR5-Aussagen mit Übersetzung ist als Anlage am Artikelende beigefügt.

Wenn die Antarktis alles Eis verliert, steht Niedersachsen unter Wasser

H. Lesch: .und ich hab jetzt unlängst eine Nachricht bekommen, das finde ich wirklich granatenmäßig, der Hautptort von Spitzbergen im Polarmeer … musste jetzt evakuiert werden, Teile davon, weil es geschüttet hat wie aus Kübeln … dort liegen die Novembertemperaturen um 15 Grad über dem langjährigen Mittel, 15 Grad! Wenn Trump weiterhin der Meinung ist, der Klimawandel wäre eine Erfindung der Chinesen, möge er nach Alaska fahren. Da wird den Menschen der Boden unter den Füssen weggezogen durch das Auftauen des Permafrosts. Und was das langfristig bedeutet … Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren, was würde das für Deutschland bedeuten ….weil nämlich Niedersachsen komplett unter Wasser wäre, wär einfach weg (dazu wurde Bild 9 gezeigt).

Bild 9 [1] Screenshot aus dem Vortrag. Quelle YouTube Video

Kritische Anmerkungen dazu:

Auch auf Spitzbergen ist (nicht) alles Klimawandel

Dass Herr Lesch die Novemberwärme auf Spitzbergen als ein Klimawandel-Menetekel darstellt, pass genau zu seiner agitatorischen Art, hat mit Klimawissenschaft aber wenig zu tun. Solche Wetterkapriolen kommen gerade in der Arktis vor.

ZEIT ONLINE: [3] Ist der Klimawandel Schuld an der aktuellen Wärme über dem Nordpol?
Friedrich: Das Extremtief hat mit dem Klimawandel direkt nichts zu tun. Denn der läuft schleichend über sehr lange Zeiträume ab. Tief Eckard ist zufällig entstanden. Eine Laune der Atmosphäre. Solche Sturmtiefs bilden sich ja, wenn Luftmassen von sehr unterschiedlicher Temperatur aufeinandertreffen.
Nach heutigem Stand der Klimamodelle werden sie aber nicht häufiger, wenn sich die Erde im Durchschnitt erwärmt.

Die Evakuierung von Teilen der Hauptstadt erfolgte auch vorsichtshalber, weil die Stadt in einem Talkessel liegt und bei dem gefrorenen Boden bei Regen sehr gefährdet ist.
wetter.tv: Überflutungen auf Spitzbergen
Nun jedoch wurden Teile der Hauptstadt aus Sicherheitsgründen evakuiert, die Behörden sahen sich angesichts der enormen Regenmengen und der daraus resultierenden Überflutungs- und Erdrutschgefahr dazu gezwungen.
Die Unwetter mit Sturm und heftigem Regen sind in diesen Stunden bereits wieder überstanden. Longyearbyen hatte Glück, bis jetzt gab es zwar eine Mure (Hangrutschung), aber noch keine gröberen Überflutungen. Somit dürfte die Hauptgefahr bereits wieder großteils gebannt sein.
Was führte zu diesen enormen Regenmengen?
Kurz und bündig gesagt, eine milde Südwestströmung. Diese stellte sich zwischen einem Hoch über Nordskandinavien und Tiefdruckgebieten westlich von Island ein. Dabei war die Luftdruckverteilung über dem gesamten Nordatlantik so ausgerichtet, dass Luftmassen aus dem Bereich der Karibik es bis in den hohen Norden geschafft haben. Natürlich kommt diese auf Spitzbergen nicht mit derselben Temperatur an, da sie auf ihrem Weg abkühlt, dennoch lagen die Temperaturen um 10 bis 15 Grad über den Normalwerten. Nach dazu ist diese Luft aus tropischen Gefilden gespickt voll mit Feuchtigkeit, es hatte sich also ein regelrechtes Feuchte-Förderband eingestellt. Die Schneefallgrenze stieg auf über 500 m Seehöhe an und in Kombination mit stürmischem Südwestwind wurde das gesamte Wasser der unteren Atmosphäre an den Westflanken der Gebirge Spitzbergens förmlich ausgepresst.

Auf Spitzbergen regnet es während der Polarnacht öfter

Spitzbergens Südteil wird noch von einem Ausläufer des Golfstroms erreicht. Deshalb sind die Temperaturen dort wärmer, als man aufgrund der Lage erwartet.

wettertopia: Klima in Spitzbergen
Spitzbergen ist eine Inselgruppe im Nordatlantik … Der Westspitzbergenstrom … ein Ausläufer des Golfstroms transportiert entlang der Westküste relativ warmes Wasser, so dass auch Winter trotz der nördlichen Lage mild ausfallen …
Im Winter liegt die Temperatur zwischen -25 und +5 Grad Celsius.
Spitzbergen: Klima
… Am kältesten wird es im Februar mit -14°C, im Winter sind die Temperaturschwankungen stärker. Mit Temperaturen bis zu -30°C, im Einzelfall noch tiefer, muss man rechnen,
aber es gibt auch Warmlufteinbrüche mit Tauwetter und Regen in der Polarnacht.

Das war schon im Jahr 2002 so:
Reisebericht 2002: Ein Jahr auf Spitzbergen
Im Herbst liegen die Temperaturen bei ca. 0 bis -20°C, wobei wir in den Genuss einer rekord-verdächtigen, einwöchigen Tauperiode Anfang Dezember mit Regen und Plusgraden kamen und sich alle Straßen und Wege in spiegelglatte Eisbahnen verwandelten. … Eine goldene Regel besagt, dass es auf Spitzbergen erst dann richtig kalt wird, wenn die Sonne wiederkehrt. So verzeichneten auch wir im April mit -35°C die tiefsten Temperaturen
.

Bereits im Jahr 1922 wurde von Spitzbergen schlimmster Klimawandel berichtet

Eine solche Wetterkapriole wurde auf Spitzbergen bereits im Jahr 1922 entsetzt berichtet und auch, dass es früher viel besser war:
Quelle: Alles Schall und Rauch: Bericht einer Polarexpedition aus Spitzbergen im Jahr 1922:
… Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt
. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt.

Der Bericht aus dem Jahr 1922 könnte heute ohne etwas ändern zu müssen erscheinen und es würde niemandem auffallen.

Dazu ein Bild aus dem EIKE-Artikel über den Temperaturverlauf zu dieser Jahreszeit auf Spitzbergen (Bild 10) und eines vom GISS über den Globalverlauf auf Spitzbergen seit dem Jahr 1910 (Bild 11). Dieses Bild ist anhand der Datensätze der zwei dort im Viewer auf Spitzbergen hinterlegten Stationen zusammengesetzt. Die dritte (mittlere) Kurve einer Station nahe Spitzbergen wurde zugefügt, um zu testen, ob die zwei getrennten Temperaturkurven von Spitzbergen plausibel aneinander koppeln.
Fazit: Die Temperatur auf Spitzbergen hatte 2015 den Stand von ca. 1920. Eine alarmierende Erwärmung, welche die empörende – „granatenmäßig“ – Aussage von Herrn Lesch rechtfertigen würde, stellt man sich wohl anders vor.
Man sehe sich die Temperaturverläufe an und höre dazu den im Oberlehrerton gehaltenen, gehässigen Kommentar von Herrn Lesch im Video. Unverkennbar, dass kein Interesse an einer ehrlichen Wissensvermittlung bestand.

Bild 10 Station 5140, NY-ALESUND, Spitzbergen. Verlauf der September- und Novemberwerte (Sept bis 2016, November bis 2015). Datenquelle: ECA&D project http://eca.knmi.nl). Grafik vom Autor aus den Datensätzen generiert

63401008000 SVALBARD LUFT

Bild 11 Aus drei Datensätzen zusammengestellte Temperatur von Spitzbergen seit 1910. GISS Temperaturdatensätze Spitzbergen Isfjord Radio (1910 – 1980) und Svalbard (1975 – 2015), ergänzt mit dem Verlauf Bjornoya (74.52N, 19.02E) von 1975 – 2015. Grafik vom Autor aus den GISS Viewer-Bildern im richtigen Maßstab zusammengesetzt

Diese Darstellungen werden auch in einem kaltesonne-Artikel bestätigt.

Die Arktistemperaturen schwankten schon immer und waren früher wärmer

Auf kaltesonne.de sind Informationen zu Spitzbergen und der Arktis hinterlegt.
kaltesonne, 15. Mai 2015: Temperaturen auf Spitzbergen seit Beginn der Messungen vor 20 Jahren dramatisch gestiegen – allerdings nur auf das Niveau von 1930
Zwar hat sich Spitzbergen von 1970 bis 2000 kräftig erwärmt, allerdings lediglich auf dasselbe Niveau, das das arktische Inselarchipel bereits in den 1930er Jahren besaß. Hier scheint eine zyklische Entwicklung vorzuliegen, die glatt verschwiegen wird. Eine ähnlich starke Erwärmung hat es bereits Anfang des 20. Jahrhunderts gegeben, als CO2 noch keine große Rolle spielte. Zu allem Überfluss scheint die Erwärmung in den letzten 15 Jahren auch noch zum Erliegen gekommen sein. Unter diesem Hintergrund bekommt Ministerin Wankas Aussage auf epo online eine schon fast karnevalistische Note:
“Nirgendwo sonst ist der Klimawandel so sichtbar wie in der Arktis. Dies macht die Bedeutung unseres Forschungsengagements deutlich”, sagte Wanka. […] Gleichzeitig zeigen die Temperaturaufzeichnungen der letzten Jahrzehnte: Die Arktis erwärmt sich doppelt so schnell wie andere Regionen der Welt. Denn das komplexe Zusammenspiel von Ozean, Meereis und Atmosphäre führt zu Rückkopplungseffekten, welche die Erwärmung verstärken. Wissenschaftler sprechen von der sogenannten “ Arctic Amplification”.
Wäre Wanka vor 50 Jahren im Amt gewesen, hätte sie sich vermutlich Sorgen um eine bevorstehende Eiszeit gemacht. Eine langfristig doppelt so schnelle Erwärmung der Arktis ist Quatsch.

Die Arktis erlebte zu Anfang des letzten Jahrhunderts bereits eine Wärmephase

Nun die Information aus kaltesonne zum historischen Verlauf der Arktis-Temperaturen
kaltesonne: Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen“.

Bild 12 Temperaturentwicklung der Arktis nach HadCRUT4-Daten von 1920 – 2014 mit 3-Jahres-Mittelwert. Quelle: Climate4you.

kaltesonne: Fallstudien aus verschiedenen Teilen der Arktis bestätigen die Wärmephase. Für Grönland sei z.B. auf unseren Artikel „Luftbilder-Fund im Keller des dänischen Katasteramts: Rapide grönländische Gletscherschmelze in den 1930er Jahren“ verwiesen. Aus der sibirischen Arktis liegt eine Studie des Alfred Wegener Instituts von Opel et al. vor, die im Oktober 2013 im Fachjournal Climate of the Past erschienen war. In der Temperaturrekonstruktion für die Arktisinsel Sewernaja Semlja ist eine deutliche Wärmespitze in den 1930er und 40er Jahren zu erkennen, die die heutigen Temperaturen klar überragt …. Die Autoren weisen in der Kurzfassung ihrer Arbeit zudem darauf hin, dass in der Arktis ein erhebliches Maß an natürlichen Klimaschwankungen zu verzeichnen sei.

Aus dem arktischen Nordatlantik ist die Erwärmung im ersten Drittel des 20. Jahrhunderts schon länger bekannt, wie George Rose in einer Arbeit aus dem Jahr 2005 eindrucksvoll dokumentierte hatte. In der Studie heißt es:
From approximately 1920 to 1940, North Atlantic Waters from Greenland to Norway warmed significantly, by as much as 3–4°C (Tåning, 1948). Although the causes of this event are not well understood, there is no doubt of its authenticity or widespread occurrence in temperature records.
kaltesonne: Interessanterweise räumt mittlerweile sogar der IPCC in seinem neuesten, 5. Klimazustandsbericht die Existenz dieser frühen Erwärmungsphase ein. Im Bericht steht in überraschender Klarheit in Kapitel 10 der physikalischen Grundlagen:
Arctic temperature anomalies in the 1930s were apparently as large as those in the 1990s and 2000s. There is still considerable discussion of the ultimate causes of the warm temperature anomalies that occurred in the Arctic in the 1920s and 1930s

Bild 13 Temperaturrekonstruktionen für das nördliche Skandinavien seit 400 n.Ch. Quelle: Rinne et al. 2014.

Dazu immer wieder die Hinweise auf die katastrophale Datenlage für das Arktische Klima der Vergangenheit, aus der die Klimasimulierer aber bedenkenlos die Zukunft und „dass es früher ganz sicher noch nie vorkam“ vorhersagen wollen.

kaltesonne: Im August 2014 wagte ein elfköpfiges Forscherteam um Judah Cohen in Nature Geoscience eine Bestandsaufnahme der polaren Verstärkerproblematik. Das Fazit der Wissenschaftler fällt ernüchternd aus: Schlechte Datenlage, große Unsicherheiten, unzureichende Modelle. Die Klimaforschung ist noch weit davon entfernt, die Vorgänge in der Arktis in den Griff zu bekommen. Interessanterweise ist einer der Koautoren des Papers Dim Coumou vom Potsdam-Institut für Klimafolgenforschung (PIK), einem Institut das in der Vergangenheit stets behauptet hatte, es würden nur noch i-Tüpfelchen in den Klimamodellen fehlen.
Wie sich die Arktis eventuell seit dem Mittelalter abgekühlt hat und aktuell erst wieder etwas an Wärme nachholt, ist auch im Artikel: EIKE: Jede Tonne emittiertes CO2 führt zu einem Abschmelzen des Arktiseises um drei Quadratmeter
gezeigt.

Fazit

Das „granatenmäßige“, auf Spitzbergen häufiger vorkommende Wärme-Wetterereignis im Winter ist kein Klimawandel-Menetekel, wie es Herr Lesch vor dem staunenden Publikum messianisch inspiriert darstellt.

Während Spitzbergen schwitzt, frieren andere

Klar, dass von H. Lesch auch nicht erwähnt wurde, wo parallel-große Kälte herrscht. Spitzbergen ist eben Klima und der Rest der Welt normales Wetter:
Kölner Stadtanzeiger, 22.12.2016: In der Sahara liegt Schnee!
In dem algerischen Ort Ain Sefra in der Nähe zur marokkanischen Grenze bedecken weiße Flocken die roten Dünen… Zuletzt hat man die weiße Pracht demnach vor 37 Jahren dort zu Gesicht bekommen
wetteronlind.de, 16. November 2016: Außergewöhnliche Kälte in Sibirien
Während diese Woche in Mitteleuropa und Skandinavien bis fünf Grad wärmer als im Klimamittel wird, liegen die Temperaturen östlich vom Ural gut zwanzig Grad unter dem Mittel.
Neue Zürcher Zeitung, 24.11.2016: Wintereinbruch in Japan, Erster November-Schnee in Tokio seit Jahrzehnten. In Tokio hat es am Donnerstag zum ersten Mal seit 54 Jahren in einem November geschneit.
EIKE, 23. Dezember 2016: Extreme Kälte in Teilen der USA – Dauerhoch in Mitteleuropa
Nach den beiden extrem kalten letzten Wintern in den zentralen und östlichen Teilen der USA scheint es dieses Mal dort zum dritten Mal nacheinander extreme Kältewellen zu geben
kaltesonne, 3. März 2016: in Vietnam 300 km südlich von Hanoi auf 18° nördlicher Breite hat es zum ersten Mal seit Beginn der modernen Klimaaufzeichnungen geschneit, und das gleich 20 cm.

Und immer neu taut auch der Permafrost

Zuerst eine kurze Rückschau zu den Eskimos, denen „der Boden unter den Füssen weggezogen wird“:
EIKE 26.08.2016: Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen – sofern es andere bezahlen,
EIKE 29.09.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

In beiden Artikeln sind auch die Probleme der Eskimos beschrieben. Diese haben wirklich welche – allerdings schon immer gehabt und durch die behördlich erzwungene Sesshaftwerdung in den 50er Jahren des letzten Jahrhunderts zusätzlich auch davor nicht gekannte.
Zur mittelalterlichen Warmzeit muss es dort jedoch mindestens genau so warm wie heute gewesen sein (siehe vorhergehendes Kapitel).
Der angeblich nur wegen des Klimawandels stetig weiter tauende Permafrost am Rande der Arktis ist ein „beliebtes“ AGW-Totschlagargument. Und zwar deshalb, weil dadurch gebundenes Methan freigesetzt wird, welches aufgrund des größeren Forcings erheblich „klimaschädlicher“ als CO2 ist. Es gibt kaum noch einen Bericht (in den „Öffentlichen“) über Alaska oder die Arktis, in dem nicht ein Klimaaktivist, oder –Wissenschaftler vor dem tauenden Permafrost warnt und den Klimauntergang prophezeit.

Wie immer beim Klimawandel, gibt es auch hierzu unterschiedliche Aussagen:
kaltesonne: Spektrum der Wissenschaft: Klimagefahr durch auftauenden Permafrostboden wurde überschätzt
Immer wieder tauchen in der Klimadiskussion die Permafrostböden auf, deren allmählicher Rückgang im Zuge der Erderwärmung einige Zeitgenossen zu apokalyptischen Visionen inspirierte. Permafrostböden sind ab einer gewissen Tiefe das ganze Jahr hindurch gefroren. Sie bilden sich dort, wo die Jahresdurchschnittstemperatur −1 °C und der Jahresniederschlag 1000 Millimeter nicht übersteigt. Die großen Permafrostareale der Erde befinden sich in den arktischen und antarktischen Tundren, in großen Teilen der borealen Nadelwaldgebiete, aber auch in sämtlichen Gebieten, die die Voraussetzungen für Permafrost erfüllen, wie etwa Hochgebirge.
Ein schönes Beispiel für die Permafrostboden-Hysterie konnte man am 28. November 2012 in der Tageszeitung
Die Welt bewundern:
Wenn Permafrostböden tauen, droht der Klima-Gau
UN-Experten warnen eindringlich vor Gefahr, die Folgen der auftauenden Dauerfrostböden weiter zu ignorieren: Durch die Schmelze heizen künftig riesige Mengen Kohlendioxid und Methangas dem Klima ein.
Natürlich war das ein schönes Thema, das auch das Potsdam-Institut für Klimafolgenforschung (PIK) nur zu gerne befeuerte. Am 13. Februar 2013 brachte das Institut eine Pressemitteilung mit dem folgenden Titel:
Das Auftauen von Permafrost-Böden beschleunigt den Klimawandel – trotz mehr Pflanzenwachstum
Kritik an den klimatischen Katastrophenszenarien zum Permafrost war selbstverständlich unerwünscht. Der größte Teil der Presse spielte das Spiel lange Jahre mit und verbreitete ungefiltert die attraktiven populärwissenschaftlichen Gruselgeschichten. Umso größeren Respekt gebührt daher nun Spektrum der Wissenschaft, das sich in seiner März-Ausgabe 2015 mit der Thematik ausführlich und in kritischer Weise beschäftigt hat. Der Berliner Wissenschaftsjournalist Gert Lange beginnt seinen gut recherchierten 11-seitigen Artikel wie folgt:
Permafrost die große Unbekannte im Klimawandel
Die Erderwärmung lässt dauerhaft gefrorene Böden in der Arktis tauen. Weil die dadurch freigesetzten Treibhausgase den Klimawandel beschleunigen, befürchteten manche Umweltschützer einen verhängnisvollen Teufelskreis. Genauere Untersuchungen in jüngster Zeit bestätigen zwar den Effekt, sprechen aber gegen eine drohende Katastrophe.
Keine Permafrost-Katastrophe! Eine gute Nachricht. In der Zusammenfassung zu seinem Beitrag schreibt Lange:
GEFAHR ÜBERSCHÄTZT?
1. Noch bis vor Kurzem geäußerte Warnungen vor einer drastischen Zunahme der Erderwärmung durch das Tauen von Permafrostböden beruhten auf qualitativen Überlegungen, groben Abschätzungen und punktuellen Beobachtungen.
2. Genauere Messungen aus den letzten Jahren, die insbesondere an einer deutsch-russischen Forschungsstation in Sibirien durchgeführt wurden, relativieren das Bild teils erheblich.
3. So sind weite Flächen der Permafrostböden seit dem Ende der letzten Eiszeit schon aufgetaut, und erhebliche Teile des enthaltenen organischen Kohlenstoffs wurden bereits bakteriell abgebaut und als Gas in die Atmosphäre freigesetzt.
4. Außerdem ist die sommerliche Auftauschicht, in der die Mikroben aktiv sind, trotz Erderwärmung nicht dicker geworden. Ob die Treibhausgasemissionen wesentlich zugenommen haben, erscheint deshalb fraglich.
5. Auch die bisherigen Versuche, diese Emissionen großräumig zu erfassen 
– was sehr schwierig ist –, ergaben keine dramatischen Steigerungen.

Und noch ein Infolink.

kaltesonne: Ist der Permafrostboden in Gefahr? Vielleicht in ein paar tausend Jahren
… Es ist auch bei weitem nicht so, dass die Folgen eines Auftauens des Permafrostes noch nie untersucht worden wären, der eisige Boden ist – umstrittener – Forschungsgegenstand seit vielen Jahrzehnten. Ich erinnere mich an ein Seminar in Bad Honnef im Frühjahr 2008, bei dem der Geoforscher und Permafrostexperte Georg Delisle aus Hannover seine Forschungen darlegte. Er hatte Zeiträume aus den letzten zehntausend Jahren untersucht, in denen die globale Temperatur mehrere tausend Jahre lang um bis zu sechs Grad wärmer war als heute. Eisbohrkerne, die er aus der Antarktis und aus Grönland gezogen hatte, gaben ihm genaue Auskunft über die Zusammensetzung der Atmosphäre während dieser Warmzeiten. Sein Resume: „Die Eiskerne sowohl vom grönländischen Eisschild wie auch aus der Antarktis ergeben keinerlei Hinweise auf eine erhöhte Freisetzung von Treibhausgasen zu jener Zeit, obwohl damals zwingend ein tiefgründigeres Auftauen des Permafrostes im Vergleich zu heute gegeben war.“ So stand es damals auf dem Poster für seinen Vortrag.

Offenbar sind CO2 und Methan stabiler im Boden verhaftet, auch wenn er auftaut. Delisle, damals bei der Bundesanstalt für Geowissenschaften und Rohstoffe angestellt, bezeichnete es obendrein als heillosen „Blödsinn“, anzunehmen, der gesamte Permafrost könne bis zum Ende des Jahrhunderts aufgetaut sein. Soetwas würde Jahrtausende dauern. Seine Studie („Near-surface permafrost degradation: How severe during the 21st century?“), die dem Vortrag zugrunde lag, war nach allen Regeln geprüft („peer reviewed“), und sie ist nach meiner Kenntnis bis heute nicht widerlegt.

Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren

Der Hinweis von Herrn Lesch: „Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren“ zeigt wieder reine Demagogie. Jedoch ist er damit nicht alleine, denn diese Annahme ist auch ein beliebtes „Simulationsspiel“ des PIK, da sich nur damit hohe Meerespegel-Anstiege „erzeugen“ lassen.
In den letzten 1 Millionen Jahre ist es allerdings trotz höherer Temperaturen nicht passiert und würde bei einer Durchschnittstemperatur von -55 °C (Quelle:
Umweltbundesamt) auch eine gewaltige, vollkommen unrealistische Temperaturerhöhung benötigen. Aber das PIK kann es trotzdem simulieren:
WELT N24, 11.09.2016:
So bringen wir die Antarktis ganz zum Schmelzen
Wenn wir alle fossilen Brennstoffe verfeuern, schmilzt auf lange Sicht die ganze Antarktis, haben Forscher ausgerechnet … „Über einen Zeitraum von 10.000 Jahren kann die Antarktis eisfrei werden, wenn wir unsere fossilen Ressourcen vollständig verfeuern“.

Damit es nicht etwa vergessen wird, wird es vom PIK regelmäßig neu publiziert und von unseren Qualitätsmedien dankend angenommen:
EIKE, 23. Dezember 2016: Klimawandel: „Dann wird es Hamburg nicht mehr geben
Am 17. 12. 2016 um 15:28 Uhr gab der SPIEGEL unter obiger Überschrift die Warnung heraus „Hamburg in Gefahr“! Anders als im August 1986, als der Kölner Dom „unter Wasser“ gesetzt wurde ob des Schmelzens des arktischen Eises, wird nun als Quelle die Antarktis bemüht, deren „Mitteltemperatur“ unter -30 °C liegt. Quelle ist der PIK-Professor Anders Levermann.

Auch das Umweltbundesamt schlägt in diese Kerbe und verkündet die Antarktis als vom Klimawandel beeinflusst: Jedoch ist auch die Antarktis vom globalen Klimawandel betroffen und erwärmt sich vor allem im Bereich der antarktischen Halbinsel stärker als der Rest der Welt
Wie wenig sich die Gegend um die Antarktis erwärmt, zeigt das folgende Bild 14 der Satellitendaten. Und was selten erwähnt wird: Das „Anhängsel “antarktische Halbinsel“ gehört klimatisch eigentlich gar nicht mehr zur Antarktis, sondern schon eher zu Südamerika, dem es gegenüber liegt. Es ist aber eine der wenigen Gegenden dieses riesigen Kontinents, an welcher wenigstens im Ansatz so etwas wie „Klimawandeleinfluss“ gemessen werden kann.
Denn selbst fleißige Jungforscher können den Klimawandel in der zentralen Antarktis nicht finden:
kaltesonne: Unerwartete Entdeckung im Rahmen einer Doktorarbeit an der Universität Bremen: In der Zentralantarktis besitzt der CO2-Treibhauseffekt offenbar keine erwärmende Wirkung

Bild 14 RSS TLT Satellitendaten untere Troposphäre, Werte Südpolar 1979 – Nov. 2016 (Hinweis: RSS-Südpolar ist der Rand der Arktis, die Zentraltemperaturen werden von den Satelliten nicht erfasst)

Dort wird nämlich nichts mehr wachsen

H. Lesch: … und natürlich weiß man inzwischen längst wie das Reduktionspotenzial aussehen muss … was man machen muss, um der Welt tatsächlich zu helfen .. und ich kann eigentlich nur … darauf hinweisen dass wir es bis jetzt nicht geschafft haben, aus all diesem Wissen was wir haben tatsächlich Konsequenzen zu ziehen was wir machen sollen.
Was passieren wird, wenn wir so weitermachen wie bisher können sie hier sehen
(leider wird das Bild im Video nicht gezeigt). Europa wird durchaus profitieren wenn die Zwei Grad Grenze erreicht wird, aber weite Teile der Welt werden das nicht. Und genau da wo die Bevölkerung wächst, werden wir uns auf ein riesiges Problem einzustellen haben … dort wird nämlich nichts mehr wachsen. Also, wir können es direkt vor unseren Augen sehen.

Kritische Anmerkungen dazu

Man kann als Gegen-Argumentation immer nur neu die Darstellungen bringen, was alleine die geringfügige Erwärmung seit der letzten, kleinen Kaltzeit – in Verbindung mit moderner Landwirtschaft – für einen Segen für den Globus brachte. Genau das, was Herr Lesch vorschlägt: auf eine vor-Industrielle Agrarwirtschaft zurück zu gehen, wäre eine Katastrophe und Verarmungsszenario.

Bild 15 Weltweite Produktionen von Kornprodukten. Quelle: kaltesonne: Weshalb steigt die globale Weizenernte immer weiter an, obwohl der Weizen doch angeblich vom Klimawandel bedroht ist?

Nachlesen kann man es detaillierter in den folgenden Publizierungen:

EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE 26.11.2016: Forscher des Weltklimarates IPCC rechnen, dass die globale Erwärmung 10 bis 50 % der jährlichen Ernte bedroht – Was steckt dahinter?
EIKE 30.06.2015: Ernteerträge und Klimawandel

Afrika zeigt aber auch, wohin ein Verbleib in kleinbäuerlicher Landwirtschaft mit ihren mickrigen Erträgen führt: Die Erträge reichen nicht einmal für die Zuwachsraten der eigenen Familien aus, an Überschüsse ist gar nicht zu denken.

Man kann es natürlich machen wie in Simbabwe, wo die „industriell“ produzierenden Farmer verjagt wurden und aus einer ehemaligen Kornkammer eines der typischen, sozialistischen Armenhäuser entstand. Jeder hat eben verschiedene Vorstellungen von der richtigen Zukunft. Nur müsste man das dann zu Ende denken – und auch ehrlich vermitteln: Wollt ihr mit uns den Weg zurück in weltrettende, frühere Armut gehen?!, so wie es große Denker der Kirche bereits machen:
EIKE 18.04.2016: Kirche und Klimawandel
[11] Hans-Peter Gensichen, Armut wird uns retten:
These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Moderne Propheten sind heute oft verbeamtet. Damit ist man von den Auswirkungen der eigenen Versprechungen und Wünsche schon einmal sicher verschont.

Und gerade der von Dürren – auch in vor-Industriellen Zeiten – gebeutelte Sahel bekommt durch die Erwärmung inzwischen mehr Feuchte, da Monsunausläufer wieder (wie zur Römischen Warmzeit, als Nordafrika eine Kornkammer war) weiter ins Land kommen.
WIKIPEDIA: In den 1970er und frühen 1980er Jahren fielen diese Werte, sodass sich die Sahara immer weiter in Richtung Sahel ausbreitete. Mitte der 80er drehte sich dieser Trend, seitdem nehmen die Niederschlagsmengen zu. Im Vergleich zu 1980 ist die Sahelzone heute deutlich grüner.
Beim Ansehen von Bild 16 erkennt man eine deutliche Zyklik, aber keinen Klimawandel.

Bild 16 Sahel-Niederschlagsindex. Quelle: WIKIPEDIA

Nur nutzt das dem Sahel nichts. Seine Bevölkerung wächst weit schneller (und die Viehherden als Statussymbol ebenfalls), als das Grün nachwachsen kann.

Wer also vor hat, die Welt wenigstens noch eine Zeit lang ernähren zu können, sollte sich das mit dem Verteufeln industrialisierter Landwirtschaft gut überlegen. Ein Bio-gedüngtes Urban-Gardening, oder komfortabler, das eigene Vorgärtchen, reichen dazu nicht aus. Biolandwirtschaft ebenfalls nicht:
EIKE: Biobauern sind die größten Lebensmittel-Vernichter

Die Forderung, die Pflanzennahrung CO2 zu reduzieren, obwohl die Atmosphäre davon zu wenig hat, wir bestimmt einmal als „kollektiver Generationenschwachsinn“ in die Geschichte eingehen.

Es gibt keine schlechten Regierungen mehr, es gibt nur noch den schlimmen Klimawandel

Im folgenden Bild 17 ist es nochmals am Beispiel der einstigen Kornkammer Simbabwe gezeigt, was landwirtschaftliche Erträge wirklich beeinflusst.
oneworld.at: Simbabwe war einst als „Brotkorb Afrikas“ bekannt und exportierte seinen Überschuss an Getreide in die Nachbarländer. Heute kann der Staat seine eigene Bevölkerung nur noch schwer ernähren. Getreide und die meisten Früchte werden größtenteils aus dem angrenzenden Sambia eingeführt, dessen Landwirtschaft blüht.

Die Daten dazu:
Simbabwe (Quelle: fact fish):
1960: Einwohner: 3,792 Millionen, Erntemenge Getreide: ca. 1,266 Mt
2010: Einwohner: 13 Millionen (+242 %), Erntemenge Getreide: ca. 1,405 Mt (-11 % gegenüber 1960)
1996: Höchste Getreideproduktion: 3,13 Mt, Reduzierung im Jahr 2010: Auf 45 % vom Maximalwert

Bild 17 Simbabwe Ertrag Getreide gesamt von 1961 – 2014 (hellblau) und Bevölkerungsentwicklung (violette, gestrichelte Linie), dazu der weltweite Weizenertrag. Beachten: Die Vertikalachsen-Maßstäbe sind vollkommen unterschiedlich. Quellen: fact fish

Erklärungen sind so einfach geworden, seitdem wir Klimawandel haben

Um das eklatant erkennbare Ernährungsproblem (welches eindeutig nicht Klimawandel-bedingte Ursachen hat) in Simbabwe zu lösen, müsste man natürlich anderes und weit Schwierigeres tun, als Deutschland zu dekarbonisieren und Gebühren auf CO2 zu erheben. Da Mugabe von unseren Linken aber einst in den höchsten Tönen gefeiert wurde, erklärt man dem staunenden Bürge jedoch:
E+Z Entwicklung und Zusammenarbeit: Landwirtschaft in Gefahr
In Simbabwe haben die Menschen nicht nur mit der schwierigen politischen Situation zu kämpfen, im Alltag stehen sie noch anderen Problemen gegenüber: Der Klimawandel macht ganze Landstriche unfruchtbar und könnte die Ernteerträge bis 2020 halbieren

Im vorigen Absatz stand in der Quelle „oneworld.at“, dass im direkt benachbarten Sambia (mit ähnlichen klimatischen Bedingungen) die Landwirtschaft blüht. Wie das aussieht, zeigt das folgende Bild. Es wäre interessant zu erfahren, was die Klimawandel-Ernte-Zukunfts-Simulationsprogramme dort ermittelt haben und welche Ausrede für den Ertragsunterschied trotz ähnlichem Klimat vorliegt.

Bild 18 Getreideertrag Sambia 1961 – 2014. Quelle: fact fish

Aber so sieht Qualitätsinformation für den Bürger eben aus. Schließlich will Deutschland nach mehreren misslungenen Versuchen endlich doch noch die ganze Welt erretten und dazu auch ein Vorreiter an Geldtransfers in den Klimawandel-Hilfsfonds sein. Seitdem gibt es nach „offizieller“ Berichterstattung in Dritte-Welt Ländern keine politisch verursachten Probleme mehr, sondern nur noch den Klimawandel.

Wir müssen gegen Unternehmen vorgehen, die das Klima schädigen

H. Lesch: wir kriegen es nicht hin, dass Unternehmen, die nachweislich die gesamte Menschheit schädigen, einen Shitstorm erleben. Das kriegen wir nicht hin … aber wir schaffen es nicht, diesen großen Unternehmen wirklich klar und deutlich zu sagen: jetzt ist Schluss … dass wir gegen solche Unternehmen… offenbar vorgehen müssen … aber unsere Gesellschaft kriegt kein komisches Gefühl im Nacken …

Kritische Anmerkungen dazu

Das Beispiel der Hexenverfolgung lässt sich wiederholen. Auch diese wurden damals nicht verurteilt, weil sie Hexen waren, sondern weil ihr Tun die Allgemeinheit durch Schadzauber schädige. Die Klimareligion macht davon keine Ausnahme und hat das Verfahren wiederbelebt. Und so ist es inzwischen üblich geworden, auf virtuellen (von Computern simulierten) Schaden zu verklagen. Und es wird von unserer „Intelligenz“ teils vorbehaltlos unterstützt und von den Medien hofiert.
Klimafakten:
Neue Kommunikationsstrategie: „Ey, ich verklag‘ Dich auf Klimaschutz“
Gerichtsprozesse sind eine Aktionsform, die bei Klimaschützern im Trend liegt. Das Motiv ist naheliegend: Unternehmen werden verklagt, weil sie Treibhausgase ausstoßen und dadurch die Erderwärmung antreiben. Und Regierungen werden verklagt, weil sie die Unternehmen nicht daran hindern. USA, Pakistan, Schweiz, die Niederlande – Klimaklagen rund um den Globus
EIKE 15.06.2016: Staaten für mehr Klimaschutz verklagen ist cool
EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

Im Mittelalter täuschte man sich (über Jahrhunderte), was inzwischen von der Kirche (notgedrungen, Aussage eines verärgerten Regionalbischofs dazu: „ … aus heutiger Sicht gesehen war das damals falsch“) „eingesehen“ wird. Die heutige „Intelligenz“ weiss aber inzwischen dank Computer(-Simulationen) ganz sicher, welches wirkliche Hexen sind. Und solche darf – nein muss – man verfolgen. Zumindest unsere „Intelligenz“ ist wieder dieser Überzeugung: Beim Klimawandel und natürlich auch sonstiger, von Fachpersonen erkannter, falscher Meinungen.
Achgut:
Morgen, Kinder, wird’s was geben! Ein Abwehrzentrum gegen Desinformation

Ruhrkultour: Das US-Ministerium für Wahrheit wurde am 23. Dezember 2016 offiziell geboren (lesenswert)

Fazit

Jede Regierungsform hat ihre Berater. Früher „hielt“ man sich oft einen Mönch oder Prälaten, heutzutage hält man sich modernere Propheten, die mit dem Computer besser umgehen können, weil diese angeblich im Vorhersagen genauer sind.

Die Linken bis Hardcore-Kommunisten (welche sich inzwischen großteils in „bürgerlichen“ Parteien nach oben schubsten) verspotteten einst die dummen C-Bürger, weil diese zu den Kirchentagen pilgern und sich dort Verkündigungen anhören. Heute sind diese Verspotter meist ins GRÜNE Lager gewechselt. Dort brauchen sie nicht zu einem Kirchentag zu pilgern, sondern können sich Verkündigungen gleich auf ihren Parteitagen anhören.

Leider ergibt sich daraus eine wirklich schlimme Konsequenz: Diese CO2-Verteufelungs-Generation verbaut der Welt jegliche vernünftigen Lösungen für die vielen, wirklich vorhandenen und noch kommenden Probleme.

Wer weitere Rezensionen zu Vorträgen von Herrn Lesch lesen möchte, wird hier fündig:
EIKE: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
EIKE: Bei Harald Lesch sind Hopfen (und Malz) verloren

Anlagen

IPCC-Aussagen zu Extremereignissen im AR5 Langbericht

Statements zu Extremereignissen aus dem aktuellen IPCC-Bericht: IPCC AR5 Langfassung
Tropische Stürme und Hurrikane
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

AußertropischeZyklonen
IPCC 2013, AR5, WGI, Kapitel 2, Seite 220: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”
Übersetzung: “Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Dürren
IPCC 2013, AR5, WGI, Technical Summery, Seite 50: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”
Übersetzung: “Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“
sowie
IPCC 2013, AR5, WGI, Kapitel 2, Seite 215: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”
Übersetzung: „Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, dass die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte.“

Überflutungen
IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”
Übersetzung: “Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“

Hagel und Gewitter
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”
Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“

IPCC Zusammenfassung
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Nachtrag
Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers (hier) fehlen!

Klimakonsens

Der Konsens wurde erstmalig 2009 erwähnt. Der Dozent P.T. Doran und die Studentin M.K. Zimmermann von der Uni Chicago führten im Auftrag der AGU (American Geophysik Union) eine Umfrage durch um zu klären wie weit in der Wissenschaft Konsens über die Klimafrage herrscht.
Studie: http://www.thegwpf.org/content/uploads/2014/09/Warming-consensus-and-it-critics.pdf
Dazu versendeten sie an 10 257 US-Naturwissenschaftler einen Fragebogen, der im Kern nur zwei simple Fragen enthielt.
1. Glauben Sie, dass die mittlere Temperatur im Vergleich mit dem Niveau vor 1800 allgemein gestiegen, gefallen oder gleich geblieben ist?
2. Glauben Sie, dass menschliche Aktivitäten ein wesentlicher Faktor sind, die zur Änderung der mittleren Temperatur beitragen?

Wen wundert es, dass so ein lächerlicher Fragebogen sofort von 7107 Wissenschaftlern in den Papierkorb geworfen wurde und nur 3146 ihn zurückschickten.
Leider aber waren die eingegangenen Antworten dem AGU nicht genehm, und so wurde nachträglich entschieden, dass nur Fragebögen von wirklich kompetenten Klimawissenschaftlern zu bewerten seien. Als kompetent wurden jene ausgesucht, die mindestens 50% ihrer Veröffentlichungen dem Thema Klima gewidmet hatten. Nun ist bekannt dass die Klimafachpresse zu jener Zeit grundsätzlich keine Beiträge von Klimaskeptikern veröffentlichte.
Von den 3146 beantworteten Fragebögen blieben bei diesem Verfahren nur ganze 77 übrig von denen 75% (97,48%) zustimmten. Damit hatten AGU und IPCC das gewünschte Ergebnis von 97 %, das sie freudig in die Welt hinausposaunten und das auch flugs von willfährigen Medien, insbesondere in Deutschland triumphierend verbreitet wurde.

Im gleichen Jahr 2009 schrieben 31 478 US- Naturwissenschaftler eine Petition an den US- Präsidenten, in der sie ihn baten unter keinen Umständen in der Politik dem CO2 Dogma vom durch Menschen verursachten Klimawandel zuzustimmen.
Quellen

[1] Video: Harald Lesch fordert endlich Konsequenzen aus dem Wissen um den Klimawandel zu ziehen. Quelle: YouTube, Veröffentlicht am 21.11.2016

[2] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/

[3] Spiegel Online, 23.09.2014: Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
http://www.spiegel.de/wissenschaft/natur/klimawandel-97-prozent-konsens-bei-klimaforschern-in-der-kritik-a-992213.html

[4] Klimaretter.Info, 16. April 2016: Klimawandel: „97-Prozent-Studie“ bestätigt
http://www.klimaretter.info/forschung/nachricht/21052-klimawandel-97-prozent-studie-bestaetigt

[5] IOP science, 13April2016, JohnCook at al.: Consensus on consensus: a synthesis of consensus estimates on human-caused global warming

[6] GWUP, 1. Mai 2016: Globale Erwärmung: Der Mythos von der 97-Prozent-Zustimmung der Klimaforscher
http://blog.gwup.net/2016/05/01/globale-erwarmung-der-mythos-von-der-97-prozent-zustimmung-der-klimaforscher/

[7] Natural News, August 31, 2016: Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
http://www.kickthemallout.info/article.php/Story-The_Petition_Project/print

[8] Ruhrkultour: Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler
http://ruhrkultour.de/die-fabelhaften-97-der-mythos-vom-klima-konsens-der-wissenschaftler/

[9] ScienceSkepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/

[10] WEB-Animation: Alley, R.B. 2004 GISP2 Ice Core Temperature and Accumulation Data. IGBP Pagges/World Data Center for Paleoclimatology, Boulder CO, USA
https://wattsupwiththat.files.wordpress.com/2009/12/noaa_gisp2_icecore_anim_hi-def3.gif

[11] Publik Forum Edition, Oberursel 2009. Hans-Peter Gensichen: Armut wird uns retten Geteilter Wohlstand in einer Gesellschaft des Weniger

[12] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/
[13] EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe

http://www.eike-klima-energie.eu/news-cache/hat-die-barbusige-dame-um-1830-gegen-den-klimawandel-gekaempft-eine-ganz-aktuelle-studie-legt-es-nahe/
[14] IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis




Jahreswechsel 2017 – Politik-, Wetter-, Klimaregime-Änderung?

Heute (Silvester 2016) hat der offensichtlich bevorstehende Witterungs(!)-Wechsel deutliche Konturen angenommen. Zum ersten Mal seit mehreren Jahren scheint der große atlantische Langwellentrog seine Position aufzugeben. Die bisherige Position war für die ewigen Südwestlagen bei uns verantwortlich, von denen ja Kämpfe sowie Kämpfe & Kowatsch (2016) eine Häufung während der letzten Jahre nachgewiesen haben.

Das sich wohl ganz grundlegend etwas ändert, mag zunächst die Graphik oben belegen:

Sie zeigt das Ensemble-Mittel für 240 Stunden (= 10 Tage) im Voraus. Dazu folgende allgemeine Bemerkungen: Bei der Quelle www.wetterzentrale.de gibt es auch unter dem Menüpunkt „ENS“ einen Spaghetti-Plot, der auf den ersten Blick sehr wirr aussieht. Kurzwellige Wettersysteme mitteln sich bei der Mittelung heraus, so dass ein stark verallgemeinertes Bild übrig bleibt. Üblicherweise zeigt sich im Mittel eine mehr oder weniger (meist weniger) mäandrierende Westströmung.

Obige Graphik weist jedoch einen markanten Hochkeil über dem Atlantik auf. Eine so deutliche Struktur bei einem Ensemble-Mittel ist sehr ungewöhnlich und zeugt davon, dass die Simulation eines solchen Hochkeils dort für 10 Tage im Voraus außerordentlich zuverlässig ist. Wie gesagt, einen solchen Vorgang hat man während mindestens der letzten drei Winter vergeblich gesucht. Die ewigen Südwestlagen dürften damit vorläufig beendet sein.

Bis dahin sieht es aus heutiger Sicht so aus, dass sich bereits in der Woche nach Neujahr ein erster Vorstoß von Meereskaltluft bis zu den Alpen durchsetzen soll. Danach folgen ein paar Sturmtiefs, die aber schon nicht mehr wie bisher üblich eine Südwest-, sondern eine West- bis Nordwestströmung erzeugen. Im Flachland wird sich dabei erst einmal nasskaltes Wetter einstellen, wobei Niederschläge zwar häufig als Schnee fallen, der aber noch nicht liegen bleibt. Für die Berge bedeutet das jedoch ein Ende des bisher gravierenden Schneemangels.

Am kommenden Wochenende sowie der darauf folgenden Woche hat sich dann das Hochdruckgebiet über dem Atlantik voll ausgebildet, und die Strömung dreht bei uns auf Nord bis Nordost.

So viel zur aktuellen Lage bei uns. Wie aber kann man diesen Vorgang statistisch-synoptisch bewerten? Nun, eine so gravierende und seit Jahren nicht mehr beobachtete Umstellung ist natürlich nicht auf ein bestimmtes Gebiet beschränkt, sondern erfolgt hemisphärisch. Außerdem ist es für mich als Wetterfreak immer faszinierend, wenn sich ein langwelliges Wellenmuster auf der Nordhemisphäre, das Wochen und Monate, ja mit kurzen Unterbrechungen Jahre lang etabliert war, praktisch von einer Woche zur anderen vollständig umstellt. Das sich neu einstellende Muster hat dann wieder einige Zeit Bestand. Soll heißen: der offenbar bevor stehende Wintereinbruch scheint keine kurzfristige Angelegenheit zu sein. Das jedoch bleibt abzuwarten, denn schon eine Vorhersage bzw. Simulation von 10 Tagen im Voraus ist üblicherweise mit immer größeren Unsicherheiten behaftet. Jedenfalls nehmen wir Synoptiker nicht für uns in Anspruch, in der Lage zu sein, das Wetter für 50 oder sogar 100 JAHRE im Voraus vorhersagen zu können!

Philosophisch angehauchte Naturen wie zum Beispiel unser Übersetzer Chris Frey haben dazu noch ganz andere Gedanken. Zum Einen: einen Jahreswechsel gibt es jedes Jahr (ach?), aber einen so drastischen Witterungswechsel genau zum Jahreswechsel schon erheblich seltener, wenn überhaupt schon mal. Aber auch anderswo gibt es drastische Wechsel, die nichts mit Wetter oder Klima zu tun haben: In der Politik beispielsweise in den USA. Der designierte Präsident Trump hat ja schon verlauten lassen, dass er nicht den Mensch als Verursacher von Klimawandel sieht, den es schon seit Urzeiten gab (in den Medien oft als „den Klimawandel leugnend“ diffamiert), und dass er demzufolge die Axt an sämtliche diesbezüglichen Maßnahmen der Obama-Regierung legen wird. Fast scheint es so, als ob das Wetter selbst auf Trumps Seite steht.

Nun ja, als Wissenschaftler halte ich diese Koinzidenz natürlich für völlig unwissenschaftlich. Aber wer weiß? Haben nicht schon viele klimarealistische Autoren und vor allem Astronomen darauf hingewiesen, dass wegen der schwächelnden Sonnenaktivität eine neue Abkühlungsphase bevorsteht? Hat vielleicht nur der El Nino zum vorigen Jahreswechsel das Eintreten einer solchen Abkühlungsphase nur verzögert?

Und könnte es sein, dass sich die Berichterstattung zu diesem Thema auch langsam zu ändern beginnt? Unter Anderem bei WUWT hier beschreibt der Autor Kip Hansen erste Tendenzen in diese Richtung. Was für ein Jahreswechsel!

Aber noch einmal zurück zur Statistik. Die sorgfältig und sicher sehr zeitaufwändig recherchierten Beiträge von Kämpfe und Kowatsch sind ja allesamt statistischer Natur. Statistik heißt aber immer, dass eine bestimmte feste Basis vorhanden sein muss, in diesem Falle also ein bestimmtes Klimaregime. Zur Mittelalterlichen Warmzeit, aber auch während der Kleinen Eiszeit herrschte sicher ein anderes Klimaregime als im vorigen Jahrhundert. Daher steht die nicht beantwortbare Frage im Raum, ob die von den beiden Autoren genannten Statistiken auch in einem anderen Klimaregime als dem im vorigen Jahrhundert gelten. Andererseits darf man auf keinen Fall einen direkten Zusammenhang herstellen zwischen einer eher zufälligen Witterungsumstellung innerhalb von ein paar Wochen einerseits mit einem sich neu einstellenden Klimaregime im Zeitmaßstab von Jahrzehnten oder Jahrhunderten andererseits.

Für mich als Beobachter wird es spannend sein zu sehen, ob auch im kommenden Sommer die ewigen und sehr unwetterträchtigen Südwestlagen ein Ende haben.

Dipl.-Met. Hans-Dieter Schmidt


Aktualisierung vom 1. Januar 2017: So schnell kann das gehen! Mit dem heutigen Modelllauf von 00 UTC ist nichts, aber auch gar nichts merh von irgendeinem Wintereinbruch in der zweiten Woche dieses Jahres zu sehen. Nach vorübergehend etwas kälterem Wetter in dieser Woche mit Schnee bis ins Flachland (der vielfach noch nicht einmal liegen bleiben dürfte), soll sich nun in der Woche ab dem 9.1 wieder mildes Westwindwetter einstellen.

Nun ja, daraus lassen sich aber indirekt wieder ein paar Erkenntnisse  erzielen (weshalb ich die Redaktion auch nicht gebeten habe, diesen Beitrag zu entfernen). Es bestätigt sich nämlich eine Erfahrung bzgl. Modellvorhersagen, die ich schon seit den achtziger Jahren beobachte: Immer wenn die Modelle den Übergang zu kaltem Wetter simulieren, liegen sie sehr häufig daneben (etwa 70% bis 80% aller Fälle). Simulieren sie dagegen den Übergang zu milder Witterung bzw. deren rascher Wiederherstellung, sind sie stets richtig (über 90%). Dies scheint für alle Modelle zu gelten, denn alle einschlägigen Modelle weltweit zeigen diesen Vorgang. Das heißt im Klartext: Winterfreaks werden wohl weiter auf richtiges Winterwetter warten müssen. Immerhin ist eine Westlage aber für Schnee auf den Bergen gut.

Ich halte also die neuesten Modellläufe für absolut zuverlässig. Sollte es nun aber doch in der zweiten Woche dieses Jahres kalt werden, darf man gerne entsprechende Kommentare posten!

Hans-Dieter Schmidt




100% der Erwärmung in den USA gehen auf Daten­manipulationen der NOAA zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr 2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien

Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.

Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.

Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist (0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US-Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden.

Ausführlicher:

NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:

US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr.

Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-tampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.