1

Rundbrief des Heartland Institute vom 6. Januar 2017

Zum Rundbrief:

Beweise zeigen, dass menschliche Treibhausgas-Emissionen nur eine sehr geringe Auswirkung auf das globale Klima haben, sind doch alle Modell-Prophezeiungen der Alarmisten routinemäßig nicht in der Lage, die Realität abzubilden.

Für alle, die die Freiheit lieben und diesbezüglich auf dem Laufenden bleiben wollen versendet das Heartland-Institute jeden Freitag Rundbriefe mit den wichtigsten Hinweisen auf entsprechende Beiträge. Diese kann man hier herunterladen. Hier folgt beispielhaft die Ausgabe dieser Woche:

Pipelines sind sicherer als ,Safe Sex‘

Isaac Orr, Breitbart

Der Streit um die Dakota Access-Pipeline hat das Thema Sicherheit von Öl- und Erdgastransporten an vorderste Stelle der nationalen Debatte um Energiepolitik geschoben. Die Debatte wurde kürzlich erheblich befeuert durch ein Leck, durch welches nahe der Stadt Belfield in North Dakota 176.000 Gallonen [ca. 799.040 Liter] Rohöl ausgelaufen waren. Gegner der Pipeline führen dieses Leck als Beweis an, dass Pipelines nicht ordentlich betrieben werden können. Die Wahrheit ist jedoch, dass Pipelines um Einiges sicherer sind als viele andere menschliche Aktivitäten, darunter „Safe Sex“. Mehr

Der Beweis, dass die Menschen nicht das Klima zerstören

H. Sterling Burnett, Red State

Es ist keine Frage: Die Menschen haben das Klima in einem kleinräumigen Maßstab verändert – und nicht immer zum Besseren. An einigen Stellen haben Entwaldung und Brandrodung für sich ändernde Verteilungen der Regenmengen, Überschwemmungen und Wüstenbildung gesorgt. Allerdings zeigen alle Beweise, dass menschliche Treibhausgas-Emissionen nur einen sehr geringen Einfluss auf das globale Klima haben, haben sich doch fast alle Modell-Prophezeiungen der Alarmisten als routinemäßig nicht in der Lage erwiesen, die Realität abzubilden.Tatsächlich ist es viel wahrscheinlicher, dass menschliche CO2-Emissionen der Umwelt viel mehr nutzen als schaden.

Mehr [Dieser Beitrag ist vollständig für die Übersetzung geplant]

Vorgestelltes Podcast: William Yeatman – erste Schritte der Trump-Regierung: für bezahlbare Energie sorgen

Während der letzten acht Jahre wurden Umweltgruppen, welche die Obama-Regierung unterstützt hatten, die Schlüssel zur EPA übergeben, wo sie durch einen ideologisch getriebenen Hass auf fossile Treibstoffe ihr Bestes getan haben, um die Erzeugung und den Verbrauch von Kohle, Öl und Erdgas zu stoppen. Aber jene Tage sind vorbei. William Yeatman vom Competitive Enterprise Institute CEI trifft den Betreiber von Environment & Climate News H. Sterling Burnett, um das Ende der Obama-Regierung zu feiern und vorauszuschauen auf eine vernünftige Vorschriftengebung in der Zukunft, welche die Umwelt schützt und welche gleichzeitig eine verantwortungsbewusste Energieerzeugung und ökonomischen Fortschritt ermutigt. Mehr hören

Die letzten Atemzüge von Obamas imperialer Präsidentschaft

Justin Haskins, The Hill

Präsident Obama nutzt jede ihm noch verbleibende Sekunde im Amt für eine Flut neuer Vorschriften, welche dem Willen lokaler und [US-]staatlicher Regierungen, dem amerikanischen Volk und seinen gleichartigen Peers im Kongress zuwider läuft. Hoffentlich wird Donald Trump seine Amtszeit nutzen, um das Prinzip der Freiheit voranzubringen und die vielen anti-libertären Maßnahmen der Obama-Regierung zu annullieren. Mehr

Podcast: Dr. Zacharias Hildenbrand: Beeinträchtigt Fracking die Luftgüte?

Dr. Zacharias Hildenbrand trifft das Mitglied des Heartland Institute Isaac Orr, um mit ihm über seine jüngsten Forschungen zu sprechen, bei denen er die Konzentrationen von Giftstoffen untersucht hat bei Fracking-Bohrstellen im Eagle Ford Shale of Texas. Die Ergebnisse variierten von der Stelle der Messung, aber die gemessene Menge lag unter dem als „schädlich“ eingestuften Standard der Occupational Safety and Health Administration. Weiter hören

Neue Website zu den Lügen von Wikipedia

Es gibt jetzt eine spezielle einzelne Website, auf der Dutzende Beiträge gesammelt werden einschließlich solcher über wissenschaftliche Forschungen, und wie Wikipedia, die „freie Enzyklopädie“, in Wirklichkeit die Fake-Enzyklopädie ist. Wikipedia ist die erste Adresse, wenn die Menschen etwas über Organisationen und Individuen erfahren möchten, von denen sie in den Nachrichten oder online hören, aber die dort geposteten Profile sind verzerrt, unzuverlässig und oftmals verleumderisch. Das Wikipedia-Profil über das Heartland Institute enthält viele Lügen und Fehler, aber wir stehen nicht allein: Tausende derartiger Profile wurden auf ähnliche Weise von linken Aktivisten gehackt [was natürlich auch für das EIKE gilt! Anm. d. Übers.] Mehr

Link: https://www.heartland.org/news-opinion/news/climate-change-101-evidence-humans-arent-destroying-the-climate

Alles Übersetzt von Chris Frey EIKE




Großes Minimum der solaren Gesamt-Strahlung führt zu der Kleinen Eiszeit

Abstract

Die Quasi-zweijährige Variation der Energie der von der Erde absorbierten Solarenergie wird weiterhin nicht durch die Energieabstrahlung in den Weltraum kompensiert während eines Zeitraumes, der bestimmt wird durch die thermische Trägheit. Das ist der Grund, warum die Soll- und Haben-Anteile des mittleren jährlichen Energie-Budgets mit seiner Hülle aus Luft und Wasser immer in einem Zustand des Ungleichgewichts liegen, welches der grundlegende Status des Klimasystems ist. Das mittlere jährliche Gleichgewicht des thermischen Budgets des Systems Erde-Atmosphäre während langer Zeiträume wird zuverlässig Verhalten und Wert sowohl der durch die Erde akkumulierten überschüssigen Energie als auch das Energie-Defizit im thermischen Budget bestimmt. Dies wiederum kann unter Berücksichtigung der Daten der vorhergesagten Variationen der Gesamt-Solarstrahlung (TSI) in der Zukunft gut im Voraus Richtung und Amplitude bevor stehender Klimawandel mit hoher Genauigkeit vorhersagen. Seit Anfang der neunziger Jahre wurde sowohl eine Abnahme der TSI als auch des von der Erde absorbierten Energie-Anteils beobachtet. Die Erde als Planet wird in Zukunft ebenfalls ein negatives Gleichgewicht im Energiebudget aufweisen, weil die Sonne in die abnehmende Phase des Quasi-zweijährigen Zyklus‘ der TSI-Variationen eingetreten ist. Dies wird zu einem Absinken der Temperatur führen und zum Beginn einer Epoche der Kleinen Eiszeit etwa ab dem Jahr 2014. Die Zunahme der globalen Albedo und die Abnahme der Treibhausgas-Konzentration in der Atmosphäre wird zu einer zusätzlichen Reduktion der absorbierten Sonnenenergie führen und den Treibhauseffekt reduzieren. Der Einfluss der ununterbrochenen Kette von Rückkopplungs-Effekten wird zu einem zusätzlichen Absinken der Temperaturen führen, die den Einfluss der TSI-Abnahme sogar noch überbieten kann. Der Beginn eines Minimums vom Typ Grand Mauder der TSI des quasi-zweijährigen Zyklus‘ kann um das Jahr 2043 ± 11 Jahre erwartet werden und der Beginn der Phase starker Abkühlung bis zum Niveau der 19. Kleinen Eiszeit während der letzten 7500 Jahre im Jahr 2060 ± 11 Jahre. Langzeitliche zyklische Variationen der TSI sind der Hauptgrund der damit einher gehenden Klimavariationen.

Introduction

Das Klimasystem wird beeinflusst durch einen quasi-zweijährigen zyklischen externen Vorgang im Zusammenhang mit korrespondierenden TSI-Variationen. Bedeutende zyklische Klimawandel sind eine erzwungene Reaktion des Klimasystems auf diese externen Vorgänge. Die grundlegenden Merkmale der Klimavariationen hängen besonders zusammen mit Fluktuationen der Energie und der Geschwindigkeit sowohl der atmosphärischen Zirkulation als auch von Meeresströmen, einschließlich des thermischen Fließens des Golfstromes, welcher getrieben wird durch die Akkumulation von Wärme im Ozeanwasser der Tropen. Dies wird bestimmt durch die allgemeinen Vorgänge zwei- und elfjähriger zyklischer TSI-Variationen. Die bedeutenden Klimavariationen während der letzten 7,5 Jahrtausende zeigen, dass die zweijährige quasi-periodische TSI-Variation einen korrespondierenden zyklischen Mechanismus klimatischer Änderungen definiert, die von globalen Erwärmungen bis zu Kleinen Eiszeiten reicht, und der außerdem den Zeitrahmen von praktisch allen physikalischen Prozessen vorgibt, die im System Sonne-Erde vor sich gehen [13]. Gleichzeitig führt die zweijährige quasi-periodische TSI-Variation zu einer zusätzlichen Temperaturabnahme (mit einer gewissen zeitlichen Verzögerung), die infolge klimatischer Rückkopplungs-Mechanismen über den direkten Einfluss der TSI-Variation hinausgeht. Diese Rückkopplungs-Mechanismen, namentlich der graduelle nichtlineare Anstieg der Oberflächen-Albedo der Erde (eine zusätzliche Abnahme des absorbierten TSI-Anteils) und die natürliche nichtlineare Abnahme der atmosphärischen Wasserdampf-Konzentration, Kohlendioxid und anderer Gase (Schwächung des Einflusses des Treibhausgas-Effektes) während des Prozesses der Abkühlung und umgekehrt.

Die beobachtete langzeitliche TSI-Abnahme und bevorstehende starke Abkühlung wird zunächst einmal klima-abhängige natürliche Ressourcen beeinflussen und folglich zuallererst wirtschaftliche Zweige mit enger Bindung an den Zustand des Klimas. Heutzutage ist das Problem einer zukünftigen globalen Abkühlung nicht nur ein hauptsächliches und bedeutendes wissenschaftliches Problem von planetarischen Ausmaßen, vor dem die gesamte Menschheit steht, sondern auch ein wirtschaftliches und politisches Problem, dessen Lösung die weiteren Aspekte der Entwicklung der menschlichen Zivilisation bestimmt. Eine bevorstehende globale Abkühlung wird die Richtung der Änderungen verschiedener natürlicher Prozesse auf der Erdoberfläche und in der Atmosphäre vorgeben ebenso wie die Bedingungen zur Bildung materieller und finanzieller Ressourcen für die Gesellschaft. Starke Abkühlung wird direkt die Entwicklung der wissenschaftlichen, technischen und wirtschaftlichen Potentiale der modernen Zivilisation beeinflussen. Ein frühes Verständnis der Realität der bevorstehenden Abkühlung sowie die dafür ursächlichen physikalischen Prozesse bestimmt direkt die Wahl geeigneter und zuverlässiger Maßnahmen, welche es der Menschheit besonders in Ländern mit größerer Entfernung vom Äquator ermöglicht, sich an die zukünftige globale Abkühlung anzupassen. In der Praxis ist es am wichtigsten, die Tendenzen des erwarteten Klimawandels während der nächsten 50 bis 100 Jahre zu bestimmen, das heißt also bis Mitte oder Ende des 21. Jahrhunderts.

Wechselwirkungen zwischen Klimavariationen und orbitalen Antrieben der Erde

Abbildung 1: Allgemein bekannt sind die astronomichen Milankovitch-Zyklen [4, 5].
Bedeutende langfristige Variationen des jährlichen Mittels der TSI infolge Änderungen des Erdorbits, der Neigung der Erdachse relativ zur Orbitalebene und die Präzession sowie Präzession (Abbildung 1), bekannt als die astronomischen Milankovitch-Zyklen [4,5] führen zusammen mit sekundären Rückkopplungs-Effekten zu Großen Glazialen Perioden. Erhebliche Änderungen des jährlichen mittleren Abstandes der Erde von der Sonne mit einer Periode von etwa 100.000 Jahren und daraus resultierende TSI-Variationen führen zu wesentlichen Temperatur-Fluktuationen von den Erwärmungen zu den Großen Glazialen Perioden, ebenso wie zu variablen atmosphärischen Konzentrationen von Wasserdampf, Kohlendioxid und anderen Gasen. Die astronomischen Milankovitch-Zyklen führen zu einer Änderung der absorbierten Menge in verschiedenen Gebieten der Erde, und auf dem gesamten Planeten zu Änderungen der mittleren jährlichen Energie durch Sonnenstrahlen infolge Variationen des orbitalen Antriebs. Die TSI ist definiert als S=L/4πR2, wobei L = die solare Helligkeit – die Gesamtenergie des solaren Outputs (pro Zeiteinheit) in Gestalt elektromagnetischer Strahlung, S = die solare Gesamt-Einstrahlung bei der mittleren jährlichen Distanz zwischen Sonne und Erde, R = die mittlere jährliche Distanz zwischen Sonne und Erde. Die astronomischen Milankovitch-Zyklen induzieren bedeutende Variationen der Temperatur und der atmosphärischen Konzentration von Kohlendioxid. Während der 420.000 Jahre gab es vier Große Glaziale Perioden (mit einer Periode von etwa 100.000 Jahren) und fünf Hochtemperaturphasen ebenso wie Variationen der atmosphärischen Kohlendioxid-Konzentration um etwa 100 ppm und der Temperatur um etwa 10°C (Abbildung 2) [68]. Die ikaite Aufzeichnung unterstützt qualitativ, dass sowohl die Mittelalterliche Warmzeit als auch die Kleine Eiszeit des Maunder-Minimums sich bis zur Antarktischen Halbinsel auswirkten, was auf die globale Natur dieser Änderungen hinweist [9].

Abbildung 2: Erdklima und Kohlendioxid-Variationen während der Vergangenheit – für den Zeitraum von 420.000 Jahren (aus dem 3623 m-Eisbohrkern nahe Wostok [6, 7]
Antarktische Eisbohrkerne beweisen eindeutig eine enge Kopplung zwischen Variationen der Temperatur und der atmosphärischen Konzentration von Kohlendioxid während der glazialen/interglazialen Zyklen von zumindest den letzten 800 bis 1000 Jahren. Präzise Informationen über das relative Timing der Temperatur- und CO2-Änderungen können helfen, unser Verständnis der physikalischen Prozesse zu verbessern, die bei dieser Kopplung eine Rolle spielen. Analysen von Eisbohrkernen aus den antarktischen Eisschilden zeigen, dass die CO2-Konzentration in der Atmosphäre eng dem Anstieg der Temperaturen folgt, nämlich etwa 800 ± 400 Jahre später [6, 8, 10]. Bei keinem der glazialen/interglazialen Zyklen war eine Spitze der CO2-Konzentration vor einer Wärmespitze aufgetreten. In der modernen Ära wurde mittels Datenreihen des atmosphärischen CO2-Gehaltes und der Temperatur ebenfalls das Verhältnis der jeweiligen Phasen untersucht im Zeitraum Januar 1980 bis Dezember 2011 [11]. Die maximale positive Korrelation zwischen Kohlendioxid und Temperatur zeigt, dass Kohlendioxid um 11 bis 12 Monate der globalen Wassertemperatur hinterher hinkt, der Lufttemperatur um 9,5 bis 10 Monate und etwa 9 Monate der Temperatur der unteren Troposphäre.

Folglich laufen Änderungen des atmosphärischen CO2-Gehaltes hinter den korrespondierenden Temperaturen hinterher. Aus anthropogenen Quellen stammendes Kohlendioxid hat kaum einen Einfluss auf die beobachteten Änderungen des atmosphärischen CO2-Gehaltes, und Änderungen des atmosphärischen CO2-Gehaltes spiegeln keine Änderungen bei den menschlichen Emissionen [11]. Änderungen der Wassertemperaturen können einen substantiellen Anteil der beobachteten Änderungen des atmosphärischen CO2-Gehaltes seit Januar 1980 erklären [11]. Dies bedeutet, dass eine globale Erwärmung eine CO2-Zunahme als Konsequenz zur Folge hat. Folglich wurden messbare Änderungen der atmosphärischen CO2-Konzentration immer durch korrespondierende Temperatur-Fluktuationen in den Ozeanen der Welt bestimmt, der CO2 in einer Menge enthält, die über die in Wasser um etwa den Faktor 50 hinausgeht (erwärmtes Wasser absorbiert weniger CO2) [12]. Daher gibt es keinen Beweis, dass CO2 ein wesentlicher Faktor bei der Erwärmung der Erde sind (siehe unten). Messbare Änderungen der atmosphärischen Konzentration von CO2 werden immer ausgelöst durch korrespondierende Temperatur-Fluktuationen der Welt-Ozeane. Folglich sind signifikante langzeitliche zyklische Variationen der jährlich im Mittel auf die Erde und hier auf die oberen Schichten der Erdatmosphäre einfallenden Gesamt-Sonnenenergie von den astronomischen Milankovitch-Zyklen bestimmt, die der wesentliche und fundamentale Grund korrespondierender Klimavariationen auf der Erde sind mit einer Periode von etwa 100.000 Jahren (selbst dann, wenn die solare Luminosität L konstant bleibt).

Wechselwirkungen zwischen Klima und Sonnenaktivität

Die Korrelation zwischen Sonnenflecken-Aktivität uns Klima wurde zum ersten Man von dem berühmten englischen Astronom William Hershel im Jahre 1801 ins Spiel gebracht. Dieser hatte eine inverse Relation entdeckt zwischen den Weizenpreisen und dem Niveau der Sonnenaktivität vor und während einer Periode, die als das Dalton-Minimum bekannt ist [1]. Während hoher Niveaus der Sonnenaktivität stieg die Produktion von Weizen, was zu sinkenden Preisen führte. Nahmen die Sonnenflecken dagegen signifikant ab, stiegen die Preise wieder. Hershel vermutete, dass die Änderungen der Weizenpreise auf korrespondierende Klimaänderungen zurückzuführen waren, konnte aber die physikalische Natur des Phänomens nicht erklären. Später fand man eine Korrelation in Phase und Amplitude zwischen separaten Perioden merklicher Variationen der Sonnenfleckenbildungs-Aktivität und korrespondierenden großen Klimaänderungen während des gesamten vorigen Jahrtausends [2]. Während jedem der 18 Minima vom Maunder-Typ der solaren Aktivität mit dem quasi-zweihundertjährigen Zyklus , der während der letzten 7500 Jahre zu beobachten war, ging einher mit einer Periode starker Abkühlung, wohingegen die Perioden der Maxima der Sonnenaktivität mit Erwärmung korrespondierten [3]. Gegenwärtig ist allgemein akzeptiert, dass der quasi-zweihundertjährige Zyklus der Sonne einer der intensivsten solaren Zyklen ist. Allerdings werden starke Abkühlungen und Erwärmungen nicht nur durch den direkten Einfluss der quasi-zweihundertjährigen TSI-Variation ausgelöst, sondern auch durch deren sekundäre zusätzlichen Einflüsse in Gestalt nachfolgender Rückkopplungen. Die jüngsten Studien [13, 14] bestätigen unsere früheren Ergebnisse [15, 16], die den direkten zusammenwirkenden Effekt (mit einiger Verzögerung) der 11-jährigen (11 ± 3 Jahre) und der quasi-zweihundertjährigen (200 ±70 Jahre) zyklischen Variationen von TSI zeigen auf die Änderungen des Zustandes der Oberflächen-Schicht (zehner bis hunderte Meter tief) im tropischen Pazifik. Dies wiederum führt zu El Nino- und La Nina-Effekten, die einhergehen mit dem Auftreten warmen und kalten Wassers, was das Klima beeinflusst. Die Änderungen der gemessenen El-Nino-Parameter während der letzten 31 Jahre korrespondierten nicht mit den von den Klimamodellen prophezeiten Änderungen, welche von der dominanten Rolle von Treibhausgasen ausgehen. [13, 14]. Folglich sind die Oszillationen der El-Nino-Parameter hauptsächlich natürlichen Gründen geschuldet, nämlich den zyklischen TSI-Variationen.

TSI-Variationen und Rückkopplungs-Effekte

Abbildung 3: Variationen sowohl der Sonnenaktivität auf der Grundlage monatlicher Daten [27] und die Gesamt-Solarstrahlung TSI sowie deren Defizit seit 1990 auf der Grundlage täglicher Daten [21] zwischen 1978 und dem 4. Dezember 2012.
Die physikalische Natur großer Klimaänderungen im Verlauf der letzten 7500 Jahre war direkt korreliert mit Änderungen der TSI S. Wir haben gezeigt, dass die Variationen von TSI S synchron verlaufen und korreliert sind (sowohl in Phase als auch in Amplitude) mit dem quasi-zweihundertjährigen und den 11-jährigen zyklischen Variationen des Sonnenflecken-Aktivitätsindex‘ (Abbildung 3) [1520]. Wir zogen die PMOD-Komposit-Daten [21] heran, da das konstruierte „gemischte“ ACRIM-SATIRE-Komposit von 1986 bis 1996 keine Zunahme der TSI zeigte, im Gegensatz zum ACRIM-Komposit [22]. Dies gestattet es, eine relativ kurze Reihe (seit 1978) präziser außer-atmosphärischer Messungen [mittels Satelliten, der Übersetzer] von TSI S [21] auf längere Zeiträume mittels langer Läufe des W-Index‘ der Sonnenaktivität [2327] zu extrapolieren. Dies ermöglicht es, den Verlauf der TSI während vergangener Jahrhunderte und sogar Jahrtausende nachzuvollziehen und wie diese zu den korrespondierenden Klimaänderungen in der Vergangenheit passen, sowie die zukünftigen Variationen zu untersuchen.

Wir können also festhalten: alle 18 starken Abkühlungen und Erwärmungen während der letzten 7500 Jahre wurden verursacht durch die korrespondierenden quasi-zweihundertjährigen zyklischen Variationen der TSI zusammen mit sekundären Nachfolge-Rückkopplungseffekten [17, 18, 20]. Allerdings sind die quasi-zweihundertjährigen TSI-Änderungen relativ klein (maximale Werte etwa 6,6 W m–2 oder ~0.5% der jüngsten rekonstruierten Daten [26], wobei die Autoren die Aufhellung spezifisch kleinräumigen Magnetfeldern zuordnen, die erzeugt werden durch turbulente Kaskaden im Netzwerk und dem Intranet-Netzwerk). Deren direkte Auswirkung ist unzureichend, um die korrespondierenden zyklischen quasi-zweihundertjährigen Temperaturänderungen der Erde zu erklären, von Perioden mit Erwärmung bis zur Kleinen Eiszeit. Ein zusätzlicher „Verstärker“ ist erforderlich, um die direkten Auswirkungen von TSI-Variationen auf beobachtete globale Klimaänderungen zu erklären. Derartige Verstärker der direkten Auswirkungen von TSI-Variationen auf Klimavariationen sind Rückkopplungs-Effekte: natürliche Änderungen der globalen Albedo der Erde als Planet (Bond-Albedo) sowie Änderungen der Konzentration von Treibhausgasen in der Atmosphäre (Wasserdampf, CO2, Methan, usw.).

Die Bond-Albedo ist definiert durch die globalen optischen Eigenschaften der Erde als Ganzes mit seiner sie einhüllenden Atmosphäre und Wasser, gemittelt über die gesamte vertikale Erstreckung, von der Oberfläche durch die Atmosphäre. Die Bond-Albedo ist ein Anteil der reflektierten Sonnenstrahlungs-Energie zurück in den Weltraum durch das gesamte System Erde-Atmosphäre; sie ist ein besonders wichtiger physikalischer Parameter im Energiehaushalt der Erde als Planet. Die Albedo der Erde nimmt bis auf ihr Maximum zu während einer starken Abkühlung und sinkt auf ein Minimum bei Erwärmung, während die Konzentration von Treibhausgasen in der Atmosphäre umgekehrt variiert, da diese hauptsächlich von den Temperaturen in den Ozeanen abhängig ist. Variationen der Parameter von Oberfläche und Atmosphäre der Erde, welche aufgrund der quasi-zweihundertjährigen zyklischen TSI-Variationen vor sich gehen, lösen weitere nachfolgende Temperaturänderungen aus infolge multipler Wiederholungen eines solchen ursächlichen Zyklus‘ der sekundären Rückkopplungs-Effekte, selbst wenn die TSI über einen bestimmten Zeitraum nachfolgend unverändert bleibt. Als Folge können globale Klimawandel weiter verstärkt werden durch einen Wert, der über den Einfluss der quasi-zweihundertjährigen TSI-Variation hinausgeht. Eine derartige Verteilung war zum Ende des 20. Jahrhunderts aufgetreten. Folglich haben während der letzten 7500 Jahre die quasi-zweihundertjährigen zyklischen TSI-Variationen zusammen mit nachfolgenden sekundären Rückkopplungseffekten korrespondierende zyklische Klimawandel von Erwärmungen bis zur kleinen Eiszeit kontrolliert und zu 100% bestimmt – und sie haben Zeiträume gesetzt für praktisch alle physikalischen Prozesse, die im System Sonne-Erde vonstatten gehen. Unglücklicherweise ist die Dynamik, die die Rate der Gesamt-Zunahme der mit Schnee und Eis bedeckten Flächen ebenso wie die Rate der Abnahme der Konzentration von Treibhausgasen in der Atmosphäre, eine nichtlineare Funktion des Temperaturrückgangs und fast unvorhersagbar. Von der natürlichen CO2-Konzentration in der Atmosphäre weiß man, dass diese während der Großen Eiszeiten in der Erdgeschichte etwa zweimal so niedrig lag wie heute [6,7].

Quasi-zweihundertjährige TSI-Variation führt zu dem unausgeglichenen Energiehaushalt des Systems Erde-Atmosphäre

Die zeitweiligen Änderungen der von der Einhüllenden des Systems Erde-Atmosphäre in den Weltraum emittierten Energie in Gestalt langwelliger Strahlung hinken wegen der Enthalpie der Erde als Planet immer hinter Änderungen der Sonnenstrahlung hinterher. Die thermodynamische Temperatur, die das integrale Wärme-Gleichgewicht des Planeten spezifiziert, läuft Änderungen der Energie absorbierter Solarstrahlung merklich hinterher. Dies ist der thermischen Trägheit des Systems Erde-Atmosphäre geschuldet. Diese ist äquivalent dem Überschuss oder dem Defizit im Budget zwischen absorbierter und abgestrahlter Energie. Jede langzeitliche Änderung der von der Erde absorbierten solaren Strahlungsenergie, verursacht durch die quasi-zweihundertjährige TSI-Variation, die langsame Änderungen der Enthalpie im System zulässt definiert durch thermische Trägheit, verbleibt nicht kompensiert durch die Energie der in den Weltraum emittierten langwelligen Selbststrahlung. Dieser Prozess wird beschrieben durch ein Inkrement in der planetarischen thermodynamischen Temperatur, die sich langsam mit der Zeit ändert. Folglich ist das jährliche mittlere Energie-Gleichgewicht der Erde als Planet immer in einem Zustand des Ungleichgewichtes und oszilliert um den Gleichgewichts-Zustand, wobei die absorbierte und abgestrahlte Energie ungleich sind wegen der quasi-zweihundertjährigen TSI-Variation. Als Folge davon wird sich der Planet graduell erwärmen oder abkühlen. Die jährliche mittlere Differenz zwischen der auf die äußeren Schichten der Erdatmosphäre einfallende Sonnenstrahlungs-Energie

Ein=(S+ΔS)/4                                                               (1)

und die reflektierte Sonneneinstrahlung sowie die langwellige Ausstrahlungs-Energie in den Weltraum

Eout=(А+ΔA)(S+ΔS)/4+εσ(Тр+ΔТр)4                        (2)

spezifizieren das Gleichgewicht des Energiebudgets des Systems Erde-Atmosphäre. Hierin sind S die TSI, ΔS das Inkrement der TSI, A die Albedo der Erde als ein Planet (Bond-Albedo), ΔA ist das Inkrement der Bond-Albedo, ε ist die Emissivität des Systems Erde-Atmosphäre, σ ist die Stefan-Boltzmann-Konstante und Tp die planetarische thermodynamische Temperatur. Der Faktor 1/4 auf der rechten Seite der Gleichungen (1) und (2) spiegelt die Tatsache, dass der Fluss der Solarstrahlung projiziert wird auf den Querschnitt der terrestrischen Sphäre (Kreis), während die Erde von der ganzen Oberfläche der Sphäre emittiert, die vier mal so groß ist. Die spezifische Energie ΔE der Enthalpie-Änderung des Systems Erde-Atmosphäre (Unterschied zwischen incoming Ein and outgoing Eout radiation) wird durch folgende Gleichung beschrieben:

Е=(S+ΔS)/4–(А+ΔA)(S+ΔS)/4–εσ(Тр+ΔТр)4; (3)

Hierbei ist E die spezifische Energie der Enthalpie-Änderung der aktiven ozeanischen und atmosphärischen Schicht [W/m²], C die spezifische Oberflächen-Wärmekapazität der aktiven ozeanischen und atmosphärischen Schicht im Verhältnis zur Gesamtfläche der Erdoberfläche [J/m²K] und t steht für die Zeit. Die spezifische Energie der Enthalpie-Änderung der Erde ist ein besonderer Indikator von Defizit oder Überschuss der thermischen Energie, welche angesehen werden kann als das Energie-Gleichgewicht des mittleren jährlichen Budgets bei Soll und Haben der thermischen Energie des Planeten.

Gleichzeitig folgt das Inkrement der effektiven Temperatur der Erde, die im Strahlungs-Gleichgewicht involviert ist, sofort nach der Änderung der absorbierten Energie im Gegensatz zur planetarischen thermodynamischen Temperatur, die im Wärme-Gleichgewicht involviert ist. Die relative Auswirkung von Variationen der TSI und der Bond-Albedo auf die effektive Temperatur der Erde kann berechnet werden aus dem Strahlungs-Gleichgewicht der Erde als Planet:

S/4=σТ4ef+AS/4                                                          (4)

wobei Tef die die effektive Temperatur der Erde ist.

Jetzt wollen wir das Inkrement der effektiven Temperatur einführen Δtef=Tef–Tef0, wobei Tef der gegenwärtige Wert der effektiven Temperatur der Erde ist und Tef0 der initiale Wert. Man vermutet, dass dieses Inkrement den Inkrementen der TSI ΔS und der Bond-Albedo ΔA geschuldet ist. In diesem Falle bekommt die Gleichung der Strahlungsbilanz (Gl. (4)) folgende Form:

(S+ΔS)/4=σ(Тef+ΔТef)4+(A+ΔА)(S+ΔS)/4        (5)

Da die Inkremente der effektiven Temperatur klein sind, also ΔTef << Tef0, wird die folgende Gleichheit mit einem hohen Grad von Genauigkeit erfüllt:

S/4+ΔS/4=σТ4ef+4σТ3efΔТef+AS/4+АΔS/4+ΔА(S+ΔS)/4 (6)

Subtrahiert man Gl. (4) von Gl. (6), erhält man

ΔS/4=4σТ3efΔТef+AΔS/4+ΔА(S+ΔS)/4             (7)

oder

16σТ3efΔТef=ΔS–AΔS–ΔАS–ΔАΔS.                    (8)

Die Formel für das Inkrement der effektiven Temperatur der Erde infolge der Inkremente der TSI und der Bond-Albedo kann man aus Gl. (8) ableiten:

ΔТef=[ΔS(1 – А – ΔА) – ΔАS]/(16σТ3ef).                  (9)

Falls sich die TSI nicht ändert (ΔS=0), erhalten wir aus Gl. (9), dass

ΔТef= – ΔАS/(16σТ3ef)                                                   (10)

Unter Annahme der derzeit bekannten Werte der effektiven Temperatur der Erde und der TSI ( Tef=254.8 K bzw. S=1366 W/m²) erhalten wir aus Gl. (10) für ΔS=0:

ΔТef= – 91 ΔА                                                                      (11)

Mit einer konstanten Bond-Albedo (ΔA=0) wird Gl. (9) zu

ΔТef= – ΔАS/(16σТ3ef)                                                    (12)

Unter der Annahme des bekannten Wertes der globalen Albedo der Erde, welcher gleich A = 0,30 ist, wie aus den jüngsten Daten hervorgeht [28], erhalten wir aus (12) für for ΔA=0:

Δтef=0,047 ΔS                                                                     (13)

Eine Abschätzung des Verhältnisses der relativen Beiträge der Inkremente ΔS and ΔА zum Inkrement ΔTef kann vorgenommen werden, indem man die Bedingungen ihrer gegenseitigen Kompensation übernimmt, während das Energiegleichgewicht erhalten bleibt [29]

ΔS(1–А–ΔА)–ΔАS= 0                                                   (14)

in Formel (9). Aus (14) kann man das Verhältnis ableiten zwischen dem relativen Beitrag der Inkremente ΔS and ΔA einerseits sowie dem Inkrement ΔТef andererseits:

ΔS/S=ΔА/(1–А–ΔА)                                                        (15)

oder

ΔS=1366·ΔА/(0.7–ΔА)                                                     (16)

Gleichung (13) zeigt, dass wenn die Bond-Albedo unverändert bleibt (ΔA=0) und es nur die TSI ist, die um ΔS= – 6,6 W/m2 abnimmt, die globale effektive Temperatur einschließlich der Einhüllenden aus Wasser und Luft abnimmt mit ΔTef= –0,31 K (weil Schätzungen der Differenz zwischen den Inkrementen der globalen Lufttemperatur {angesichts der Dauer von dessen Verzögerung} und der effektiven Temperatur unbedeutend sind). Aus Gl. (11) folgt, dass die Abnahme der effektiven Temperatur der Erde mit ΔTef= – 0,31 K eine Zunahme der globalen Albedo der Erde um ΔA= + 0,0034 oder 1,13% bewirkt. Eine solche Zunahme der Bond-Albedo wird zu einem zusätzlichen Rückgang der effektiven Temperatur der Erde als Planet um etwa 0,3 K führen, was eine lange Aufeinanderfolge dieser Zyklen zeitigt.

Allerdings beschreibt die (radiative) Temperatur des Systems Erde-Atmosphäre den trägheitsfreien Prozess des radiativen Wärmeaustauschs in einem thermischen Regime im Gleichgewicht. Als Konsequenz wird das unmittelbare radiative Gleichgewicht erreicht mit dem zeitlichen Fortschritt relativ zum Gesamt-Energie (thermisch)-Gleichgewicht des Planeten (Gl. (3), was eine langsame Änderung der Enthalpie des Systems Erde-Atmosphäre zulässt. Die effektive Temperatur ist die Strahlungstemperatur des Planeten. Sie zeigt den Trend der Klimaänderungen auf dem Planeten und reflektiert nicht so sehr zeitweilige planetarische Temperaturänderungen. Folglich betrifft die Änderung der Bond-Albedo merklich die effektive (radiative) Temperatur der Erde und ist (zusammen mit der TSI) der wichtigste Faktor zur Spezifizierung des stattfindenden Klimawandels. Die Welt-Ozeane sind eine träge Umgebung mit langsamen Änderungen im Klimasystem, die Atmosphäre ändert sich schneller. Allerdings führt das enge Zusammenwirken zwischen Atmosphäre und Ozeanen zu einer signifikanten Verzögerung der atmosphärischen Klima-Reaktion auf externe Anreize. Daher ändert sich die thermodynamische Temperatur der Erde nicht sofort auf Variationen der TSI und der Bond-Albedo; es gibt eine merkliche Zeitverzögerung, die bestimmt wird durch die konstante thermische Trägheit des Planeten [30]:

T=0,095(1+0,42·l) Jahr                                                             (17)

wobei 1 die Tiefe der aktiven Schicht in den Ozeanen ist. Falls diese Tiefe 300 bis 700 m beträgt, ist die konstante thermische Trägheit

t=20 ± 8 Jahre                                                                              (18)

Wegen ihrer großen Wärmekapazität ändert sich die Enthalpie der Ozeane langsam, was man durch einen gegenwärtigen Wert der konstanten thermischen Trägheit im Gesamt-Wärmegleichgewicht berücksichtigt. Folglich ändert sich die thermodynamische planetarische Temperatur langsam (was die Emissivitäts-Fähigkeit, d. h. den Grad der Schwärze betrifft). Daher sind Soll und Haben im jährlichen mittleren Energiehaushalt der Erde mit ihrer Einhüllenden aus Luft und Wasser infolge der 11-jährigen und der quasi-zweihundertjährigen Variationen der TSI immer im Ungleichgewicht (E ≠ 0) und sind entweder positiv oder negativ im Gleichgewicht. Ein solcher jährlicher mittlerer Wärmehaushalt im Ungleichgewicht ist der Hauptzustand im Klimasystem Erde-Atmosphäre. Falls TSI über lange Zeiträume abnimmt, erweist sich die mittlere jährliche Änderung der Enthalpie von Erde-Atmosphäre als negativ (E<0). Nimmt dagegen TSI über lange Zeiträume zu, ist diese Änderung positiv (E>0). Die Variationen von TSI und Bond-Albedo spielen die wichtigste Rolle bei der Änderung des Energiegleichgewichtes bei Erde-Atmosphäre und deren thermodynamischer Temperatur. Das jährliche mittlere Gleichgewicht des Energiehaushaltes von Erde-Atmosphäre über einen langen Zeitraum wird zuverlässig Trend und Magnitude der überschüssigen Energie definieren, der sich durch die Erde akkumuliert, oder das Defizit im Wärmehaushalt. Folglich kann das langzeitliche Monitoring des mittleren jährlichen Energiegleichgewichtes der Erde als Planet mittels einer jetzt möglichen Prognose der TSI-Variationen zuverlässig im Voraus (10 bis 20 Jahre im Voraus) den Trend (Erwärmung bei ΔE>0 oder Abkühlung bei ΔE<0) sowie die Magnitude der bevorstehenden globalen Klimaänderung mit einem hohen Grad an Validität bestimmen und vorhergesagen.

Die Abnahme der TSI in der Abnahme-phase des quasi-zweihundertjährigen Zyklus führt zu einem Defizit des Energiehaushaltes der Erde sowie zu einer Kleinen Eiszeit

Die 11- und zweihundert-jährigen Komponenten der TSI nahmen seit Anfang der neunziger Jahre ab mit derzeit zunehmenden Raten (Abbildung 3). Selbst typische kurzfristige Variationen von 0,1% übersteigen die Gesamt-Solareinstrahlung aller anderen Energiequellen (wie etwa die natürliche Radioaktivität im Erdkern) zusammen. Folglich nimmt der Anteil der von der Erde absorbierten Energie mit den gleichen Raten ab [15, 16, 18, 19, 21, 28, 31]. Die untere einhüllende Kurve in Abbildung 3, welche die geglätteten Minimum-Werte des TSI-Niveaus in einigen aufeinanderfolgenden 11-Jahre-Zyklen miteinander in Verbindung bringt (allgemeines Niveau relativ zu dem die 11-jährigen zyklischen Variationen der TSI stattfinden), ist eine Komponente der quasi-zweihundertjährigen, quasi-periodischen Variation in der TSI [1519, 29].

Die mittlere TSI war im 23. Zyklus um 0,15 W/m² niedriger als im 22. Zyklus. Der geglättete Wert der TSI während des Minimums zwischen den beiden Zyklen 23 und 24 (1365,27 ± 0.02W/m²) war jeweils um 0,23 und 0,30 W/m² niedriger als das Minimum zwischen den Zyklen 22 und 23 sowie auch den Zyklen 21 und 22. Allerdings wurde das Anfang der neunziger Jahre beginnende Defizit der einfallenden Sonnenstrahlung (siehe Abbildung 3) seitdem noch nicht kompensiert mittels der Abnahme der eigenen thermischen Energie, die von der Erde in den Weltraum emittiert wird. Diese thermische Energie verharrte auf fast dem gleichen höheren Niveau während 20 ± 8 Jahre infolge der thermischen Trägheit der Ozeane. Ein derartiges Ungleichgewicht im System (ΔE<0) wird noch einige weitere bevorstehende 11-Jahre-Zyklen bestehen bleiben, weil die Sonne in das quasi-zweihundertjährige Stadium geringer TSI eintritt (siehe [1719, 3234]). Als Folge wird die Erde als Planet ein negatives Gleichgewicht auch während der kommenden Zyklen 25 und 26 aufweisen. Diese periodische solare zyklische Transition zeigt, dass die Erde am Rande von deutlichen langfristigen Klimaänderungen steht. Eine solche graduelle Akkumulation von Sonnenenergie durch die Ozeane während fast des gesamten 20. Jahrhunderts wird mit Sicherheit zu einem Rückgang der globalen Temperatur 20 ± 8 Jahre später führen, und zwar wegen des negativen Energiegleichgewichtes im Energiehaushalt der Erde. Dies wiederum wird zu einer verstärkten Albedo der Erdoberfläche führen (infolge sich ausbreitender Schneedecke und Eisbedeckung usw.), einer reduzierten Konzentration von Wasserdampf, welcher ein dominanter Faktor beim Treibhauseffekt ist, ebenso wie Kohlendioxid und einigen anderen Komponenten der Atmosphäre [14, 15, 29, 31, 35]. Wir wollen anmerken, dass Wasserdampf rund 68% der integralen Energie der intrinsischen langwelligen Emission der Erdoberfläche absorbiert, während Kohlendioxid nur etwa 12% absorbiert (Abbildung 4).

Abbildung 4: Die Spektraldichte des thermischen Flusses langwelliger Strahlung von der Erdoberfläche (als Schwarzkörper) [16]
Als Folge davon wird der Anteil der von der Erde absorbierten Solarstrahlungs-Energie weiter abnehmen, ebenso wie die Auswirkung des Treibhauseffektes wegen der sekundären Rückkopplungs-Effekte. Der Einfluss der aufeinanderfolgenden, immer zunehmenden Änderungen der Rückkopplungs-Effekte können zu einem weiteren Rückgang der globalen Temperatur führen, welcher sogar noch über die direkte Auswirkung der TSI-Abnahme hinausgehen kann. Folglich zeigt das Studium aller merkbaren Variationen des Erdklimas während der letzten 7500 Jahre, dass die zweihundertjährige, quasi-periodische Variation der TSI (sowohl deren direkter als auch der Rückkopplungs-Effekte geschuldeten sekundären Auswirkung) verantwortlich ist für die korrespondierenden zyklischen Vorgänge von Klimaänderungen, von den Perioden mit Erwärmung bis zu Kleinen Eiszeiten. Außerdem spezifiziert sie die Zeitmaßstäbe fast aller physikalischen Prozesse, die im System Sonne-Erde vor sich gehen [2, 3, 16].

Da sich die Sonne in der Abnahme-Phase der quasi-zweihundertjährigen Variation befindet, nimmt eine mittlere jährliche Abnahme-Rate des geglätteten absoluten Wertes der TSI vom 22. Zyklus zum 23. und 24. Zyklus zu: eine mittlere jährliche Abnahme-Rate im 22. Zyklus betrug 0,007 W/m² pro Jahr, während sie im 23. Zyklus schon 0,02 W/m² pro Jahr betrug. Die mittlere TSI war im 23. Zyklus um 0,15 W/m² geringer als im 22. Zyklus. Der TSI-Wert während des Minimums zwischen dem 23. und dem 24. Zyklus war jeweils um 0,23 bzw. 0,30 W/m² geringer als zum Minimum zwischen den Zyklen 22 und 23 bzw. 21 und 22. Die gegenwärtige zunehmende Rate einer mittleren jährlichen TSI-Abnahme (mit Berücksichtigung der abrupten Abnahme ihrer 11-jährigen Komponente) beträgt fast 0,1 W/m² pro jahr (Abbildung 3) und wird im 25. Zyklus weiter abnehmen. Der beobachtete Trend der zunehmenden Rate einer mittleren jährlichen Abnahme der absoluten TSI-Werte lässt den Schluss zu, dass diese Abnahme als Ganzes korrespondieren wird mit einer analogen TSI-Abnahme während der Periode des Maunder-Minimums, jedenfalls der zuverlässigsten Rekonstruktion zufolge [26] (in der die Autoren die Aufhellung spezifisch kleinräumigen magnetischen Feldern zuordnen, erzeugt von den Turbulenzen im Netzwerk und Intra-Netzwerk). Wir wollen anmerken, dass das Maximum-Niveau der 11-jährigen TSI-Komponente während der vier Jahre des 24. Zyklus‘ um 0,7 W/m² abgenommen hat gegenüber dem Maximum-Niveau des 23. Zyklus‘. Als Folge davon wird als der wahrscheinlichste Zeitpunkt des Einsetzens des Solaren Großen Minimums vom Maunder-Typ das Jahr 2043 ± 11 Jahre erwartet [1520, 29, 3136]. Wir können eine weitere Abnahme der TSI prognostizieren aufgrund der sich weiter beschleunigenden Abnahme der 11-jährigen und der quasi-zweihundertjährigen Komponenten, die seit Beginn der neunziger Jahre beobachtet wird, ähnlich dem Maunder-Minimum. Diese Abnahme (mit abnehmender Genauigkeit) kann jeweils 1363,4 ± 0,8 W/m², 1361,0 ± 1,6 W/m² und ein Minimum von 1359,7 ± 2,4 W/m² erreichen während der Minima zwischen den Zyklen 24/25, 25/26 und 26/27 (Abbildung 5).

Abbildung 5: Variationen sowohl der TSI als auch der Sonnenaktivität von 1978 bis 2012 sowie Prognose von deren Variationen über die Zyklen 24 bis 26 bis 1945. Der Pfeil zeigt den Beginn der Epoche der Kleinen Eiszeit.

Die Länge des 11-Jahre-Zyklus‘ hängt ab von einer Phase des quasi-zweihundertjährigen Zyklus‘ und nimmt graduell zu von der Wachstumsphase bis zur Maximum- und der Abnahme-Phase im zweihundertjährigen Zyklus (Abbildung 6) [15, 16, 37]. Da erwartet wird, dass die Länge der 11-Jahre-Zyklen während der Abnahme-Phase des quasi-zweihundertjährigen Zyklus‘ zunehmen wird, werden die Minima zwischen den Zyklen 24 und 25, 25 und 26 sowie 26 und 27 jeweils etwa 2020,7 ± 0,6 bzw. 2032,2 ± 1,2 bzw. 2043,7 ± 1,8 betragen. Das Maximum-Niveau der Sonnenfleckenzahl geglättet über 13 Monate könnte jeweils 65-70, 45 ± 20 sowie 30 ± 20 während der Zyklen 24, 25 und 26 erreichen [15,16,19,35].

Abbildung 6: Die Dauer eines 11-jährigen Zyklus‘ hängt ab von der Phase eines quasi-zweihundertjährigen Zyklus‘ und nimmt konsequent zu von der Anstiegsphase bis zur Maximum-Phase und Abnahme des quasi-zweihundertjährigen Zyklus (◉ – der Zyklus 23) [37].
Folglich können wir den Beginn eines TSI-Minimums vom Grand-Maunder-Typ des quasi-zweihundertjährigen Zyklus‘ für das Jahr 2043 ± 11 Jahre und das Temperatur-Minimum vom 19. Grand-Maunder-Typ für die letzten 7500 Jahre um das Jahr 2060 ± 11 vorhersagen (Abbildung 7).

Abbildung 7: TSI-Variationen (mittels der rekonstruierten Daten [26]) und Sonnenaktivitätseit 1611 [27] sowie Prognose von deren Variationen bis zum Ende des 21. Jahrhunderts (gestrichelte Linien): Die heiße Sonne ist gelb und die kühle Sonne rot markiert.
Derzeit werden wir Zeuge der Übergangsperiode zwischen Erwärmung und starker Abkühlung, die charakterisiert ist durch instabile Klimaänderungen mit oszillierenden globalen Temperaturen (etwa bis 2014) rund um das Maximum der Jahre 1998 bis 2005. Der Beginn der Epoche der neuen Kleinen Eiszeit wird um das Jahr 2014 erwartet nach dem Maximum des solaren Zyklus‘ 24, und der Beginn der starken Abkühlung zur Kleinen Eiszeit um das Jahr 2060 ± 11 Jahre (Abbildung 7). Die Temperatur kann bis Mitte des 21. Jahrhunderts auf das Niveau des Maunder-Minimums sinken. Dieses ereignete sich von 1645 bis 1715 (Abbildung 8) [35].

Abbildung 8: Die Prognose natürlicher Klimaänderungen während der nächsten einhundert Jahre.

Folglich sind die langzeitlichen TSI-Variationen (direkte und sekundäre Auswirkungen, letztere Rückkopplungs-Effekten geschuldet) die Hauptursache weit vor allen anderen Ursachen für Klimaänderungen, weil die Variation des Erdklimas eine Funktion des langzeitlichen Ungleichgewichtes ist zwischen der auf die oberen Schichten der Atmosphäre treffenden Solarstrahlung und der von der Erde in den Weltraum abgestrahlten Gesamtenergie.

Starke Vulkanausbrüche führen nur zu kurzfristigen Abkühlungsperioden

Starke Vulkanausbrüche lassen die Anzahl fester Partikel und Gase in der unteren Stratosphäre zunehmen, welche die einfallende Solarstrahlung teilweise absorbieren. Damit wird der Anteil der die Erdoberfläche erreichenden TSI reduziert, was zu einer kurzfristigen Klima-Abkühlung führen kann. Außerdem tragen vulkanische Mikropartikel in der Atmosphäre zur Wolkenbildung bei, was ebenfalls die Erdoberfläche vor der Solarstrahlung abschirmt. Sie absorbieren auch infrarote Strahlung, aber der Anti-Treibhauseffekt ist stärker als der Treibhauseffekt. Allerdings sind diese Änderungen nicht langfristiger Natur, weil die Verweildauer vulkanischer Partikel in der Atmosphäre begrenzt ist. Die Atmosphäre ist zur Selbstreinigung in der Lage, und die Durchlässigkeit bis zum Niveau zuvor wird während einer Zeitspanne von 6 Monaten bis zu ein paar Jahren erreicht, womit dann auch die Temperatur wieder das Niveau zuvor erreicht [16]. Das ist der Grund, warum die Rolle von Vulkanausbrüchen bei Klimavariationen nicht langfristiger Natur sein kann und diese nicht steuert. Man weiß, dass nach dem Ausbruch des Pinatubo im Jahre 1991, bei dem etwa 20 Millionen Tonnen Schwefeldioxid in die Atmosphäre geblasen worden waren, die Temperatur von 1991 bis 1993 um etwa 0,5°C zurückgegangen ist. Danach jedoch hat sich die Atmosphäre selbst von diesen Additiven befreit und schließlich ihren ursprünglichen Zustand wieder erreicht.

Sensitivität des Klimas zu Kohlendioxid ging mit der Zunahme der Wasserdampf-Konzentration zurück

Betrachtet man die von Treibhausgasen ausgelöste Temperaturänderung, sollte man erwähnen, dass die atmosphärische Konzentration von Wasserdampf viel wichtiger ist als die Konzentration von Kohlendioxid. Es ist das Wasser, dass die Hauptrolle beim Treibhauseffekt spielt. Das Volumen der Konzentration von Wasserdampf in der Atmosphäre hängt im Gegensatz zu dem von Kohlendioxid stark von der Höhe ab. Kohlendioxid weist eine konstante Proportion auf bis in Höhen von 80 bis 100 km (es ist homogen verteilt). Wasserdampf ist dagegen am Boden am höchsten konzentriert und geht abrupt mit der Höhe in der Troposphäre zurück, bevor in der Stratosphäre ein etwa konstantes Niveau erreicht ist (Abbildung 9).

Abbildung 9: Die Änderungen der Konzentrationen von Wasserdampf und Kohlendioxid mit der Höhe.

 

Ein langzeitlicher geringer Anstieg der TSI führt zu einer verzögerten Temperaturzunahme, was der Clausius-Clapeyron’schen Gleichung zufolge zu einer Zunahme der Verdunstungsrate von Wasser führt. Sogar eine geringe Zunahme der mittleren Wasserdampf-Konzentration in der Atmosphäre zusammen mit einem gleichzeitigen Anstieg der Kohlendioxid-Konzentration kann eine signifikante Zunahme der Wasserdampf-Konzentration in den bodennahen Luftschichten anzeigen. Dies führt zu substantiellen Änderungen beim Transfer des thermischen Flusses langwelliger Strahlung der Erdoberfläche durch den Wasserdampf (im Falle einer hohen Kohlendioxid-Konzentration in der Atmosphäre: >300 ppmv) wegen der signifikanten Überlappung der Wasserdampf- und Kohlendioxid-Bänder vorherrschend in den drei weiten Bereichen der Emissionsspektren (Abbildung 4) [35]. Als Folge davon nimmt die Klimasensitivität bei einer steigenden Kohlendioxid-Konzentration mit einem signifikanten Anwachsen der Wasserdampf-Konzentration in der bodennahen Luftschicht ab [35]. Während der letzten 40 Jahre ist sowohl die Konzentration von Wasserdampf als auch die von Kohlendioxid gestiegen infolge des Anstiegs der Wassertemperatur der Ozeane, wobei Wasserdampf die dreimal so starke Auswirkung aller Gase hat. Die Stärke natürlicher Zyklen und natürlicher Flüsse ist um das Zehnfache größer als jene aufgrund menschlicher Einflüsse [12]. Die vernachlässigbare Auswirkung der anthropogenen Kohlendioxid-Emissionen auf die Atmosphäre hat unbedeutende Konsequenzen [12].

Bereits im Jahre 1908 stellte der amerikanische Physiker Robert Wood zwei identische Schachteln (Mini-Treibhäuser) aus schwarzem Karton her: eine war bedeckt mit einer Glasplatte, während die andere mit einer Platte aus Steinsalz-Kristallen abgedeckt war, welche im infraroten Anteil des Spektrums nahezu durchlässig sind. Die Temperatur erreichte in beiden Treibhäusern gleichzeitig etwa 54,4°C. Allerdings ist die Steinsalzplatte für lange Wellenlängen durchlässig, und daher dürfte der allgemein verbreiteten Theorie vom Treibhauseffekt zufolge eine solche Temperatur mit dieser Abdeckung nie und nimmer auftreten [38]. Robert Wood hat damit bewiesen, dass in dem Treibhaus, in dem die Wärme von allen Seiten blockiert ist und es keinen Luftaustausch mit der Atmosphäre gibt, die Strahlungskomponente vernachlässigbar gering ist im Vergleich zur konvektiven Komponente. Folglich ist die Wärme-Akkumulation im Treibhaus unabhängig von der Durchlässigkeit der Abdeckung bzgl. infraroter Strahlung, und die Absorption dieser Strahlung durch das Glas ist nicht der Hauptgrund für die Wärme-Akkumulation im Treibhaus. Dies widerspricht der allgemein verbreiteten Erklärung des Treibhauseffektes. Es ist notwendig zu erwähnen, dass die Erdoberfläche zusammen mit der Erdatmosphäre das System mit einer Einhüllenden repräsentieren. Im allgemeinen thermischen Gleichgewicht sowohl der Erdoberfläche als auch der Atmosphäre wirken verschiedene Vorgänge des thermischen Austausches zusammen mit dem Treibhauseffekt: Konvektion, Verdunstung und Kondensation.

Der globale Temperaturanstieg auf der Erde ist seit 1998 zum Stehen gekommen

Abbildung 10: Der Überschuss des jährlichen Mittels der globalen Temperatur hinsichtlich dem Mittel der Temperatur im Intervall 1961 bis 1990 = +14°C sowie die Kohlendioxid-Konzentration von 1997 bis 2011 und deren zu erwartende Änderung 2012 bis 2015

Von der Temperatur weiß man, dass sie zu sinken beginnt, nachdem sie ihr Maximum während der glazialen/interglazialen Zyklen erreicht hatte, und zwar trotz der Tatsache, dass die Konzentration von Treibhausgasen weiterhin steigt [6, 8, 10, 39]. Höhere oder niedrigere Niveaus der Kohlendioxid-Konzentration wurden jeweils nach Erwärmung oder Abkühlung beobachtet. Dem Gesetz von Henry zufolge absorbiert eine warme Flüssigkeit weniger Gas, da die Löslichkeit eines Gases in Wasser direkt proportional ist zum Partialdruck des Gases über der Flüssigkeit, wodurch mehr Kohlendioxid in der Atmosphäre verbleibt. Ein ähnliches Bild sehen wir heutzutage. Während der letzten 16 Jahre ist die Kohlendioxid-Konzentration mit der gleichen Rate wie zuvor gestiegen, aber nach dem Jahr 1998 fehlt jeder an sich erwartete Einfluss auf die globale Temperatur (Abbildung 10). Die globale Erwärmung ist zum Stillstand gekommen und wird einer neuen Vorhersage des britischen nationalen Wetterdienstes während der nächsten fünf Jahre auch nicht wieder einsetzen [40]. Vor einigen Jahren sagte das Met.-Office, dass die meisten der nachfolgenden Jahre neue Rekorde setzen würden. Das UKMO verringert seine Temperatur-Prophezeiungen um 20% als „Rückkehr zur Bescheidenheit“. Die Tatsache, dass das UKMO seine kurzfristige Vorhersage der globalen Erwärmung Heiligabend 2013 stillschweigend geändert hat bedeutet, dass die globale Erwärmung langsam verschwindet. Es hat schließlich eingestanden, dass es keine Beweise dafür gibt, dass die „globale Erwärmung“ im Gange ist. Eine Studie der Variabilität der Schneebedeckung in den Schweizer Alpen von 1864 bis 2009 zeigt ebenfalls eine Trendwende der Temperatur dort seit dem Jahr 2000 [41]. Sämtliche Klimamodelle, die erzeugt wurden durch Die-Globale-Erwärmung-Kommt lagen mit ihren Prophezeiungen völlig falsch. Das Fehlen jedweder Erwärmung während der letzten 16 Jahre ist ein Vorbote des kommenden Beginns der Kleinen Eiszeit. Natürliche Ursachen spielen die Hauptrolle bei Klimavariationen, nicht die menschliche Aktivität, sind doch natürliche Faktoren substantiell stärker [12]. Als Folge davon hat der Temperaturanstieg auf der Erde im Jahre 1998 aufgehört, und die Kohlendioxid-Konzentration erreichte inzwischen eine Rekordhöhe (Abbildung 10). Der Stillstand der globalen Temperatur während der letzten 16 Jahre wird sich 2013 fortsetzen. Die Richtungen ihrer Entwicklung seit 1998 passen nicht zusammen. Die Erde hat das Maximum der Erwärmung während der Jahre 1998 bis 2005 durchlaufen [16, 29, 31, 35].

Der Gehalt von Treibhausgasen in der Atmosphäre hängt weitgehend von den Ozeanen ab, und der von Staub von vulkanischer Aktivität und dem Anstieg von Aerosolen über dem Festland. Die Stärke natürlicher Flüsse (Kohlendioxid, Wasserdampf und Staub) von Ozean und Festland in die Atmosphäre (Min) sowie aus der Atmosphäre in die Ozeane und auf das Festland (Mout) gehen oftmals viele Male über die anthropogenen Freisetzungen (Mant) hinaus [12]. Das mittlere Anwachsen des atmosphärischen Kohlendioxids hat sich seit Beginn des vorigen Jahrzehnts verlangsamt, zu einer Zeit also, als von Emissionen berichtet worden ist, die mit einer beispiellosen Rate gestiegen seien [42]. Der Gesamtgehalt von Kohlendioxid in den Ozeanen ist 50 mal höher als in der Atmosphäre, und selbst ein schwaches Ausgasen aus den Ozeanen kann das Kohlendioxid-Niveau in der Atmosphäre dramatisch verändern [12]. Gleichzeitig ist Kohlendioxid eine Schlüsselkomponente des Lebenszyklus‘ in der Biosphäre, und die Zunahme seiner Konzentration ist ein wesentlicher Faktor für das Pflanzenwachstum und die Steigerung der landwirtschaftlichen Produktivität.

Der Anstieg des Meeresspiegels infolge der globalen Erwärmung ist der zuverlässigste Indikator der Rate des Temperaturanstiegs (60% des Meeresspiegel-Anstiegs resultieren aus der Zunahme der Wassermenge in den Ozeanen, während 40% die Folge von thermischer Ausdehnung von Ozeanwasser mit der Erwärmung sind) und eines der aktuellsten Probleme derzeit. Über 40 Wissenschaftler in 20 Teams nehmen an Forschungen bzgl. der Arktis teil und verstärkten gemeinsam ihre Bemühungen, um den Beitrag schmelzenden Eises auf Grönland und in der Antarktis auf den globalen Meeresspiegel abzuschätzen. Seit 1992 hat das Schmelzen polaren Eises den Meeresspiegel im Mittel um 0,59 ± 0,2 mm pro Jahr steigen lassen [43]. Dieser genauesten Schätzung zufolge hat die Eisschmelze zu einem Anstieg des Meeresspiegels um 11 mm während der letzten beiden Jahrzehnte geführt. Dies bedeutet, dass der gegenwärtige Meeresspiegel gar nicht steigt, was den gegenwärtigen Zustand der globalen Erwärmung reflektiert – es hat aufgehört, und die globale Temperatur ist während dieses gesamten Zeitraumes nicht gestiegen. Außerdem wird die Rate des Anstiegs sowie Änderungen des Meeresspiegels auch direkt von langzeitlichen TSI-Variationen bestimmt. Die TSI-Abnahme seit Anfang der neunziger Jahre und korrespondierend dazu der in die tropischen Ozeanbereiche einfallende geringere Anteil von Sonnenenergie können graduell zu einer Abschwächung der atmosphärischen und ozeanischen Zirkulation führen und, zuallererst, zu einer Abschwächung des warmen Golfstromes, da die von den Strömungen transportierte Wärmemenge aus tropischen Gebieten abnehmen wird. Dies wird zu einer graduellen Klimaabkühlung in Westeuropa führen.

Gleichzeitig kommt es zu einer Erwärmung anderer Planeten und deren Satelliten im Sonnensystem: auf dem Mars, auf Jupiter, dem Neptunmond Triton, Pluto. Im Jahre 2005 enthüllten Daten der NASA-Missionen Mars Global Surveyor und Odyssey, dass die aus Kohlendioxid bestehenden „Eiskappen“ am Südpol des Mars‘ drei Sommer hintereinander geschrumpft sind [44]. Gibt es irgendeine Gemeinsamkeit, die auf allen Planeten des Sonnensystems gleichzeitig wirken und zu einer gleichzeitigen Erwärmung dort während des gleichen Zeitraumes führt? Dieser gemeinsame Faktor, der alle Körper im Sonnensystem gleichzeitig betrifft, ist das langzeitlich hohe TSI-Niveau während des gesamten 20. Jahrhunderts. Das ist der Grund, warum die gleichzeitige Erwärmung der Erde, des Mars‘ und des gesamten Sonnensystems eine natürliche solare Ursache hat. Damit werden die Auswirkungen eines „solaren Sommers“ im gesamten Sonnensystem und die daraus resultierenden Veränderungen der Klimabedingungen bestätigt [45]. Da es auf dem Mars keine anthropogenen Emissionen gibt, muss diese Erwärmung anderen Ursachen geschuldet sein wie etwa einer wärmeren Sonne, und genau die gleichen Gründe sind verantwortlich für die im 20. Jahrhundert beobachtete Erwärmung der Erde [15, 16, 45]. Dies ist der Beweis, dass die Erwärmung zum Ende des 20. Jahrhunderts auf der Erde von Änderungen auf der Sonne verursacht ist. Die langzeitliche Zunahme der Solarstrahlung erwärmt sowohl die Erde als auch den Mars. Gleichzeitig leistete die anthropogene Treibhaus-Erwärmung einen geringen Beitrag zu der Erwärmung auf der Erde in jüngerer Zeit, aber dieser Beitrag kann nicht mit der Zunahme der Solarstrahlung mithalten [15, 16, 29, 31, 35]. Langzeitliche Änderungen des solaren Wärme-Outputs sind die Ursache für fast alle Klimaänderungen, die wir auf den Planeten beobachten. Allgemein und analog zu den Jahreszeiten auf der Erde im Sonnensystem gibt es eine ähnliche Veränderung klimatischer Bedingungen, diktiert von der TSI-Variation im Rahmen des quasi-zweihundertjährigen Zyklus‘. In dieser Hinsicht wird unser gesamtes Sonnensystem zunächst den „solaren Herbst“ durchlaufen bis zum Eintreten des „solaren Winters“ im quasi-zweihundertjährigen Sonnenzyklus.

Vom Menschen verursachte globale Erwärmung: selbst das IPCC räumt ein, dass der Freudentanz vorüber ist [46]. Ein durchgesickerter Entwurf des jüngsten IPCC-Zustandsberichtes Nr. 5 gibt zu: Der Fall der vom Menschen verursachten globalen Erwärmung wird jeden Tag schwächer; die Sonne spielt eine wesentlich bedeutendere Rolle beim „Klimawandel“ als der wissenschaftliche „Konsens“ zuvor zugegeben hatte. Die starken Beweise der Existenz eines Verstärkungs-Mechanismus‘ des Einflusses des solaren Antriebs ändert alles. Jetzt können die Klima-Alarmisten nicht mehr behaupten, dass die globale Erwärmung ausschließlich der menschlichen Aktivität geschuldet ist während eines Zeitraumes, in dem sich solare Erwärmungseffekte im Maximum befanden – deren Bedeutung jetzt auch zugegeben wird.

Conclusion

Die langzeitlichen zyklischen Variationen der Gesamtenergie der Solarstrahlung, die auf die oberen Schichten der Erdatmosphäre trifft, sind der fundamentale Hauptgrund für korrespondierende Klimavariationen. Sie kontrolliert und bestimmt total die Vorgänge zyklischer alternierender Klimaänderungen von Erwärmung zu kurzfristigen Kleinen Eiszeiten und langfristigen Großen Glazialen Perioden. Sie setzt korrespondierende Zeitmaßstäbe für praktisch alle physikalischen Prozesse, die im System Sonne-Erde ablaufen. Alle beobachteten Änderungen des Klimas auf der Erde und im Sonnensystem sind normale kosmische Vorgänge. Die Sonne ist der Hauptfaktor, der das Klimasystem steuert, und selbst nicht signifikante langzeitliche TSI-Variationen können ernste Konsequenzen für das Klima auf der Erde und auf anderen Planeten nach sich ziehen. Quasi-zweihundertjährige Solarzyklen sind der Schlüssel zum Verständnis zyklischer Klimaänderungen sowohl in der Natur als auch in der Gesellschaft.

Das Signal und der Wert des Energie-Ungleichgewichtes im System Erde-Atmosphäre über einen langen Zeitraum (sich in den Ozeanen akkumulierender Überschuss einfallender TSI oder deren Defizit) bestimmt über eine korrespondierende Änderung des Energie-Status‘ des Systems und damit eine bevorstehende Klimavariation nebst deren Amplitude. Das ist der Grund für die Änderung des Erdklimas alle 200 ± 70 Jahre, und es ist die Folge der zweihundertjährigen zyklischen TSI-Variation. Alle beobachteten zyklischen Variationen des Klimas auf der Erde und im Sonnensystem sind normale solare Vorgänge. Lange vor Beginn des 24. Sonnenzyklus‘ während der Jahre 2003 bis 2007 [1720,36], als die anthropogene Natur der globalen Erwärmung weit verbreitet akzeptiert war, prophezeite ich den Beginn des Grand Minimums sowohl der TSI als auch der Sonnenaktivität um das Jahr 2043 ± 11 Jahre sowie die korrespondierende Abnahme der globalen Temperatur – den Beginn also der 19. Epoche (während der letzten 7500 Jahre) einer Kleinen Eiszeit – um das Jahr 2014 (nach dem Maximum des 24. Sonnenzyklus‘). Diese Vorhersagen angesichts des allgemeinen Glaubens an die anthropogene Natur der globalen Erwärmung sorgten für große Diskussionen in wissenschaftlichen und auch anderen Kreisen, aber im Laufe der Jahre gab und gibt es immer mehr wissenschaftliche Bestätigungen und Unterstützer. Der Hauptpunkt ist, dass die Vorhersagen von der Sonne selbst bestätigt werden und vom Verlauf der Änderungen der globalen Temperatur und des Meeresspiegels während der letzten 16 Jahre. Im Jahre 2014 – also im nächsten Jahr – werden wir in den etwa 45 Jahre langen Abstieg kommen bis hin zu etwas, dass die 19. Kleine Eiszeit auf der Erde sein wird. Das Eingehen der praktisch vollständigen Zuordnung der Klimaänderungen zu den langzeitlichen Änderungen der einfallenden Sonnenenergie (unter Berücksichtigung von deren direkter und daraus folgender sekundärer Rückkopplungs-Auswirkungen) in ein Klimamodell ergibt eine hinreichend präzise Rekonstruktion klimatischer Prozesse, die in der jüngeren Vergangenheit und in nächster Zukunft stattfinden werden. Alle Klimamodelle mit der Grundlage Die-Globale-Erwärmung-Kommt sind mit ihren Prophezeiungen gescheitert. Die mathematische Modellierung von Klimaprozessen ohne eine fundamentale Modernisierung des mathematischen Modells und die Einbeziehung noch stärkerer Supercomputer und auch ohne Einbeziehung quasi-zweihundertjähriger TSI-Variationen wird keine signifikant zuverlässigeren Ergebnisse bringen [40,46]. Der vernünftigste Weg, gegen die bevorstehende Kleine Eiszeit zu kämpfen wird es sein, eine Kombination spezieller Schritte auszuarbeiten mit dem Ziel, ökonomisches Wachstum sowie energiesparende Produktion zu fördern, um es der Menschheit zu ermöglichen, sich an die Periode starker Abkühlung anzupassen, die vermutlich bis zu Beginn des 22. Jahrhunderts dauern wird.

Die zuverlässigste Mehode zur genauen Vorhersage der Stärke und der Zeit der kommenden Kleinen Eiszeit wird es sein, die langzeitlichen Variationen der effektiven globalen Parameter zu untersuchen: Mittleres jährliches Energie-Gleichgewicht im Budget des Systems Erde-Atmosphäre bzgl. der thermischen Energie. Daher arbeiten wir jetzt an einem neuen Weltraumprojekt mit der Bezeichnung Selenometria im russischen Segment der International Space Station ISS, um die langzeitlichen Variationen der Gesamt-Solarstrahlung zu untersuchen, die von der Erde reflektiert und absorbiert wird, den damit zusammenhängenden Energiezustand der Erde und deren Einwirkung auf das Erdklima (Abbildung 11). Hierfür zieht die Selenometria den Mond als Spiegel heran, um diese Variationen zu studieren.

Abbildung 11: Die Selenometria benutzt den Mond als einen Spiegel, um die Variationen der TSI zu studieren, die von der Erde reflektiert bzw. absorbiert wird.

Link zum Originalabeitrag: https://www.omicsgroup.org/journals/grand-minimum-of-the-total-solar-irradiance-leads-to-the-little-ice-age-2329-6755.1000113.php?aid=12810

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Er bedankt sich bei Herrn Tyll Ruhtenberg für den Hinweis auf diese Arbeit.

References

  1. Herschel W (1801) Observations tending to investigate the nature of the Sun, in order to find the causes or symptoms of its variable of light and heat; with remarks on the use that may possibly be drawn from solar observations. Phil Trans R Soc London 91: 265-318.
  1. Eddy JA (1976) The Maunder minimum. Science 192: 1189-1202.
  1. EP Borisenkov, Leningrad (1988) Climate oscillations of the last millennium. Gidrometeoizdat 408.
  1. Milankovitch M (1941) Canon of Insolation and the Ice Age Problem: Kanon der Erdbestrahlung und seine Anwendung auf das Eiszeitenproblem.
  1. Astronomical theory of climate change. NOAA Paleoclimatology, NOAA.
  1. Petit JR, Jouzel J, Raynaud D, Barnola JM, Basile I, et al. (1999) Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature 399: 429-436.
  1. (2000) Climate change: new Antarctic ice core data.
  1. Fischer H, Wahlen M, Smith J, Mastroianni D, Deck B (1999) Ice core records of atmospheric CO2 around the last three glacial terminations. Science 283: 1712-1714.
  1. Lu Z, Rickaby REM, Kennedy H, Kennedy P, Pancost RD, et al. (2012) An ikaite record of late Holocene climate at the Antarctic Peninsula. Earth and Planetary Science Letters 325: 108-115.
  1. Pedro JB, Rasmussen SO, van Ommen TD (2012) Tightened constraints on the time-lag between Antarctic temperature and CO2 during the last deglaciation. Clim Past 8: 1213-1221.
  1. Humlum O, Stordahl K, Solheim JE (2013) The phase relation between atmospheric carbon dioxide and global temperature. Global and Planetary Change 100: 51-69.
  1. Nigmatulin RI (2010) The ocean: climate, resources, and natural disasters. Herald of the Russian Academy of Sciences 80: 338-349.
  1. Bal S, Schimanke S, Spangehl T, Cubasch U (2011) On the robustness of the solar cycle signal in the Pacific region. Geophys Res Lett 38: L14809-L14814.
  1. McPhaden MJ, Lee T, McClurg D (2011) El Nino and its relationship to changing back-ground conditions in the tropical Pacific ocean. Geophys Res Lett 38: L15709-L15712.
  1. Abdussamatov KHI (2009) The Sun defines the climate (Солнце определяетклимат Земли). Russian Journal “Nauka i Zhizn” (“Science and Life”) 34-42.
  1. Abdussamatov KHI (2009) The Sun dictates the climate of the Earth. St Petersburg. Published by Logos 197.
  1. Abdussamatov KHI (2005) Long-term variations of the integral radiation flux and possible temperature changes in the solar core. Kin Phys Celest Bodies 21: 328-332.
  1. Abdussamatov KHI (2007) Decrease of the solar radiation flux and drastic fall of the global temperature on the Earth in the middle of the XXI century. Izv Krym Astrofiz Observ 103: 292-298.
  1. Abdussamatov KHI (2007) Optimal prediction of the peak of the next 11-year activity cycle and of the peaks of several succeeding cycles on the basis of long-term variations in the solar radius or solar constant. Kin Phys Celest Bodies. 23: 97-100.
  1. Abdussamatov KHI (2005) About the long-term coordinated variations of the activity, radius, total irradiance of the Sun and the Earth’s climate. Proceedings of IAU Symposium No 223 Cambridge, Cambridge Univ Press.
  1. Frohlich C (2012) Solar Constant. Physikalisch-Meteorologisches Observatorium Davos, World Radiation Center.
  1. Krivova NA, Solanki SK, Wenzler T (2009) ACRIM-Gap and total solar irradiance revisited: is there a secular trend between 1986 and 1996? Geophys Res Lett 36: L20101.
  1. Avdyushin SI, Danilov AD (2000) The Sun, weather, and climate: a present-day view of the problem (Review). Geomagn Aeron 40: 545-555.
  1. Lean JL (2000) Short term, direct indices of solar variability. Space Sci Rev 94: 39-51.
  1. Solanki SK, Krivova NA (2004) Solar irradiance variations: from current measurements to long-term estimates. Solar Phys 224: 197-208.
  1. Shapiro AI, Schmutz W, Rozanov E, Schoell M, Haberreiter M et al. (2011) A new approach to the long-term reconstruction of the solar irradiance leads to large historical solar forcing. Astron Astrophys 529: A67.
  1. 27 (2012) Sun Spot Data. SIDC- Solar Influences Data Analysis Center.
  1. Trenberth KE, Fasullo JT, Kiehl J (2009) Earth’s global energy budget. Bull Am Meteor Soc 90: 311-323.
  1. Abdussamatov KHI (2012) Bicentennial decrease of the total solar irradiance leads to unbalanced thermal budget of the Earth and the Little Ice Age. Applied Physics Research 4: 178-184.
  1. Abdussamatov KHI, Bogoyavlenskii AI, Khankov SI, Lapovok YV (2010) Modeling of the Earth’s planetary heat balance with electrical circuit analogy. J Electromagn Anal Appl 2: 133-138.
  1. Abdussamatov KHI (2012) Bicentennial decrease of the solar constant leads to the Earth’s unbalanced heat budget and deep climate cooling. Kinematics and Physics of Celestial Bodies 28: 62-68.
  1. Penn MJ, Livingston W (2010) Long-term evolution of sunspot magnetic fields. IAU Symposium No. 273.
  1. Penn MJ, Livingston W (2011) Long-term evolution of sunspot magnetic fields. Proceedings of IAU Symposium No 273. Cambridge 6: 126-133.
  1. Climate change sanity. Climate change is primarily a natural phenomenon.
  1. Abdussamatov KHI (2010) The Sun dictates the climate. Fourth International Conference on Climate Change (ICCC-4) ppt-presentation, Chicago.
  1. Trimble V, Aschwanden MJ, Hansen CJ (2007) Astrophysics in 2006, Space Sci Rev 132: 1-182.
  1. Abdussamatov KHI (2006) The time of the end of the current solar cycle and the relationship between duration of 11-year cycles and secular cycle phase. Kin Phys Celest Bodies 22: 141-143.
  1. Wood RW (1909) Note on the theory of the greenhouse. Philosophical Magazine 17: 319-320.
  1. Kotlyakov VM (2012) The history of the Earth’s climate according to the deep drilling in Antarctica (Earth’s climate history revealed from the data of deep drilling in Antarctic. Nature 5: 3-9.
  1. Decadal forecast. Met Office.
  1. Scherrer SC, Wüthrich C, Croci-Maspoli M, Weingartner R, Appenzeller C (2013) Snow variability in the Swiss Alps 1864-2009. Int J Climatol.
  1. Ross J (2013) Slowing CO2 growth contradicts “surge”. The Australian, Nature Climate Change.
  1. Shepherd A, Ivins ER, Geruo A, Barletta VR, Bentley MJ et al (2012) A reconciled estimate of ice-sheet mass balance. Science 338: 1183-1189.
  1. The changing south polar cap of Mars, Malin Space Science System.
  1. Ravilious K (2007) Mars Melt Hints at Solar, Not Human, Cause for Warming, Scientist Says. National Geographic News.
  1. Delingpole J (2012) Man-made global warming: even the IPCC admits the jig is up. The Telegraph December 13th, 2012.




Klima-Vorhersagen auf der Grundlage der Realität

Ebenso an herausragender Stelle in dem Museum ist das Wrack des britischen Sklavenschiffes Henrietta Marie ausgestellt. Es sank in einem Hurrikan vor Key West im Jahre 1700, nachdem es 190 Afrikaner nach Jamaika gebracht hatte, die als Sklaven verkauft werden sollten.

Als Fishers Taucher das Wrack der Henrietta etwa 40 Fuß [ca. 12 m] unter der Wasseroberfläche freigelegt hatten, fanden sie – nicht nur Gebeine und andere schlimme Artefakte aus jener schrecklichen Zeit – sondern auch verkohlte Baumäste, Kiefernzapfen und andere Überbleibsel eines Waldbrandes vor 8400 Jahren! Die immer noch harzig riechenden Fragmente belegen, dass dieses Gebiet (wie alle anderen Küstengebiete auf der ganzen Welt) einst deutlich über dem Meeresspiegel lag, bevor die letzte Eiszeit zu Ende gegangen ist und schmelzende Gletscher die Ozeane auf ihr gegenwärtiges Niveau haben steigen lassen: 400 Fuß [ca. 120 m] höher als während des kalten Pleistozäns, als ein großer Teil des Meerwassers der Erde in Gletschern gebunden war.

Klimawandel war eindeutig „real“ während der gesamten Erd- und Menschheitsgeschichte. Die Frage lautet, wie genau und in welchem Ausmaß die heutigen menschlichen Aktivitäten lokal, regional oder global Klima und Wetter beeinflussen.

Unglücklicherweise fahren politisierte Klimawandel-Forscher mit Behauptungen fort, denen zufolge komplexe, mächtige und in Wechselwirkungen stehende natürliche Kräfte ersetzt wurden durch menschliche Emissionen fossiler Treibstoffe, vor allem Kohlendioxid; denen zufolge jedwede zukünftige Änderung katastrophal sein wird und denen zufolge die Menschheit Klima und Wetter kontrollieren kann mittels Kontrolle des Appetits der Menschheit auf Öl, Gas, Kohle und modernen Lebensstandards.

Falls man das Klima mag, kann man es behalten, suggerieren sie. Falls nicht, können wir ein besseres herstellen.

Da ist es keine Überraschung, dass Klimachaos-Wissenschaftler, die sich auf den Multi-Milliarden-Dollar Zufluss der Regierung verlassen haben, bestürzt sind hinsichtlich der Aussicht, dass Präsident Donald Trump ihre Budgets entscheidend beschneiden oder deren CO2-zentrierte Forschung beenden wird. Verzweifelt ums Überleben kämpfend ersetzen sie den Terminus „Klimawandel“ durch die Begriffe „globaler Wandel“ [global change] oder „Wetter“ in ihren Anträgen auf Förderung. Und sie gehen weiterhin in die Offensive mit Op-Ed-Artikeln und Medien-Interviews.

„So könnte der bevorstehende Angriff auf die Wissenschaft aussehen“, lamentierte der Modellierer bei Penn State und Erzeuger des Hockeyschlägers Michael Mann in einer Kolumne der Washington Post, „ich fürchte das, was unter Trump passieren könnte. Das Schicksal des Planeten steht auf dem Spiel“. (Tatsächlich sind es die Millionen-Dollar-Zuwendungen an ihn, die auf dem Spiel stehen).

Ein „skeptischer“ Wissenschaftler hat sich mit dem Gedanken angefreundet, dass ein großer grönländischer Eisschild wegen des Klimawandels schrumpfen könnte. Dies verkündete die Post groß auf ihrer Titelseite. Vielleicht ist das so. Aber ist es vom Menschen verursachte Erwärmung? Deutet dies auf einen planetaren Kataklysmus, selbst wenn das Innere von Grönland und auch die Antarktis derzeit einen Rekord-Eiszuwachs zeigen? Oder schwächen warme Ozean-Strömungen einen Eisschild so stark, weil er auf Ozeanwasser schwimmt und nicht auf dem Festland liegt?

Das fundamentale Problem bleibt bestehen. Falls es sich um Substandard-Wissenschaft und Modellierungen unter der Terminologie der Obama-Ära handelt, wird es auch im Jargon von Überlebenskünstlern Substandard sein. Die Auffassung, dass anthropogenes Kohlendioxid jetzt Klima und Wetter steuert – und wir können Klima und Wetter vorhersagen, indem wir ausschließlich auf das Pflanzen düngende CO2 und andere „Treibhausgase“ schauen – ist jetzt genauso absurd wie zuvor.

Deren Prophezeiungen werden genauso gegenstandslos und unwissenschaftlich sein wie im Voraus Gewinner der Weltmeisterschaft zu modellieren, indem man ausschließlich berechnet, wer in beiden Mannschaften Linksaußen spielt*.

[*Im Original wird hier der Super Bowl für diesen Vergleich angeführt, aber weil die komplizierten Regeln des American Football den Lesern hierzulande nicht so geläufig sind, habe ich zu einem Äquivalent-Vergleich gegriffen. Anm. d. Übers.]

Wenn Klimarealisten in der EPA und anderen staatlichen Agenturen die Zügel übernehmen, sollte die Trump-Regierung sicherstellen, dass Steuergelder nicht weiter für eine noch alarmistischere Wissenschaft verschwendet werden sollten, die nur bemüht wird, um den Verschluss weiterer fossiler Treibstoffe zu rechtfertigen sowie die Ausweitung erneuerbarer Energie und Programme zur „Kohlenstoff-Abscheidung“. Dies reduziert die Lebensstandards in den USA und gibt armen Ländern vor, welcher Lebensstandard ihnen „gestattet“ ist.

Zuverlässige Vorhersagen so weit wie möglich im Voraus wären für die Menschheit eindeutig vorteilhaft. Damit dies jedoch möglich wird, müssen Forscher sämtliche natürlichen und menschliche Faktoren untersuchen und nicht bloß der vermeintlichen Konsenslinie folgen, der zufolge Kohlendioxid jetzt den Klimawandel dirigiert.

Das bedeutet, dass Zuwendungen der Regierung nicht mehr bevorzugt an Forscher fließen dürfen, die danach trachten, den CO2-Zentrismus weiter zu festigen, sondern vielmehr an all jene, die sich einer breiter gefassten, soliden und leidenschaftlicher Forschung verpflichtet fühlen, die sowohl natürliche al auch anthropogene Faktoren untersucht. Empfänger von Zuwendungen müssen auch zustimmen, sich harten Diskussionen und Debatten zu stellen, um ihre Daten, Verfahren, Analysen und Schlussfolgerungen zu posten, zu erklären und zu verteidigen.

Sie müssen weit mehr Aufmerksamkeit der Verbesserung unseres Verständnisses aller Kräfte widmen, die Klimafluktuationen antreiben, welche Rolle sie spielen sowie die komplexen Wechselwirkungen zwischen ihnen. Unter den wichtigen Faktoren sind zyklische Variationen der Sonnenenergie, kosmische Strahlen, Winde in der oberen Erdatmosphäre sowie Zirkulationsänderungen im Zeitmaßstab von Jahrzehnten und Jahrhunderten in der Tiefsee, welche sehr schwierig zu messen sind und von denen man noch nicht genug weiß, um sie in Klimamodellen vorherzusagen oder auch nur realistisch darstellen zu können.

Ein weiterer wichtiger Faktor sind anomale Warmwassergebiete, die sich von Zeit zu Zeit im Pazifischen Ozean zeigen und von Winden und Strömungen nordwärts zur Arktis getrieben werden, was Auswirkungen auf Temperatur und Niederschlag in den USA, Kanada, Europa und Asien hat. Der Prozess der Wolkenbildung ist ebenfalls wichtig, weil Wolken helfen, planetare Wärme zurückzuhalten, die Sonnenwärme reflektieren und kühlenden Niederschlag bringen.

Viele Wissenschaftler haben versucht, all diese Faktoren in Klimadiskussionen einzubringen. Allerdings hat die hoch politisierte Natur der speziell auf bestimmte Bereiche konzentrierten Förderung seitens der USA und des IPCC, nämlich die Konzentration auf CO2, dafür gesorgt, die Rolle dieser natürlichen Faktoren abzutun, auszulassen oder zu ignorieren.

Die politische Lage bedeutete auch, dass die meiste Forschung und Modellierung sich auf Kohlendioxid und andere vermeintliche menschliche Beiträge zum Klimawandel konzentriert hat. Politik, unzulängliche Daten und fehlendes Wissen führen ebenfalls dazu, dass Modelle unrealistische physikalische Theorien reflektieren, übermäßig vereinfachte und unzureichende numerische Verfahren verwenden und daran scheitern, Zirkulationszyklen in der Tiefsee sowie die Vielfalt und Komplexität der natürlichen Kräfte nebst deren konstantem, komplizierten Zusammenspiel bei der Steuerung von Klimavariationen zu erfassen.

Schnellere und stärkere Computer machen nichts weiter als irgendwelche „Garbage-in-Garbage-Out“-Berechnungen, Analysen und Prophezeiungen, die viel schneller erfolgen – schneller falsche Vorhersagen ausspucken … und politische Empfehlungen geben.

Der Wunsch nach Sicherstellung der Förderung seitens Obamas Vergabe-Agenturen zementierte auch eine Tendenz, El-Nino-Wärmespitzen heranzuziehen und Rosinenpickerei bzgl. des Endes von Abkühlungszyklen zu betreiben als Startpunkt für Trendlinien, die vermeintlich „beweisen“, dass fossile Treibstoffe „beispiellose“ Temperaturspitzen und planetarische Kalamitäten verursachen.

Und schließlich, die Zehner-Milliarden Dollar, die während der letzten Jahre jährlich für die „Lasst-Es-Im-Boden“-Kampagnen, für nationale und internationale Vorschriftengeber sowie Unternehmen erneuerbarer Energien ausgegeben worden waren, haben diesen enorme Anreize verschafft, die Pseudowissenschaft à la IPCC/EPA zu unterstützen – sowie Klimarealisten zu diffamieren und zum Schweigen zu bringen, welche der Vorgabe des „vom Menschen verursachten katastrophalen Klimawandels“ nicht folgen.

Die Trump-Regierung sowie der 115. Kongress haben die einmalige Gelegenheit, diese Dynamik zu durchbrechen und sicherzustellen, dass zukünftige Forschungen nützliche Informationen erbringen, ein besseres Verständnis des komplexen Klimasystems der Erde sowie Vorhersagen, die zunehmend genau sind. Außerdem sollten sie:

Die Rolle gründlich überdenken, sie zu reduzieren (oder gar zu eliminieren), welche Klimamodell-„Projektionen“ (Prophezeiungen) bei der Einflussnahme auf die Politik, auf Gesetze und Vorschriften spielen – bis die Fähigkeiten der Modellierungen erheblich und vorzeigbar verbessert sind und auf einer Linie liegen mit den zuvor gemachten Beobachtungen.

Den Clean Air Act überarbeiten, um die Übermacht der EPA bei der Ausgabe von Vorschriften bzgl. CO2 zu brechen – oder die EPA zu zwingen, seine „Endangerment“-Finding neu zu bewerten sowie dafür neue Informationen und Kommentare heranzuziehen.

Sie sollte die Finanzierung der Klimawissenschaft deutlich reduzieren sowie die Zuwendungen für IPCC und EPA drastisch kürzen. Die Förderung sollte breiter angelegt werden, nicht monopolistisch, besonders wenn das Monopoly unvermeidlich politisiert ist.

Das ist kein „Angriff auf die Wissenschaft“. Es ist die Wiederherstellung dessen, was reale Wissenschaft einmal war und sein sollte.

Link: https://www.cfact.org/2017/01/08/reality-based-climate-forecasting/

Übersetzt von Chris Frey EIKE




Wann wird der ,Stillstand‘ der globalen Temperatur wieder eintreten?

Man kann darüber streiten, ob die wirkliche Rate der Zunahme von Emissionen wirklich so gering wie 0,1 Milliarden Tonnen Kohlenstoff pro Jahr ist angesichts des Umstandes, dass China und jetzt auch Indien Kohlekraftwerke mit einer rekordhohen Rate ans Netz bringen. Aber die offizielle Vorgabe lautet, dass die Emissionen fast aufgehört haben zuzunehmen. Nichtsdestotrotz liegen die Emissionen noch weit über jedweden, vom IPCC angegebenen Stabilisierungs-Szenarien.

Im Business-as-usual-Szenario A prophezeite das IPCC im Jahre 1990, dass die Temperatur um 1,0 (0,7; 1,5)°C bis zum Jahre 2025 steigen würde, das ist äquivalent mit einer Rate von 2,8 (1,9; 4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt „Wie viel Vertrauen setzen wir in unsere Prophezeiungen?“ Das IPCC verwies dann auf einige Unsicherheiten (Wolken, Ozeane), kam aber zu dem Ergebnis:

Nichtsdestotrotz … setzen wir substantielles Vertrauen darin, dass die Modelle zumindest den allgemeinen Rahmen des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen den Ergebnissen gekoppelter Modelle, in die einfache Repräsentationen des Ozeans eingehen, und den Modellen, die kompliziertere Beschreibungen verwenden, und unser Wissen über derartige Differenzen gibt uns einiges Vertrauen in die Ergebnisse“.

Und doch ist die Rate der globalen Erwärmung seit 1990 – das wichtigste Element des „allgemeinen Rahmens des Klimawandels“, welches die Modelle prophezeien sollen – derzeit noch nicht einmal halb so hoch wie vom IPCC damals prophezeit.

Im Jahre 1990 sagte das IPCC:

Auf der Grundlage der derzeitigen Modelle prophezeien wir:

unter dem Business-as-Usual-Szenario des IPCC (Szenario A) der Emission von Treibhausgasen wird die Rate des globalen Temperaturanstiegs während des nächsten Jahrhunderts etwa 0,3°C pro Dekade betragen (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Dekade). Dies ist ein höherer Wert als während der letzten 10.000 Jahre beobachtet. Dies wird bis zum Jahr 2025 zu einer wahrscheinlichen Zunahme der globalen Temperatur von etwa 1°C über den jetzigen Wert und bis zum Ende des nächsten Jahrhunderts von 3°C führen. Der Anstieg wird aufgrund des Einflusses anderer Faktoren nicht stetig verlaufen“ (p. xii).

Später sagte das IPCC:

Die unten genannten Zahlen basieren auf hoch auflösenden Modellen und sind skaliert, um konsistent zu sein mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 (verglichen mit den präindustriellen Temperaturwerten). Für Werte, die konsistent sind mit anderen Schätzungen des globalen Temperaturanstiegs, sollten die Zahlen unten um 30% für die niedrige Schätzung reduziert bzw. um 50% erhöht werden für die hohe Schätzung“ (p. xxiv).

Im Jahre 1995 nannte das IPCC eine Prophezeiung der Erwärmungsraten, die man als Reaktion auf verschiedene Raten der Zunahme der CO2-Konzentration erwarten könne. Die auf der Grundlage der aktuellen Rate erfolgte Prophezeiung wird hervorgehoben:

Die tatsächliche Zunahme der CO2-Konzentration während der beiden Dekaden seit 1995 betrug 0,5% pro Jahr. Folglich sollte der zentrale Prophezeiung des IPCC aus dem Jahr 1995 zufolge eine Erwärmung um 0,36°C seitdem eingetreten sein, äquivalent zu einer Rate von 1,8°C pro Jahrhundert.

Im 3. IPCC-Zustandsbericht (2001) heißt es auf Seite 8 der ,Summary for Policymakers‘: „Für die Zeiträume 1990 bis 2025 bzw. 1990 bis 2050 beträgt die projizierte Erwärmung 0,4 bis 1,1°C bzw. 0,8°C bis 2,6°C“. Die mittlere Schätzung belief sich auf eine Erwärmung von 0,7°C während der 36 Jahre von 1990 bis 2025, äquivalent zu 1,9°C pro Jahrhundert.

Tabelle 1 fasst diese mittelfristigen prophezeiten globalen Erwärmungsraten aus den ersten drei Zustandsberichten zusammen:

Es stellte sich rasch heraus, dass die Prophezeiungen einer globalen Erwärmung nach dem Business-as-Usual-Szenario kindisch wilde Übertreibungen waren. Für diese Übertreibungen gibt es viele Gründe. Hier folgen ein paar dieser Gründe: Das IPCC übertrieb die Zunahme der CO2-Konzentration, die man als Reaktion auf eine gegebene Rate der Zunahme von Emissionen erwarten konnte; es übertrieb die Zunahme der Methan-Konzentration erheblich; es übertrieb den CO2-Antrieb erheblich; und es übertrieb den Einfluss starker positiver Temperatur-Rückkopplungen auf die Klimasensitivität überaus erheblich.

Wie war das aber nun mit den globalen Temperaturen in der realen Welt seit 1990? Die Antwort, aus dem linearen Regressionstrend kleinster Quadrate in den Satelliten-Datensätzen von UAH und RSS lautet, dass die Rate der globalen Erwärmung weniger als halb so hoch ist wie die mittlere Rate, welche vom IPCC 1990 prophezeit worden war, und sie lag sogar noch deutlich unter der Prophezeiung der Untergrenze der Bandbreite:

Der vom IPCC (1990) prophezeite Bereich der Vorhersage ist in Orange dargestellt und die Trendlinien in rot. Die tatsächlichen, in der realen Welt aufgetretenen Temperaturen sind dunkelblau und der Trend hellblau gezeigt.

So weit ich weiß, hat kein einziges Mainstream-Medium über diese fortgesetzte und substantielle Diskrepanz zwischen den nervösen Prophezeiungen und der Realität einerseits berichtet, obwohl die Regierungen auf der Grundlage der wilden Prophezeiungen seit Jahrzehnten Billionen aus dem Fenster werfen, und der unspektakulären Realität einer Erwärmungsrate andererseits, die nicht unterscheidbar ist von der internen natürlichen Variabilität.

Es ist lohnend, einen Blick auf die gesamte Satelliten-Aufzeichnung seit dem Jahr 1979 zu werfen. Zuerst auf RSS, deren unbequeme Daten weit weniger Erwärmung zeigen als prophezeit, und die kurz davor stehen, scharf nach oben überarbeitet zu werden, um die vordergründige Erwärmungsrate auf Parteilinie zu bringen:

Als Nächstes UAH, deren Datensatz üblicherweise eine höhere Erwärmungsrate zeigt als alle anderen Datensätze. Allerdings wurden im vorigen Jahr Adjustierungen vorgenommen, nachdem man entdeckt hatte, dass die Instrumentierung der Hütten die Platin-Widerstands-Thermometer erwärmt hatte. Jetzt zeigt UAH eine niedrigere Erwärmungsrate als alle anderen Datensätze:

Zieht man das Mittel der Datensätze von RSS und UAH heran zeigt sich, dass die langzeitliche Erwärmungsrate während des gesamten Zeitraumes von 39 Jahren seit 1979 bei lediglich 1,3°C pro Jahrhundert lag, was weniger als halb so groß ist wie die IPCC-Prophezeiung aus dem Jahr 1990:

Es ist für die vom IPCC so profitabel propagierte Theorie der hohen Klimasensitivität unabdingbar, dass die Rate der globalen Erwärmung nicht abnehmen sollte angesichts des Umstandes, dass sich die Treibhausgase in der Atmosphäre weiterhin akkumulieren, besonders wenn sie weiterhin mit einer Rate akkumulieren, die über der originalen Business-as-Usual-Prophezeiung des IPCC liegen.

Ein einfaches Verfahren zu testen, ob die Rate der globalen Erwärmung seit 1979 zugenommen hat ist es, den linearen Regressionstrend kleinster Quadrate der Daten mit einem jüngeren Startzeitpunkt zu berechnen. Ich habe das Jahr 1997 gewählt, weil dieser Zeitpunkt vor dem El Nino 1998 lag. Das Mittel der beiden Datensätze zeigt, dass die Erwärmung seit 1997 weniger als zwei Drittel eines Grades pro Jahrhundert betrug oder gerade halb so groß war wie die Erwärmungsrate im gesamten Zeitraum seit 1979.

Im Gegensatz zur Hoch-Sensitivitäts-Marke, welchem sich die internationale regierende Klasse weiterhin sklavisch unterwirft (mit der lobenswerten Ausnahme der demnächst ins Amt kommenden US-Regierung), beschleunigt sich die Rate der globalen Erwärmung eben nicht. Sie nimmt vielmehr ab.

Man muss aber einige Vorsicht walten lassen. Zur Jahrtausendwende beendete die Pazifische Dekadische Oszillation, ein etwa 60 Jahre dauernder Zyklus im Ozean, der sich typischerweise durch 30 Jahre Erwärmung, gefolgt von 30 Jahren der Abkühlung manifestiert, eine ungewöhnlich steile positive (Erwärmungs-)Phase und trat in seine negative (Abkühlungs-)Phase ein. Es ist daher möglich, dass ein gewisser Beitrag anthropogener Emissionen sich diesem natürlichen Zyklus überlagert, was den falschen Eindruck einer sehr rapiden Erwärmung von 1976 bis 2000 vermittelt und keinerlei Erwärmung mehr seitdem.

Was jedoch inzwischen unbestreitbar ist: der Beitrag anthropogener Einflüsse auf die globale Temperatur ist beträchtlich geringer als ursprünglich prophezeit. Woher ich das weiß? Weil das IPCC selbst erkannt hat, dass es auch noch den letzten Rest Glaubwürdigkeit, den es noch hat, verspielen würde, wenn es weiterhin absurd übertriebene Mittelfrist-Prophezeiungen ausstößt. Es hat diese fast halbiert:

Wie jede Meinungsumfrage zeigt (und wie es sich auch bei Brexit und Trump zeigte), folgen die Menschen nicht mehr der Parteilinie. Der einzige Weg für sie, die sterbende Klimapanik am Leben zu halten besteht darin, ihre langfristigen Prophezeiungen unverändert beizubehalten und sich auf ihre Speichellecker in den Mainstream-Medien zu verlassen, die entweder nichts über die steigende Diskrepanz zwischen den mittelfristigen Prophezeiungen des IPCC und der beobachteten Realität berichten oder die Halbierung dieser Prophezeiungen seitens des IPCC nicht erwähnen [In der Tat, in der sich ach so seriös gerierenden „Süddeutschen Zeitung“ herrschte dazu bisher nur dröhnendes Schweigen! Anm. d. Übers.].

Mark Boslough, einer der wenigen noch verbleibenden Klima-Extremisten, der noch nicht in der Versenkung verschwunden ist, hat auf verblüffende Weise die zunehmende Verzweiflung der Partei kundgetan, indem er jedem 25.000 Dollar bietet, der darauf wettet, dass der GISS-Temperaturdatensatz für das Jahr 2017 höher ist als der von 2016. Es könnte in diesem Jahr zu einer La Nina kommen, so dass man die Wette annehmen könnte – das heißt, falls man dem GISS vertrauen kann, einen ehrlichen Datensatz der globalen Temperatur zu erstellen.

Es ist nicht meine Sache, etwas gegen Dr. Schmidt [vom GISS] zu sagen. Darum sage ich nichts außer dass ich diese Wette gerne annehmen würde, falls sie entweder auf der Grundlage des HadCRUT4-Datensatzes beruht, nachdem der Extremist Jones das Feld verlassen hat, oder auf dem Mittel der Datensätze von RSS und UAH, sogar noch nachdem Dr. Mears den RSS-Datensatz manipuliert hatte, um diesen auf eine Linie mit der Manipulation terrestrischer Datensätze zu bringen. Aber ich werde keine Entscheidung treffen auf der Grundlage jedweder Klimainformation der NASA, bis Mr. Trump diese Ganoven reformiert hat.

Link: https://wattsupwiththat.com/2017/01/07/when-will-the-pause-in-global-temperature-return/

Übersetzt von Chris Frey EIKE




GWPF-Rundbrief vom 5. Januar 2017 – Klima

Satellitendaten: 2016 statistisch nicht wärmer als 1998

Die starke Abkühlung im Dezember führt dazu, dass sich das Jahr 2016 hinsichtlich der Temperatur nicht vom Jahr 1998 unterscheidet. Dr Roy Spencer, 3. Januar 2017

Rapide Abkühlung des Nordatlantiks

Zwar hat es verständlicherweise kaum die Aufmerksamkeit der Medien erregt – wenn überhaupt welche – aber seit Mitte des vorigen Jahrzehnts hat sich der Nordatlantik rapide abgekühlt – also seit nunmehr über 10 Jahren. Je länger der Abkühlungstrend dauert – und Wissenschaftler projizieren weitere Abkühlung während der nächsten Jahrzehnte – um so schwieriger wird es, diesen Vorgang zu ignorieren. Schließlich ist der Nordatlantische Ozean ein zentraler Trend-Setter für hemisphärische und möglicherweise sogar globale Klimaänderungen. – Kenneth Richard, NoTricksZone, 5. Januar 2017

Hottest Year Evah”: A Reality Check

Vermeintlich war das Jahr 2016 ein hervorragendes Jahr bzgl. globaler Erwärmung. Und was hat es gebracht? Das Arktische Meereis liegt zum Jahresende auf dem Niveau der letzten Jahre. Die Ausdehnung der schneebedeckten Flächen auf der Nordhemisphäre erreichte den zweithöchsten Wert im Herbst 2016 [seit Beginn von Satelliten-Aufzeichnungen]. Das Grönland-Eis ist mit einer phänomenalen Rate gewachsen. Die Hurrikan-Aktivität der letzten 12 Monate war normal. Die Tornado-Saison in den USA war eine der ruhigsten jemals. Buschbrände in den USA lagen unter dem 10-jährigen Mittel. Regen in Australien widerlegt weiterhin die Dürre-Untergangspropheten… Klingt für mich sehr nach irgendeinem anderen Jahr! – Paul Homewood, Not A Lot Of People Know That, 1. Januar 2017

Stephen Moore: Der größte Verlierer des Jahres 2016: die grüne Blase von Big Green

Falls man ein Klima-Alarmist ist und voller Hass auf fossile Treibstoffe, dürften jetzt vier oder vielleicht sogar acht schlimme Jahre vor einem liegen. Amerika ging an die Wahlurnen und hat umweltlichen Extremismus zurückgewiesen, neben anderen Dingen. Der größte Verlierer der Wahlnacht war die Big-Green-Bewegung in Amerika, die sich der Anti-Wohlstands-Kampagne verschrieben haben, der zufolge wir die USA deindustrialisieren müssen, um den Planeten vor dem Aussterben zu bewahren und wir Abermillionen unserer Mitbürger um Lohn und Brot bringen müssen. Die Wähler senkten den Daumen bzgl. der Klimawandel-Lobby, und das völlig zu Recht! – Stephen Moore,  The Washington Times, 1. Januar 2017

Übersetzt von Chris Frey EIKE




Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlast­fähigkeit

[3] Offshore ersetzt Steinkohlekraftwerke und ist grundlastfähig
Maximal zwei bis drei Tage im Jahr weht auf der Nordsee kein Wind. Gleichzeitig kommt es aufgrund der großen Anzahl dezentraler Einspeiser zu Ausgleichseffekten: Jede Stunde im Jahr wird durch erneuerbare Energieerzeuger in Deutschland Strom produziert.
Münchner Stadtwerke: [5] Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München:
… Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und
ist sogar grundlastfähig.

Die Wind-Einspeisedaten von 15 Ländern

Bild 1 zeigt die Ganglinien von 15 Staaten (obere Leiste) über zwei Jahre. Da die Windenergieerzeugung von Deutschland parallel in hellblau dargestellt ist, zeigt sich über-deutlich, dass selbst über die Fläche der 15 Staaten keinerlei Grundlast-Ausgleich erfolgt.

Bild 1 Windenergie-Einspeisung von 15 Euro-Staaten (dunkelblau) im Vergleich mit Deutschland (hellblau) im Jahr 2015 -2016. Quelle: [1]
Den Verlauf der gesamten Ökostrom-Einspeisung dieser zwei Jahre für Deutschland zeigt Bild 2. Die einzige, erwähnenswerte „Grundlast“ erzeugen Biomasse-Strom und Wasserkraft – welche beide aber in Deutschland nicht mehr ausbaufähig sind.

Bild 2 Verlauf der Öksotrom-Einspeisung Deutschland der Jahre 2015 – 2016. Quelle: Agora

Immer neu muss man darauf hinweisen: Die fehlende Energie bis zur Bedarfslinie müssen konventionelle Kraftwerke liefern. Diese „verstopfen“ nicht die Netze, wie es von NGOs und GRÜNEN Ministern verkündet wird, sondern sie retten diese täglich neu vor dem sicheren Blackout.

Es hindert aber zum Beispiel Greenpeace nicht, absoluten Schachsinn zu publizieren, den dann unsere Medien und GRÜNE Umwelt(Landes-)Minister dankend aufnahmen.
WELT N24, 31.05.2016 : Kohlekraftwerke „verstopfen“ Stromnetze
An teuren Engpässen im Stromnetz sind Greenpeace zufolge vor allem unflexible Atom- und Kohlekraftwerke schuld. Auch wenn viel Wind- und Sonnenenergie erzeugt werde, drosselten sie ihre Leistung kaum, heißt es in einer von der Umweltschutzorganisation in Auftrag gegebenen Studie, die am Dienstag veröffentlicht wurde.
Nach Angaben der schleswig-holsteinischen Landesregierung werden rund acht Prozent des gesamten Ökostroms in dem Land nach diesem Muster «abgeregelt», das ist Greenpeace zufolge ein Spitzenwert.
… Der Kieler Energieminister Robert Habeck (Grüne) sagte der Deutschen Presse-Agentur: «Wir haben ja nicht zu viel Erneuerbaren Strom, sondern Koh
le- und Atomkraftwerke, die das Netz verstopfen. Wenn die aus den Netzen verschwinden würden, hätten wir ordentlich Platz.»

Dass das, was dieser Minister Habeck (Studium der Philosophie, Philologie und Germanistik) vermittelt, ebenfalls nur zeigt, dass keinerlei fachlichen Kenntnisse über Energiesysteme vorliegen und welche Folgen dies hat und noch haben wird, zeigte sich wieder demonstrativ über Weihnachten:
EIKE 31.12.2016: [5] Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
Der Ganglinienverlauf über zwei Monate (Bild 3) bestätigt es nochmals im Detail. Bei Windkraft ist keinerlei Grundlast in Sicht, überdeutlich ist die großflächige synchronität der Windeinspeisung auch in der Detailauflösung zu erkennen.

Bild 3 Windenergie-Einspeisung von 15 Euro-Staaten (dunkelblau) im Vergleich mit Deutschland (hellblau) für die Monate November und Dezember 2016. Quelle: [1]
Welcher Abstand zum Bedarf besteht, zeigt nochmals Bild 4. Und dabei sprechen Greenpeace und ein GRÜNER Minister von „Verstopfung“ durch die konventionellen Kraftwerke.

Bild 4 Verlauf der Öksotrom-Einspeisung Deutschland im Novermber – Dezember 2016. Quelle: Agora

 Was wollen uns diese Ganglinien sagen?

Neben dem, dass man eine auch nur minimalste Grundlastfähigkeit der Windkraft selbst im EU-weiten Rahmen „vergessen“ kann, zeigt es überdeutlich die Speicherproblematik. So lange Speicher nicht im Größtmaßstab zur Verfügung stehen und dazu auch noch bezahlbar bleiben – was noch, wenn es überhaupt möglich wird, Jahrzehnte dauert – ist und bleibt der Ausbau der Ökoenergie ein Desaster.
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Für die, welche davon profitieren, ist das kein Problem

Verbands-Interessenvertreter schaffen es problem- und hemmungslos, einfach einen aller Physik und kommerziellen Möglichkeiten Hohn sprechenden Wunschkatalog zusammenzustellen und dann den staunenden Medien zu erzählen, mit „etwas technologischem Fortschritt“ und „verlässlichem Grundrauschen“ lässt sich doch jede EEG-Zukunft lösen. Lässt sich nicht, aber bis es auffällt, sind die eigenen Taschen ja gefüllt.
[4] Björn Klusmann, Geschäftsführer des Bundesverbands Erneuerbare Energie BEE:
„Wir haben enorme Potenziale in der Windenergie insbesondere an Land, wir haben noch enorme Potenziale in der Fotovoltaik, und wir haben auch noch enorme Potenziale in der Bioenergie, der Wasserkraft und der Geothermie. Alle fünf Erneuerbaren werden weiter wachsen. Die Windenergie wird das große Stromvolumen liefern zu sehr günstigen Konditionen, die Fotovoltaik wird die Lastspitzen zur Mittagszeit abdecken, die Bioenergie wird die Schwankungen der anderen beiden ausgleichen. Und Geothermie und Wasserkraft sind sozusagen ein verlässliches Grundrauschen, das dann noch dazu kommt.“
Auch Claudia Kemfert hält den Ausstieg aus der Kernkraft für realistisch, obwohl sie nicht ganz so optimistisch ist wie Umweltverbände und der BEE. Die Grundlastversorgung und auch die Preisentwicklung sind für sie kaum ein Problem.
„Die erneuerbaren Energien sind auch grundlastfähig. Biomassekraftwerke sind grundlastfähig, die können Sie auch immer einsetzen. Sie können natürlich auch die Erneuerbaren Energien so gut miteinander verbinden und speichern, dass Sie dann auch eine Grundlast haben. Da ist natürlich noch technologischer Fortschritt notwendig, aber das ist auch möglich, und da wird es ja auch hingehen.“

Wo kommt die Grundlast nach dem Zwangs-Abschalten der Kraftwerke dann her?

Die hat in Zukunft der Stromkunde selbst zu bevorraten, indem er gezwungen wird, sich Speicher anzulegen. Natürlich wird ihm das „zu seinem Vorteil“ vermittelt.
[4] So beschreibt Ralph Kampwirth das ehrgeizige Ziel des Stromlieferanten Lichtblick, seinen Beitrag dazu zu leisten:
„Wir wollen ja mit 100.000 Zuhause-Kraftwerken Deutschlands größtes Gaskraftwerk aufbauen.“
Noch klingt das utopisch, denn zunächst ist Lichtblick nur in Hamburg mit dem Projekt an den Start gegangen. Knapp 10 Anlagen werden jede Woche installiert, weitere Ballungsräume wie das Ruhrgebiet oder Berlin sollen für den Vertrieb erschlossen werden. Da, wo es läuft, gibt es zumindest zufriedene Gesichter. Denn Uwe Thormählen freut sich nicht nur über seine Kostenersparnisse:
„Wir wollten ja auch etwas für die Umwelt tun, wir haben auch eine Fotovoltaikanlage auf dem Dach, und jetzt haben wir noch diese Geschichte und erzeugen Strom im Keller, und wenn sich mehrere Leute dafür entscheiden würden, dann hätten wir tatsächlich wohl in Deutschland die Möglichkeit, die Großkraftwerke nach und nach zu ersetzen.“

Den Verkauf der erforderlichen Ausrüstung und vor allem der lukrativen, späteren DV-technischen Versorgung sehen die Versorger – auch die kommunalen – als ihr großes Zukunfts-Modell:
EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
SolarServer: Am 20.10.2016 erhielten die Caterva GmbH (Pullach bei München) und die N-ERGIE Aktiengesellschaft (Nürnberg) für ihr Projekt „SWARM“ den Bayerischen Energiepreis in der Kategorie „Energieverteilung und -speicherung“.
SWARM zeige, dass Photovoltaik-Stromspeicher für Eigenheime sowohl Privathaushalten dienen als auch höchst wirkungsvoll zur Stabilisierung des Stromnetzes beitragen können, so die Begründung der Jury.
Was hinter diesem gelobten Abzocker-Modell steckt, wurde bereits beschrieben:
EIKE 6.6.2015: Schlaraffenland im EEG-Paradies – Wie man die Verbraucher gegeneinander ausspielen und dann austricksen kann

Deshalb haben die Versorger auch nicht das Geringste Interesse daran, dass Strom billiger wird

Und es hat sogar seine Berechtigung. Umso teurer der Haushaltsstrom wird, umso Kosten-sparender wird der Eigenverbrauch. Niemand im Versorger- und Netzbereich hat deshalb noch irgend ein Interesse daran, Strom billig zu machen. Ausschließlich teurer Haushaltsstrom sichert die neuen Geschäftsmodelle.
Klar, dreht kein Versorger an der Preisschraube – die meisten haben ja einen kommunalen Bürger-Auftrag und kümmern sich auch darum, wie es jüngst ein Aufruf: Die Stromkunden sollen sich bitte in Berlin bei Frau Merkel beschweren; jüngst zeigte:
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar.
Man wehrt sich nur nicht dagegen, dass zum Beispiel die CO2-Zertifikate von der Politik – unterstützt von deren Beratern – teuer gemacht werden:
Zeitschrift Ökologie Politik, Februar 2012: Interview mit Prof. Dr. Claudia Kemfert „Ein CO2-Preis von 60 Euro pro Tonne ist nötig!“
Alleine damit wird der konventionelle Strom schon so hochpreissig, dass der Ökostrom „billig“ erscheint und das Abschalten der verbliebenen Kraftwerke mit kommerziellem Zwang begründet werden kann.

Wer sich keinen Speicher in den Keller legen will oder kann – wird in naher Zukunft erleben, dass der Staat zwar über einen Rundfunk-Staatsvertrag für die Unterhaltung des Bürgers zu sorgen hat, dies aber nicht für die Stromversorgung gilt.
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!

Und wenn etwas daran schief geht? Es gibt keine Parteien-, oder Politikerhaftung (gilt auch für die Berater). Jede der letzten Generationen durfte bisher etwas aus Trümmern neu aufbauen …. Visionäre haben wir dafür zuhauf:
[6] Publik Forum Edition, Oberursel 2009. Hans-Peter Gensichen: Armut wird uns retten Geteilter Wohlstand in einer Gesellschaft des Weniger: These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Quellen

[1] Rolf Schuster, Datensatz der Ganglinien Wind für 15 Länder

[2] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

[3] PROJEKT Firmengruppe, Homepage

[4] Deutschlandfunk: „Grundlast ist altes Denken!

[5] EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
http://www.eike-klima-energie.eu/2016/12/31/die-zahltage-des-eeg-beginnen-ihren-vorhergesagten-lauf/

[6] EIKE 18.04.2016: Kirche und Klimawandel




Judith Curry – berühmte skeptische Klimaforscherin gibt auf!

Mit dem 1. Januar bin ich von meiner Stellung an meiner Fakultät bei Georgia Tech zurückgetreten.

Bevor ich zu einer ganzen Reihe von Themen Stellung nehme, möchte ich eine Frage beantworten, die sich der geneigte Leser stellen könnte: Ich beabsichtige nicht, der Trump-Regierung beizutreten (ha ha).

De jure ist mein Rücktritt ein Eintritt in den Ruhestand, bin ich doch im Georgia State Teachers Retirement System, und ich muss mich von Georgia Tech in den Ruhestand verabschieden, um meine Pension zu erhalten (obwohl ich noch ein paar Jahre vor mir habe bis zu meinem 65. Geburtstag). Ich habe um den Status als Emeritus ersucht.

Ich habe mich also von Georgia Tech zurückgezogen und habe nicht die Absicht, nach einer anderen akademischen oder administrativen Stellung an einer Universität oder in einer Regierungs-Agentur zu suchen. Allerdings werde ich mich mit Sicherheit nicht aus meiner beruflichen Tätigkeit zurückziehen.

Warum habe ich meine Stellung an der Fakultät aufgegeben?

Ich ziehe mich zurück nach 186 veröffentlichten Artikeln in Journalen und zwei Büchern. Vordergründig, weil ich mich anderen Dingen zuwenden möchte und ich mein Universitätsgehalt nicht mehr brauche. Für Georgia Tech ergibt sich dadurch die Gelegenheit, jemanden anders einzustellen. (siehe hier).

Die tieferen Gründe liegen jedoch in meiner Verdrossenheit mit Universitäten, dem akademischen Fachbereich der Klimawissenschaft und Wissenschaftlern.

Falsche Hosen

Seit meinem 5. Lebensjahr war ich in der Schule. Bis vor ein paar Jahren betrachtete ich eine Stellung an der Fakultät einer großen Universität als einen Traumjob, und ich konnte mir nicht vorstellen, jemals etwas anderes zu machen.

Unabhängig von meiner eigenen persönlichen Laufbahn und den ,Schocks‘, die im Jahre 2005 mit unseren Studien zu Hurrikanen und der globalen Erwärmung begannen sowie den massiven Stacheln der Jahre 2009 und 2010 durch Klimagate, habe ich erkannt, dass sich Universitäten während der letzten 5 bis 10 Jahre substantiell verändert haben.

Zuerst dachte ich, die Änderungen, die ich an der Georgia Tech beobachtet hatte, seien die Folge einer Änderung der höher stehenden Regierung (Präsident, Dekan usw.). Es war hart, dem akademischen Nirwana unter der Leitung von Georgia Tech von Wayne Clough, Jean-Lou Chameau und Gary Schuster zu folgen. Aber dann begann ich zu erkennen, dass es an Akademien und Universitäten in der ganzen Nation [= den USA] zu substantiellen Änderungen kam. Mir flatterte vor Kurzem ein Artikel auf den Schreibtisch, in dem teilweise beschrieben wird, was falsch läuft: Universitäten werden zu ,künstlichen Nachtigallen‘ (hier).

Das Entlohnungssystem für Mitglieder der Universitäts-Fakultät wird zunehmend kontraproduktiv für gerade Studierende, sie in die Lage zu versetzen, in der realen Welt zu denken und zu handeln und die Grenzen des Wissens in bedeutsamer Weise zu verschieben (zumindest in bestimmten, für die Öffentlichkeit relevanten Bereichen wie Klimawandel). Dazu habe ich schon früher Stellung genommen, und ich möchte hier nicht darauf herumreiten.

Warum soll man nicht einmal versuchen, das System von innen heraus zu verändern? Nun, dies ist keine Schlacht, die ich schlagen möchte, unabhängig von jedweder realistischen Einschätzung, in der Lage zu sein, das schwerfällige Untier von innen heraus zu bewegen.

Oder vielleicht ist es ein Fall ,falscher Hosen‘, soweit es mich betrifft. Universitäten fühlen sich für mich nicht mehr als der ,real deal‘ an (Anmerkung: Diese Kritik zielt nicht auf Georgia Tech, welche besser ist als die meisten Anderen). Es ist an der Zeit für mich, den Elfenbeinturm zu verlassen.

Ein entscheidender Faktor war, dass ich nicht mehr weiß, wie ich die Studenten und Doktoranden durch die VERRÜCKTHEITEN im Bereich Klimawissenschaft steuern sollte. Forschung und andere berufliche Tätigkeiten zahlten sich nur dann aus, wenn sie in bestimmte Richtungen gebündelt waren, die von einem politisierten akademischen Establishment genehmigt worden sind – Finanzierung, Erleichterungen bei der Veröffentlichung von Studien, in angesehene Positionen aufzusteigen, Termine bei angesehenen Komitees und Gremien, berufliche Anerkennung usw.

Wie man junge Wissenschaftler durch all das navigieren soll, liegt hinter mir, und oftmals wird daraus eine Schlacht zwischen wissenschaftlicher Integrität einerseits und Karriere-Selbstmord andererseits (ich habe in dieser Hinsicht mit einer Anzahl skeptischer junger Wissenschaftler zusammengearbeitet).

Man lasse mich das in Beziehung stellen zu einem Austausch mit einer Doktorandin vor einem Monat. Sie wollte mich als eifrige Leserin meines Blogs sprechen. Sie arbeitet in einem Bereich, der mit Sicherheit für Klimawissenschaft relevant ist, aber sie will sich nicht als Klimawissenschaftlerin bezeichnen. Sie sagt, dass sie andauernd aus allen Richtungen gefragt wird zu Themen bzgl. globaler Erwärmung, und sie wusste nicht, was sie antworten sollte, da Themen wie Zuordnung usw. nicht die Themen sind, die sie als Wissenschaftlerin erkundet. MANN, eine Wissenschaftlerin, die den Unterschied kennt! Ich riet ihr, ihren Kopf gesenkt zu halten und mit der Forschung fortzufahren, von der sie glaubt, dass sie interessant und wichtig sei, und sich aus der Klimadebatte herauszuhalten, ES SEI DENN, sie entschließt sich, sich persönlich da hineinzustürzen und ihr intellektuell zu folgen. Persönliche Meinungen über die Wissenschaft und politische Meinungen über Politik, die irgendwie mit Ihrer Forschungs-Expertise zusammenhängen, sind genau das – persönliche und politische Meinungen. Derartige Meinungen als beitragend zu einem wissenschaftlichen Konsens zu verkaufen, ist viel schlimmer als ein Witz.

Mit einem Rückzug aus all dem habe ich mich daran erinnert, dass ich Angestellte der Fakultät war – im Prinzip konnte ich machen, was ich wollte. Die intellektuellen Dinge, die mich jetzt interessieren, sind:

Einschätzung der Klimawissenschaft auf eine Art und Weise, die für politische Entscheidungen relevant ist unter voller Berücksichtigung der Unsicherheiten,

Die Erkundung der Philosophie wissenschaftlicher Themen im Hinblick auf die Erkenntnisse von Klimamodellen, Nachdenken über unsichere, komplexe Zusammenhänge

Entscheidungen treffen im Angesicht tiefer Unsicherheit

Soziologie der Wissenschaft und Experimentieren mit sozialen Medien.

Als ich zum ersten Mal im Jahre 2010 diesen Weg beschritten habe, veröffentlichte ich Studien, die man durchaus als auf Wissenschaft angewandte Philosophie bezeichnen kann (z. B Unsicherheits-Monster). Dies schien der Weg zu sein hin zum Erhalt akademischer ,Legitimität‘ im Lichte meiner neuen Interessen, aber ehrlich gesagt wurde mir dieses Spiel bald langweilig. Warum sollte man sich die Mühe machen, Studien zu veröffentlichen, mit Interviewern zu kämpfen die (normalerweise) weniger von deinem Thema wissen als man selbst (um deren ideologische Verzerrung nicht zu erwähnen), für die Veröffentlichung eines Artikels einige Monate im Voraus zu zahlen, damit vielleicht 100 Personen ihn lesen? Ganz zu schweigen von den umfassenderen Dingen in Beziehung zur Universitäts-Bürokratie, Finanzierung seitens der Regierung usw.

Hat man sich einmal von der akademischen Denkweise gelöst, ist die Veröffentlichung im Internet viel sinnvoller, und die Begutachtung, denen man auf technologischen Blogs ausgesetzt ist, ist erheblich extensiver. Aber Begutachtung ist nicht wirklich der Punkt; der ist vielmehr, die Menschen dazu zu bringen, in neuen Wegen zu denken. Mit anderen Worten, Wissenschaft als Prozess und nicht als Sammlung verordneter ,Wahrheiten‘.

An diesem Punkt denke ich, dass ich mehr Menschen erreichen kann (einschließlich Studenten und junge Forscher) mittels sozialer Medien. Tue ich so, als hätte auf all das eine Antwort? Nein, aber ich hoffe, Studenten und Wissenschaftler dazu zu animieren, über ihren Tellerrand hinaus zu denken.

Die reale Welt

Daher ist mein Fall aus dem Elfenbeinturm, der 2005 begonnen hatte, jetzt abgeschlossen (man schaue auf meinen Vortrag 2006 vor der AGU agu_integrityofscience_curry].

Siehe Bild oben!

Was kommt als Nächstes?

Ich bin daran interessiert, neue und bessere Wege zu finden, um mit Wetter- und Klimadaten zu arbeiten, mit Informationen zur Wettervorhersage und zukünftigen Klima-Szenarien, um Entscheidungen in der realen Welt zu stützen, die den Umgang mit Risiken betreffen und die mit der Wetter- und Klimavariabilität assoziiert sind.

Mein Interesse daran wurde vor über einem Jahrzehnt geweckt, und Peter Webster und ich gründeten ein Unternehmen, nämlich das Climate Forecast Applications Network (CFAN), um genau das zu tun. Falls man noch nicht auf diese Website gestoßen ist, sollte man das nachholen – www.cfanclimate.net – habe ich doch meine gesamte Winterpause damit verbracht, die Website zu überarbeiten nach einigen guten Vorschlägen von Larry Kummer von der Fabius Maximus-Website.

CFAN begann als ein Start-Up-Unternehmen der Universität im Jahre 2006, und bis vor einigen Jahren hatte ich keine Vollzeit-Mitarbeiter. Jetzt arbeiten 7 Wissenschaftler mit Ph.D. bei uns (zusätzlich zu Peter und mir selbst), plus Software-Entwickler usw. Nach meinem Rückzug aus Georgia Tech haben wir unser Unternehmen in eine neue Phase gelenkt, um Produktentwicklungen für neue Vorhersagen zu erkunden und Hilfsmittel für Entscheidungen zu entwickeln, neue Märkte, neue Partnerschaften, neue Gebiete.

Bisher stammte das Einkommen von CFAN aus dem Bereich ,Wetter‘ (Tage bis Jahreszeiten) mit einigen Projekten zur Entwicklung zukünftiger Klima-Szenarien. (Über das derzeitige Projekt habe ich einen Beitrag geschrieben: Generating regional scenarios of climate change).

Ich finde all dies außerordentlich interessant, herausfordernd und lohnend. Nicht zu erwähnen den enormen Zeitverbrauch (CFAN muss mehr Geld verdienen, damit wir weitere Personen einstellen können, die mich und die anderen Manager entlasten, die allesamt auf zu vielen Hochzeiten tanzen). Ich erfahre gewaltig viel über Entscheidungsfindung, Management, Marketing, Verkäufe, Finanzen usw.

An diesem Punkt scheint es mir, dass der private Bereich ein ,ehrlicherer‘ Platz für einen Wissenschaftler ist, der in einem politisierten Bereich arbeitet, als an Universitäten oder in Laboren der Regierung – zumindest wenn man sein eigener Chef ist.

Soziale Medien

Wohin führen also all meine Bemühungen mit sozialen Medien (einschließlich Climate Etc.)? Der Rückzug von meiner Stellung in der Fakultät und die Übernahme eines mehr als Vollzeit-Jobs mit dem Betreiben von CFAN bedeutet unter dem Strich weniger Zeit zum Bloggen und nicht mehr (zumindest in naher Zukunft).

Ich bleibe sehr interessiert am wechselseitigen Austausch mit sozialen Medien. Allerdings habe ich im vorigen Jahr deutlich weniger Zeit damit verbracht, Originalmaterial für Climate etc. zu schreiben. Unabhängig davon, dass ich vielfach beschäftigt war, verbrachte ich mehr Zeit auf Twitter (mit deutlich geringerem Zeitaufwand).

Ich werde mit einem neuen Blog für CFAN anfangen, mich mehr auf Wetter und kurzfristige Klimathemen konzentrieren (und relevante Postings bei Climate etc. bringen).

Ich möchte auch versuchen, häufiger kürzere Beiträge für Climate Etc. zu schreiben, mit kurzen Auszügen und Kommentaren auf einige Artikel, über die ich getwittert habe. Ich werde mich auf Gastbeiträge stützen für genauere technische Betrachtungen. Ich beabsichtige also definitiv, den Blog am Leben zu halten, aber im Zusammenhang mit einem sehr ausgefüllten Stundenplan.

Wir müssen abwarten, wie sich das alles entwickelt, aber ich habe erkannt, dass ich das Recht zum Erkunden habe und zu tun, was ich will. Dies ist meine Definition von akademischer Freiheit (und nicht jemanden aufzufordern, dafür zu bezahlen).

Link: https://judithcurry.com/2017/01/03/jc-in-transition/

Übersetzt von Chris Frey EIKE




GWPF-Rundbrief vom 3. 1. 2017 – Energie

US-Schiefer kann den OPEC-Deal innerhalb von Monaten brechen

Ein Problem, das anzugehen die OPEC lange zu vermeiden gehofft hatte, ist ausgebrochen. Wir reden natürlich von US-Schiefer, dem größten Einzel-Erzeugnis weltweit. Das Problem ist kurz gesagt eines der Bilanzbereinigung (zwischen jenen Unternehmen, die bankrott gegangen sind und die das bereits getan haben, so dass die meisten jetzt weit niedrigere Gesamt-Produktionskosten haben, um die viel geringeren Schulden und neu belebte Management-Abteilungen nicht zu erwähnen) ebenso wie eines der steigenden Effizienz der Bohrtechnologie. Während die Bohrunternehmer in den USA seit Mai etwa 200 weitere Plattformen hinzugefügt haben und Vorteile aus steigenden Preisen nach dem Beschluss der OPEC zum Kappen der Ölförderung ziehen, fragt man sich, was mit der US-Ölerzeugung passieren wird, wenn die Anzahl der Plattformen erst einmal auf sein jüngstes historisches Niveau zwischen 1800 und 2000 zurückgekommen ist. Eines wissen wir sicher: nach zwei Jahren, während derer sie das Rampenlicht vermieden hat, ist die Schiefer-Industrie bereit, mit einem Paukenschlag zurückzukehren. Reuters zufolge sind die „US-Bohrunternehmer in der Lage, die Ausgaben für Erkundung und Produktion im nächsten Jahr zu erhöhen, bringen doch sich erholende Ölpreise die Banken dazu, Kreditrahmen zum ersten Mal seit zwei Jahren wieder auszuweiten“. OilPrice, 29. Dezember 2016

Chinesische Kohleindustrie: Gewinn ist 2016 explodiert

China berichtete jüngst von steigenden Gewinnen der Kohleindustrie. Das chinesische National Bureau of Statistics nannte ein Wachstum um „157 Prozent während der ersten 11 Monate des Jahres 2016“, während Industriebereiche wie Öl und Gas, die ebenfalls Anteil an der Energieversorgung haben, in einem Zeitraum Verluste hinnehmen mussten. Der fortgesetzte Verbrauch von Kohle spiegelt den Anstieg der Anzahl von Kohlekraftwerken, die entweder im Bau oder bereits fertig gestellt sind – in China und Indien ebenso wie in afrikanischen und vielen europäischen Ländern. Es gibt Gründe, warum der Kohleverbrauch weiter steigen wird. China, Indien afrikanische und europäische Länder werden weiterhin Kohle verbrauchen – aus einem einfachen Grund: sie ist im Vergleich zu Erneuerbaren, Kernkraft oder sogar Erdgas billig. Sehr schmutzig, aber sehr billig, und genau das bringt die Chinesen und Andere dazu, so viel Kohle zu verbrauchen. – Todd Royal, OilPrice, 28. Dezember 2016

Schiefer-Industrie in UK dabei abzuheben

Drei separate Fracking-Projekte könnten in diesem Jahr Fahrt aufnehmen, kommt doch die UK-Schiefergas-Industrie den Industriebossen zufolge schließlich aus ihren Startlöchern nach Jahren der Verzögerung. Hydraulisches Brechen bei Kirby Misperton, North Yorkshire könnte innerhalb weniger Wochen beginnen, nachdem ein Richter kurz vor Weihnachten eine Klage von Umwelt-Campaignern und Anwohnern zurückgewiesen hatte, das Projekt aufzuhalten. An der Bohrstelle bei Moors in North Yorkshire könnte es innerhalb weniger Wochen losgehen. Zwei andere Betreiber – Cuadrilla resources und iGas – hoffen, mit ihren Operationen an Stellen in Lancashire und Nottinghamshiere noch in diesem Jahr beginnen zu können. – Robin Pagnamenta, The Times, 2. Januar 2017 [paywalled!]

Übersetzt von Chris Frey EIKE




Greenpeace-Chefin Jennifer Morgan zieht bei IPCC und PIK unbehelligt die Strippen

Die Klimaaktivistin an der Greenpeace-Spitze

Die US-Amerikanerin Jennifer Morgan ist eine der führenden Umweltaktivistinnen weltweit. An der Spitze von Greenpeace International kämpft sie gegen den Klimawandel. Auch der neue amerikanische Präsident könne das Pariser Abkommen nicht zurückdrehen, erklärt sie in “Im Gespräch”. […] Nach Stationen beim renommierten World Resources Institute und dem WWF steht Jennifer Morgan seit letztem Frühjahr nun zusammen mit ihrer Kollegin Bunny McDiarmid an der Spitze von Greenpeace International.

Weiterlesen bei Deutschlandradio Kultur

Eine Kleinigkeit verschwieg das Deutschlandradio Kultur allerdings: Die Greenpeace-Aktivistin Morgan war beim letzten IPCC-Bericht (AR5) als Review Editor tätig. Klimaaktivismus an zentraler Stelle eines ursprünglich als unabhägig konzipierten Klimaberichts. Ein schlimmer Interessenskonflikt, der den Bericht stark entwertet. Aber es kommt noch besser. Jennifer Morgan sitzt nämlich als aktives Mitglied auch im Wissenschaftlichen Beirat des Potsdam Instituts für Klimafolgenforschung (PIK). Auf der Greenpeace-Webseite lesen wir dazu:

Jennifer has been cited in front-page articles in newspapers around the world on climate change and is regularly interviewed for radio and television programs. She has been Review Editor for the 5th Assessment Report of the Intergovernmental Panel on Climate Change (IPCC). She serves on the Germany Council on Sustainable Development and is a member of the Scientific Advisory Board of the Potsdam Institute for Climate Impact Research. At Germanwatch’s 20th anniversary celebration, Jennifer was named an honorary member of the organisation for her long-term commitment to international climate issues and the empowerment of civil society.

[Übersetzung von Chris Frey: Jennifer ist auf den Titelseiten der Zeitungen auf der ganzen Welt bzgl. des Themas Klimawandel präsent. Sie wird regelmäßig in Radio und Fernsehen interviewt. Sie war Begutachterin für den 5. IPCC-Zustandsbericht. Sie arbeitet beim Rat für Nachhaltige Entwicklung in Deutschland und ist ein Mitglied des Wissenschaftlichen Beirates am PIK. Auf der Feier des 20. Jubiläums von Germanwatch wurde Jennifer zum Ehrenmitglied der Organisation ernannt wegen ihres langen Einsatzes für internationale Klimabelange und der Ermächtigung der Zivilgesellschaft.

Ende Übersetzung]

Und die Verquickung ist hier noch lange nicht zuende. Wie bereits zuvor an dieser Stelle berichtet, erhielt das PIK 2014/15 mehr als eine halbe Million Dollar von einem Greenpeace-nahem politischem Thinktank. Die wissenschaftliche Unabhängigkeit des PIK ist damit dahin. Aktivisten im IPCC und beim PIK – ein realer Albtraum. Kritik an diesem krassen Mißstand gibt es nur hinter vorgehaltener Hand, zu groß ist die Macht der verflochtenen klimalarmistischen Seilschaften. Nun wird klar, weshalb eine Topwissenschaftlerin wie Judith Curry das Handtuch wirft. Gegen diesen Filz ist schwer anzukommen.

Link: http://kaltesonne.de/greenpeace-chefin-jennifer-morgan-zieht-bei-ipcc-bericht-und-pik-unbehelligt-die-strippen/




Befindet sich die Klima-Alarm-Zentrale im Krieg mit den USA?

Die gleichen Gruppen sind auch gegen Erdgas-Energie, welche 3 bis 4 mal weniger Kohlendioxid pro kWh emittiert als Kohle-Energie. Es gibt noch viele weitere Widersprüche in den Statements und Aktionen der CAG. Sie scheint sich bewusst zu sein, dass ihre „wissenschaftliche Grundlage“ ein Fake ist, und stellt absichtlich unlogische und unmögliche Forderungen, um jedwede ernsthafte Überlegung hinsichtlich technologischer oder ökonomischer Lösungen für das vermeintliche Problem zu unterbinden. Jedes Mal, wenn ernsthaft über derartige ökonomische oder technologische Maßnahmen nachgedacht wird, wirft jemand anders einen Blick auf die so genannte „Klimawissenschaft“ und findet ein eklatantes Fehlen tatsächlicher Wissenschaft. Dann braucht es 5 bis 8 Jahre, um den Betrug hinweg zu erklären und den Alarm auf neue Höhen zu treiben.

Nach Betrachtung und Aussortierung anderer Theorien, eine unzureichend wie die andere, um alle Fakten zu erklären, bleibt nur eine Schlussfolgerung: Die Climate Alarm Governance führt einen Krieg gegen die USA [und wohl auch gegen die gesamte westliche Welt. Anm. d. Übers.]

Die CAG führt eine feste Koalition von meist ausländischen NGOs, bestimmten UN-Agenturen und Politikern sowie einigen wenigen Individuen, die besessen sind von dem Gedanken der Herrschaft über die Welt (euphemistisch beschrieben als „Weltregierung“ oder „global civil society“). Heimische Kollaborateure helfen ihnen dabei. Hier möchte ich diese Koalition die Climatist International oder Climintern nennen, um die Analogie hervorzuheben zur Communist International (Comintern), eine Organisation, die von 1919 bis 1956 bestand. Climintern scheint auch teilweise ein Nachfolger der sowjetisch kontrollierten Spionage, des Einflusses und des Propaganda-Netzwerkes zu sein, welches während der Jahre 1988 bis 1991 kollabierte. Viele ihrer individuellen Mitglieder flüchteten sich in den Umweltaktivismus. Das Klimaalarm-Netzwerk entstand etwa zur gleichen Zeit.

Das Wort Krieg ist hier nicht metaphorisch gemeint. Es ist kein Kalter Krieg, kein „Handelskrieg“ und auch kein Krieg um Gedanken. Und es ist in einigen abgelegenen Gebieten kein Krieg. Schauplatz dieses Krieges sind zumindest die gesamten USA. Es mag unscheinbar aussehen, aber nur, weil es sich um die 4. Generation der Kriegführung* handelt, einer Definition von Colonel John Boyd (1927 bis 1997) folgend. Die Theorien von Col. Boyd werden gewöhnlich im Zusammenhang mit asymmetrischen Konflikten in abgelegenen Gebieten der Welt aktiviert, sind aber keineswegs auf derartige Konflikte begrenzt.

[*Diese Übersetzung des Terminus‘ 4th Generation Warfare kommt mir unglücklich vor, aber mir fällt keine bessere ein. Ich werde also im Folgenden diesen Begriff im Original übernehmen. Anm. d. Übers.]

I. Die Theorie von Col. Boyd & 4th Generation Warfare

Die Erkenntnis von Colonel Boyd ist, dass es drei Ebenen der Kriegsführung gibt, nämlich moralisch, mental und physisch:

Moralische Kriegführung: Den Willen des Feindes zum Sieg zu brechen, Zerschlagung von Allianzen (oder potentiellen Allianzen) und die Förderung von interner Zersplitterung. Im Idealfall ergibt sich daraus die „Auflösung der moralischen Bande, die es einem organischen Ganzen ermöglichen zu existieren“. (D. h. das gegenseitige Vertrauen und die im obigen Absatz erwähnten gemeinsamen Grundlagen zu zerschlagen).

Mentale Kriegsführung: Dafür zu sorgen, dass der Feind die Realität verzerrt wahrnimmt mittels Desinformation, mehrdeutige Positionierung und/oder Störung der Kommunikations- und Informations-Infrastruktur.

Physische Kriegführung: Die Fähigkeiten physischer Ressourcen zu nutzen, als da wären Waffen, Menschen und logistische Stärke.

Folglich sind die Zerstörung von Dingen und das Töten von Menschen nicht die Essenz der Kriegführung, sondern lediglich deren unterste physische Ebene. Diese Erkenntnis gilt für Kriege allgemein und ist nicht auf die 4th Generation Warfare begrenzt. Colonel Boyd gibt den Ratschlag, dass eine erfolgreiche Strategie…

das moralisch-mental-physische Dasein des Gegners zersetzen sollte, um seine moralischen Leitfäden aufzulösen, seine mentalen Vorstellungen in die Irre zu führen, seine Operationen zu unterbrechen und sein System zu überladen. Ebenso sollte eine solche Strategie jene moralisch-mental-physischen Bastionen, Verbindungen oder Aktivitäten untergraben, erschüttern, zerreißen oder auf andere Weise unterdrücken, von denen er abhängig ist… (Osinga, Science, Strategy and War: The Strategic Theory of John Boyd.)

Eine militärische Strategie wird einer Großen Strategie untergeordnet. Diese wurde von Colonel Boyd für die 4th Generation Warfare folgendermaßen konzeptionalisiert:

die Kunst, sich selbst mit so vielen wie möglich anderen unabhängigen Machtzentren zu verbinden, während gleichzeitig die Feinde von so vielen wie möglich anderen Machtzentren isoliert werden. Ein Konflikt der 4. Generation wird gewöhnlich viele unabhängige Machtzentren haben, nicht nur auf der Großen Strategischen Ebene, sondern auch bis hinab auf die taktische Ebene. Das Spiel von Verbindung und Isolation wird daher für Taktik und Durchführung von Operationen genauso zentral sein wie für Strategie oder Große Strategie (Lind, Thiele, 4th Generation Warfare Handbook).

II. Am Rande der Niederlage

Betrachtet man die Ereignisse der letzten 15 Jahre im Lichte dieser Gedanken, erkennt man, dass CAG und Climintern wie einem Lehrbuch folgend einen Krieg der 4th Generation gegen Amerika losgetreten haben!

Unglücklicherweise ist ihr Krieg auf der moralischen und mentalen Ebene extrem erfolgreich. Auf der moralischen Ebene wurde Amerika in einem Ausmaß polarisiert wie während der letzten 150 Jahre nicht mehr. Klima-Alarmismus verwirrte viele smarte und einflussreiche Persönlichkeiten, schob sie zur extremen Linken und überzeugte sie, dass Republikaner und Konservative ignorant und böse sind [ist das in Europa anders? Anm. d. Übers.]. Auf der mentalen Ebene unterminierte Climintern das wissenschaftliche Arbeiten in Amerika sowie andere intellektuelle Infrastrukturen. Sie beschädigte Universitäten und andere akademische Institutionen, die meisten davon irreparabel. Andere Faktoren trugen noch stärker zum Fall der Akademia bei.

Denkt man über die Weisheit von Colonel Boyd nach, kommt man um den Gedanken nicht herum, dass die CAG auch hinsichtlich ihrer Großen Strategie außerordentlich erfolgreich war. Sie hat Amerika von anderen Machtzentren isoliert, einschließlich Westeuropa und Latein-Amerika. Sie hat Amerika auch von seiner eigenen Akademia isoliert, von der Medien-Unterhaltungs-Industrie und sogar von der Regierung (Stand 1. 1. 2017). Noch schlimmer, sie erzeugte interne politische Abteilungen, die viele Eigenschaften eines religiösen Konfliktes zeigen.

Aber feindliche Aktivitäten können nur dann angemessen Krieg genannt werden, wenn etwas auf der physischen Ebene getan wird: wenn Gewalt gegen oder Schäden an physischen Objekten in großem Stil durchgeführt, versucht oder vom Feind angedroht werden. Nun, CAG-Agenten in der EPA und einige andere Regierungs-Agenturen haben die nationale Energie-Infrastruktur beschädigt in Gestalt von Vorschriften, Anordnungen und Drohungen – seit vielen Jahren. Beispiel: Zu der Explosion der [Bohrplattform] Deepwater Horizon von BP, die 11 Todesopfer gefordert hatte, war es gekommen, als die Besatzung eine unnötige Prozedur durchgeführt hatte, die von der EPA gefordert worden war. Die föderale Sabotage der Versuche, das Öl-Leck zu stopfen und die Säuberung durchzuführen, ist ein anderes Thema. Glücklicherweise hat die Fracking-Revolution und Offshore-Bohrung, die sich gegen den aktiven Widerstand der Obama-Regierung durchgesetzt haben, dafür gesorgt, dass einige der schlimmsten Auswirkungen der Energiepolitik dieser Regierung abgemildert werden konnten. Aber schwere Schäden an der Energie-Infrastruktur kann einen enormen Zoll menschlichen Lebens kosten, besonders wenn die Aktivität des Feindes die „Zersetzung der moralischen Bande“ verursacht hat.

Industrielle Systeme werden üblicherweise mit vielfachen Sicherheitsmaßnahmen und Verfahren entwickelt. Die Stärkung derartiger multilateraler Sicherheiten ist einer der Hauptgründe für Vorschriften und Vorschriftengeber. Falls eine feindlich gesinnte Führerschaft mit ihrem Einfluss eine Vorschriften gebende Behörde durchdringt oder Gewalt über diese erlangt, könnte sie einige Sicherheitsmaßnahmen entfernen oder gefährliche Verfahren anordnen unter Herstellung eines geeigneten Zusammenhangs wie etwa Schutz der Umwelt. Die Unglücksfälle werden nicht sofort eintreten, weil einige Sicherheitsmaßnahmen in Kraft bleiben würden. Vielmehr würden sich Katastrophen in der Zukunft ereignen, welche dann normalerweise dem Scheitern der verbliebenen Sicherheitsmaßnahmen zugeordnet werden. Climintern hat öffentlich sein Ziel kundgetan, die Erzeugung und den Verbrauch fossiler Energie zu unterbinden, und Begriffe wie „Durchdringung“ und „Einfluss“ sind noch eine ernsthafte Untertreibung seiner Kontrolle über die EPA.

Außerdem ermutigt die CAG mit Sicherheit ihre Einheiten, so zu agieren, als kämpften sie in einem Krieg. Das kriegsmäßige Denken spiegelt sich in der kriegshaften Terminologie, deren sich ihre Einheiten befleißigen. Sie reden von Mobilisierung, sie verlangen nach Grenzen der Freiheiten wie in einem Krieg, sie blockieren und unterbrechen, und sie schlagen Schlachten in einem endlosen Krieg gegen den Feind – womit offenbar wir alle gemeint sind (2).

III. Die CAG und Climintern

Die Existenz der CAG als Zentrum des Klima-Alarmismus‘ bedarf einiger Erklärungen. Natürlich führen die CAG-Führer ihre Maßnahmen nicht aus einem Geheimbüro oder einem Bunker durch, aber das Internet erlaubt es ihnen, so zusammenzuarbeiten, als säßen sie in einem gemeinsamen Büro. Die Mehrheit der Individuen, die den Klima-Alarmismus gelegentlich unterstützen, sind nicht kontrolliert, aber sie glauben der Medien-Propaganda, folgen ihren Freunden oder vertrauen Institutionen, die bisher vertrauenswürdig waren.

Nichtsdestotrotz befinden sich die meisten alarmistischen Organisationen unter zentraler Kontrolle. Gewöhnliche Mitglieder und sogar einige Führer dieser Organisationen mögen davon keine Ahnung haben, aber diese Lage ist nicht ungewöhnlich. Zum Beispiel wurden Vorläufer der Kommunistischen Partei der USA (CPUSA) auf genau die gleiche Art und Weise ins Leben gerufen und betrieben. Das typische Mitglied einer Vorläufergruppe hatte keine Ahnung, dass er der CPUSA beigetreten war. Und selbst wenn das Mitglied dies erkannt hatte, wusste es nicht, dass die CPUSA vollständig vom Sowjet-Regime kontrolliert war, angeführt von Stalin und seinen Schergen. Und US-Kommunisten sowie deren Anhänger wollten nichts hören von Massenmorden und anderen Verbrechen, denen sich das Sowjet-Regime gegen seine eigene Bevölkerung schuldig gemacht hatte. Getreu dem marxistischen Dogma folgend betrachteten sie derartige Informationen als Fälschungen, ins Spiel gebracht von der Bourgeoisie.

Climintern ist hunderte Male größer als Comintern oder die CPUSA jemals waren. Climintern kontrolliert jährliche Budgets in Höhe von hunderten Milliarden Dollar – verglichen mit den Zehnermillionen, über die die CPUSA verfügt hatte. Comintern hat auch eine komplexere Struktur mit vielen Kommandoebenen und multiplen Kommunikationskanälen. Außerdem dienen einige Gruppen innerhalb Climintern als Kommunikationskanäle zusätzlich zu ihren operationellen Funktionen, wie etwa Propaganda und Mobilisierung. Der Artikel im Guardian mit dem Titel Climate change: we must look to international agencies to save the world ist ein Beispiel dieser dualen Vorgehensweise. Es schwächt sowohl den Widerstand der allgemeinen Leser gegen die CAG und signalisiert Gruppen auf unteren Ebenen, dass die Parteilinie offen die nationale Unterordnung unter internationale Agenturen vorantreibt.

Um effektiv zu sein, muss eine Climintern-Gruppe nicht wissen, dass sie Bestandteil einer zentral kontrollierten Struktur ist. Sie muss nur wissen, wer die Instruktionen gibt oder mittels welcher Kanäle sie diese Instruktionen erhält. Die Climintern-Gruppen nebst deren Mitarbeitern und Agenten muss den Instruktionen Folge leisten, wenn sie nicht ihre Arbeitsplätze/ihre Finanzierung verlieren wollen. Ich muss hier nicht die gut bekannten Fälle wiederholen wie etwa den Ausschluss ganzer Verbände aus dem Sierra Club. Die CAG kontrolliert außerdem große Teile der [US-]Bundesregierung (Stand 1.1.2017), [US-]Staatsregierungen, viele europäische Regierungen, die meisten Forschungsförderungen sowie gewaltige Mengen öffentlicher Gelder. Das Internet gestattet ununterbrochen und effizient die Kommunikation zwischen der CAG und deren Kräften weltweit. Noch vor dreißig Jahren waren derartige globale oder selbst regionale Komplotte fast unmöglich infolge des Fehlens effizienter Kommunikation und Koordination. Heutzutage ist diese Distanz kein Hindernis mehr.

Natürlich ist die CAG selbst nicht so geschlossen wie das Sowjet-Regime unter Stalin. Aber die Führer großer transnationaler NGOs, UN-Funktionäre, Grüne Parteien in Europa und weiß der Kuckuck wer noch alles folgen einem vereinten Kommando, möglicherweise unter Mithilfe gewaltiger Geldsummen, die ihnen zufließen. Und sie brennen darauf, Instruktionen zu erteilen in Gestalt „commander’s intent”, was es den untergeordneten Stellen in breiter Diskretion überlässt, auf welche Art und Weise die Instruktionen ausgeführt werden, um die beabsichtigten Ziele zu erreichen.

Das Erbe von zwei der mächtigsten besiegten Feinde Amerikas – Kommunismus und Nationalsozialismus – ist in der CAG offensichtlich. Nationalsozialismus war zu mächtigem Einfluss in den UN während der siebziger Jahre geworden, wie die Berufung von Kurt Waldheim, einem nie angeklagten Nazi-Verbrecher, zum UN-Generalsekretär von 1972 bis 1981 beweist. Offensichtlich fand diese Ideologie ihren Weg in die UN mittels einiger Dritte-Welt-Regierungen, manchmal ummantelt als Anti-Kolonialismus. Amerika besaß fast keine Kolonien, aber auf europäische Länder wurde Druck ausgeübt, ihre Kolonien aufzugeben, und vielen neuen unabhängigen Ländern wurde [seitens Amerikam] Hilfe geleistet – und dennoch wurde Amerika zu einem Hassobjekt. Hass hat eine eigene Logik. Amerika wird außerdem durch ehrgeizige „globale Direktoren“ (darunter so unterschiedliche Charaktere wie Maurice Strong und George Soros) als das Haupthindernis ihrer tyrannischen Ambitionen wahrgenommen, und das aus guten Gründen. Und schließlich bewegte sich die anti-humanistische Ideologie der „Deep Ecology“ jüngst von den Randzonen in den Mainstream des Klima-Alarmismus‘. Das Böse zieht das Böse an.

Die Fraktionen von Climintern haben unterschiedliche ultimative Ziele. Das Einzige, was ihnen allen gemeinsam ist, ist ihre Feindschaft gegenüber dieser Nation [den USA]. Ihr gemeinsames direktes Ziel ist es, Amerika zu schwächen und es entweder auswärtigen Gesetzen zu unterwerfen oder es insgesamt niederzureißen. Mächtige heimische Gruppen wie der Sierra Club (1), die EDF (1), NRDC (1) UCS (1), das Center for American Progress (CAP) und – so schrecklich wie das klingt – das Nationale Komitee der Demokraten scheint mit Climintern verbunden.

Transnationaler Umweltaktivismus hat die Wissenschaft mittels der EPA seit Beginn der achtziger Jahre korrumpiert. Als Al Gore von 1993 bis 2001 Vizepräsident war, begannen die Umweltaktivisten mit der Abwicklung der wissenschaftlichen Unterfangen Amerikas. George W. Bush hat nichts unternommen, um diesen Prozess zu stoppen. Amerika war fortwährend das Angriffsziel des Climate Action Network CAN, und der gesamte UNFCCC-Prozess wurde bewusst in genau diese Richtung gesteuert. Zum Beispiel wurde das Verfahren der Betrachtung emittierter Gase folgendermaßen etabliert ( aus einem CAN booklet):

Gedanken, diese zu verhindern, kamen schon lange vor Kyoto auf … es war der Standpunkt der NGOs, dass wir Landverbrauch oder andere Gase als Kohlendioxid für Kyoto nicht mit in Betracht ziehen, weil wir nicht glaubten, dass man diese gut abschätzen kann (COP 6, Bonn 2001) — John Lanchbery.

Diese Erklärung entspricht nicht der Wahrheit. Der relative Einfluss des Landverbrauchs und anderer Gase als Kohlendioxid konnte sehr wohl abgeschätzt werden, und mit Sicherheit besser als der Einfluss von Kohlendioxid. Der wirkliche Grund für die Hervorhebung war, dass die US-Emissionen infrarot-aktiver Gase außer Kohlendioxid und die Gesamt-Emissionen von Kohlendioxid (Emissionen geringer als Senken) sehr gering sind, sowohl absolut als auch pro Kopf. Also beschloss die CAG, ein anderes Verfahren anzuwenden, welches einen großen US-„Fußabdruck“ zeigen würde. Mit anderen Worten, Amerika wurde als der Feind ausgewiesen. Gerechtfertigt wurde diese Feindschaft mit „parametrisierter“ Wissenschaft und Ökonomie durch UNFCCC/IPCC. In dem Booklet wird auch wiederholt die CAN-Strategie erwähnt, die USA von ihren Alliierten zu isolieren, und wie die CAG sich an ihren Erfolgen ergötzte. Beispiel hierfür:

Die CAN spielte natürlich eine kritische Rolle hinsichtlich der Beschäftigung mit der EU, Südafrika und anderer Entwicklungsländer, um eine Strategie der Isolierung Amerikas auf den Fluren der UN anzustrengen und es dazu zu bringen, seine Haltung der Gegnerschaft zum Bali-Aktionsplan umzukehren. John Coequyt war damals bei Greenpeace USA und pflegte eine Freundschaft mit Dave Banks, der ein Stellvertreter war im Council on Environmental Quality des Weißen Hauses unter Bush. (COP 13, Bali 2007) — Alden Meyer, UCS

In dem Beitrag Who unleashed Climatism? [etwa: wer hat den Klimatismus losgetreten?] aus der Frühzeit des Klima-Alarmismus‘ werden weitere Beispiele beschrieben. Heute sind diese Attitüden offensichtlich. Der CAG-Angriff begann im Jahre 2005 zu eskalieren (als die CAP die International Climate Change Taskforce ins Leben gerufen hatte, zusammen mit ihren britischen und australischen Gegenstücken), stieg sprunghaft im Jahre 2006 (mit dem Al Gore-Film unter übergroßer Mitarbeit von Laurie David vom NRDC) und erreichte seinen Höhepunkt während der Jahre 2007 und 2008, als Innovationen der Fracking-Technologie gewaltige Schieferöl-Reserven in den USA wirtschaftlich zugänglich machten. Der WWF (1) und die OPEC, die fortwährend die Öl- und Gasreserven der Welt überwachen, sollten von diesem Durchbruch bei der Ölförderung augenblicklich erfahren haben, aber der größte Teil der amerikanischen Öffentlichkeit blieb sich dessen unbewusst bis zur jetzigen Wahlkampagne.

2009 kam es zu Klimagate 2.0 und zur skandalösen COP 15 in Kopenhagen. Dies veranlasste sogar links orientierte Wissenschaftler, die „UN-Physik“ genauer zu betrachten und diese aufzugeben oder sogar öffentlich anzuprangern. COP15 erlebte einen Zustrom sogar noch radikalerer Gruppen, die gemeinsam unter den Schlagworten „Climate Justice Action” und “Climate Justice Now!” agierten. Selbst wenn jene Gruppen ohne Autorisierung von der CAG agiert hätten, als sie die öffentliche Ordnung in Kopenhagen unterbrochen hatten, übernahm die CAG wahrscheinlich später ihre Forderungen und Standpunkte, wie sich am Fehlen ähnlicher Störungen bei späteren COPs zeigte.

Folglich hat die CAG während der Jahre 2010-2011 verzweifelt versucht, die US-Schieferölerzeugung zu unterbinden, bevor deren Erfolg weithin bekannt wurde; sie war verärgert durch den Verlust ihres wissenschaftlichen Gefolges und pikiert durch seinen „climate justice” trailer. Zu irgendeinem Punkt in diesem Zeitrahmen überschritt die CAG die Grenze zwischen feindlicher Aktivität und einem unerklärten Krieg.

IV. Der Status unserer Alliierten

Dieser Beitrag ist kein Appell an Nationalismus, aber die Lage der USA unterscheidet sich scharf von der von Britannien, Kanada, Australien und anderen westlichen Ländern. Viele von ihnen haben sich dem Klima-Alarmismus unterworfen – auf Kosten ihrer Freiheiten und unter großen ökonomischen Schäden, und sie wurden gezwungen, der CAG zuzuarbeiten. Westeuropa scheint von der CAG okkupiert, wurde aber von dieser ziemlich gut behandelt. Amerika steht fast allein vor einem totalen Krieg [warum fällt mir hier sofort die AfD ein? Anm. d. Übers.] Die Energieindustrie ist das sichtbarste Ziel, aber Bildung, Wissenschaft, politische Institutionen und sogar das soziale Netzwerk selbst sind Angriffen der CAG und Climintern ausgesetzt. Kommentatoren sagen, dass Klima-Alarmismus als eine Abrissbirne gegen Amerika eingesetzt wird.

Die Gewohnheit europäischer Politiker, Amerika zum Sündenbock ihrer eigenen Probleme zu machen, hat mit Sicherheit zu diesem ganzen Durcheinander beigetragen. Andererseits kann man die einmalige Rolle gar nicht stark genug überschätzen, die Al Gore hinsichtlich des Klima-Alarmismus‘ seit 1988 gespielt hat. Wenn ich betone, dass Klima-Alarmismus ein auswärtiger Feind ist, dem heimische Kollaborateure sehr geholfen haben, meine ich auswärtig von Amerika. Nichtsdestotrotz sind Leser aus anderen Ländern gerechtfertigt, wenn sie Klimatismus als eine auswärtige Bedrohung ihrer selbst ansehen. Dies liegt daran, dass die CAG virtuell in einem außerirdischen Raum operiert – UN-Agenturen mit diplomatischer Immunität, kleine Länder, die zu schwach sind, sich gegen das Pack der Umwelt-NGOs zu erheben (wie die Niederlande) oder Länder wie die Schweiz, die üblicherweise einen neutralen Boden für internationale Aktivitäten bietet. Außerdem ist die CAG territorial die meiste Zeit aufgeteilt, obwohl sie Kräfte an fast jeder Stelle des Globus‘ bündeln kann.

Diese Beobachtung führt zu einem philosophischen Exkurs. Die Kräfte des Chaos‘ und des Totalitarismus‘ (allgemein bekannt als die Linke) können über Staatsgrenzen hinweg viel einfacher zusammenarbeiten als die „Guten“. Wir respektieren die nationale Souveränität eines jeden Landes, genauso wie wir individuelle und staatliche Rechte respektieren. Dieser Respekt ist ein inhärentes Hindernis, vor dem die „Guten“ bei der transnationalen politischen Kooperation stehen. Aber Chaos ist überall Chaos; es kennt keine nationalen Grenzen. Die Anhänger der globalen Regierung und kompatible totalitäre Systeme verletzen nationale Souveränitäten absichtlich. Sie arbeiten auf einfache Weise im globalen Maßstab zusammen. Die modernen Massenmedien erlauben es Climintern und ähnlichen Mächten, sofort Unterstützer und unschuldige Zuschauer auf der ganzen Welt zu mobilisieren und sie gegen jedes Land, jede politische Partei oder sogar ihnen im Wege stehende Individuen in Stellung zu bringen. Ihre beispiellose Einmischung gegen Donald Trump und die Kandidaten der Republikaner für den Kongress bei den Wahlen des Jahres 2016 ist das jüngste Beispiel.

V. Schlussfolgerungen

Ich möchte zu einem größeren Verständnis der Bedrohung durch den Klima-Alarmismus (hier) beitragen. Ich befürworte nicht Bombardierungen, Schusswechsel oder irgendeine andere Maßnahme militärischer Natur. Aber der Feind ist real, entschlossen und klug, und einige seiner Komplizen haben kaum etwas zu verlieren. Wissenschaftliche Fehler und der Wunsch, armen Ländern zu helfen, spielten eine Rolle bei der Einvernahme guter Menschen für diesen schlimmen Zweck, nichts weiter. Der Feind ist motiviert durch seine Gier nach Macht, Geld und Hass. Die Wahlergebnisse geben uns eine Chance in diesem Kampf, sichern aber noch nicht den Sieg. [Hoffentlich kann man Ähnliches auch von den Wahlergebnissen bei uns im Herbst sagen! Anm. d. Übers.].

(1) Der Autor ist Kläger in einem Zivilprozess unter dem RICO gegen diese Organisationen.

(2) Ein Satz von Google-Suchbegriffen auf der Haupt-Website von Greenpeace, limitiert auf einen militärischen Ausdruck in Verbindung mit den Wörtern Klima oder Erwärmung (Beispiel: war site:greenpeace.org climate OR warming)erbrachte am 1.1.2017 die folgenden Ergebnisse:

Revolution: 13,100 results

Fight: 6,450

Strategy: 4,470

Blockade: 4,200

War: 3,700

Battle: 2,640

Combat: 1,510

Mobilization: 1,310

Action: 34,500 (the most generic one)

“Denial” is a separate subject:

Denial: 4,580

Deniers: 2,910

Denier: 2,220

Link: https://wattsupwiththat.com/2017/01/05/is-climate-alarmism-governance-at-war-with-the-usa/

Übersetzt von Chris Frey EIKE




Dokumentation der globalen Aus­dehnung der Mittelalter­lichen Warm­zeit

Planbeschreibung für die MWP

Ich verwende zur Kartografierung der MWP die von Dr. Sebastian Lüning und Fritz Vahrenholt erstellte Karte, um die globale Ausdehnung der MWP zu etablieren. Dessen Erstellung war ein ansehnliches Unterfangen, das ich sogar für preiswürdig halte.

Bei Research Gate schreibt Lüning:

Das Projekt hat zum Ziel, alle veröffentlichten Studien über die Mittelalterliche Klima-Anomalie im weltweiten Maßstab zu erkennen, zu erfassen und zu interpretieren. Die Daten werden visualisiert mittels einer frei zugänglichen Online-Karte: http://t1p.de/mwp.

Ich zeige einen Screenshot des Projektes in Abbildung 1, aber ich empfehle, sich die Online-Version bei http://t1p.de/mwp anzuschauen, weil sie eine Vielfalt von Daten enthält einschließlich Abstracts und Links zu den individuellen Studien-

(Anmerkung von Anthony Watts: Bei mir funktioniert dieser Kurzlink nicht. Unabhängig davon fand ich diesen Link zu einem Google-Map-Dokument, das bei manch einem besser gehen könnte).

Abbildung 1: Screenshot des MWP-Mapping-Project (Quelle: Lüning http://t1p.de/mwp, heruntergeladen am 27. Dezember 2016)

Ein erster oberflächlicher Blick auf Abbildung 1 zeigt, dass es eine große Anzahl von warm study locations gibt, die über die ganze Welt verteilt sind. Um jedoch die globale Anzahl der Warm-Kalt-Neutral-Trocken-Nass-Studien zu bestimmen, habe ich die kartierten Daten der 934 Studien heruntergeladen, die am 30. Dezember 2016 verfügbar waren, und habe diese in Abbildung 2 zusammengefasst:

Abbildung 2: Ergebnisse des MWP-Mapping-Project (Quelle: Lüning http://t1p.de/mwp, heruntergeladen am 30. Dezember 2016)

Folgende Beobachtungen lassen sich in Abbildung 2 erkennen:

a) Die Anzahl von Warm-Studien (497) liegt eindeutig viel höher als die Anzahl der anderen Studien und macht 53% aus, wenn man Temperatur- und Hydroklima-Daten heranzieht, und 88%, wenn nur Temperaturdaten herangezogen werden.

b) Die Anzahl von Kalt-Studien (18) ist sehr gering, anteilmäßig 2 bis 3% der anderen Studien.

c) Die Anzahl der Neutral-Studien (53) ist vergleichsweise klein, etwa 6 bis 9% aller Studien.

d) Die Anzahl von Studien, in denen es nur um hydroklimatische Daten geht, ist nicht signifikant. Die Anzahl der Trocken-Studien (184) bzw. der Nass-Studien (182) macht 20% bzw. 19% aller Studien aus.

Zusammengefasst: Die überwältigenden Beweise des MWP Mapping Project von Lüning bis heute zeigen, dass es während der MWP global warm war, aber es wird nicht sofort klar, wie ,warm‘ hier definiert ist.

Beschreibungen von warm oder kalt werden in den individuellen Studien geliefert. Zum Beispiel haben Kuhnert & Mulitza (2011: GeoB 9501) festgestellt, dass (Auszug aus Lüning):

es während der Mittelalterlichen Warmzeit von 800 bis 1200 etwa 1,1°C wärmer war (50-Jahre-Mittel) als während der nachfolgenden Kleinen Eiszeit“.

Während diese Beschreibung nützlich ist, erlaubt sie keinen Vergleich der MWP-Temperaturen mit denen der modernen Warmzeit. Daher vergleiche ich im Folgenden heutige Temperaturen mit denen während der MWP.

Wie warm war es während der MWP?

Viele der Literaturhinweise im MWP Mapping Project von Lüning werden auch in Ljungqvist (2010) erwähnt, so dass man Letztere heranziehen kann, um die Temperaturen auf der Nordhemisphäre NH während der MWP abzuschätzen.

Anmerkung: Ich habe die Ljungqvist (2010) NH-Studie herangezogen, weil ich die Daten bereits auf meinem Laptop verfügbar hatte. Natürlich können geneigte Leser ähnliche Verfahren mittels der von ihnen bevorzugten Studien durchführen, um geeignete Daten der globalen nordhemisphärischen Temperaturen abzuleiten, um diese mit den heutigen Temperaturen zu vergleichen.

Ljungqvist veröffentlichte seine Daten zusammen mit seiner Studie (das sollten andere Klimawissenschaftler auch tun), und Abbildung 3 zeigt meine Version der Ljundqvist-Karte (reproduziert unter Verwendung seiner Daten). Ich habe die Karte auch derart aufbereitet, dass man frühere Warm- und Kaltperioden zeigen kann.

Abbildung 3: Abschätzung der dekadischen mittleren Temperaturvariationen auf der außertropischen Nordhemisphäre (30° bis 90°N) (nach Ljungqvist 2010)

Anmerkungen zu Abbildung 3:

a) Alle Werte sind dekadische Mittelwerte.

b) Proxy-Temperaturen werden durch die dicke schwarze Linie dargestellt relativ zum Mittel 1961 bis 1990 der gemessenen Temperaturen aus der Varianz-adjustierten [?] CRUTEM3+HadSST2 90-30°N-Aufzeichnung.

c) Zwei Fehlerbalken der Standardabweichung sind hellgrau schattiert dargestellt.

d) CRUTEM3+HadSST2-Daten der instrumentellen Temperaturen werden in der roten Linie gezeigt.

Die folgenden Beobachtungen gehen aus Abbildung 3 klar hervor:

a) Die Temperatur der MWP war höher als die Proxy-Temperatur der Modernen Warmzeit – zu keiner Zeit liegen die modernen Proxys höher als die MWP-Proxys.

b) Die jüngste instrumentelle Temperatur liegt höher als die MWP-Temperatur.

c) Die MWP ist offensichtlich präindustriell, und es wäre logisch, die MWP-Temperatur als präindustrielle Temperatur heranzuziehen anstatt die der Kleinen Eiszeit LIA, wie es das Klima-Establishment so gerne tut.

Die Beobachtungen a) und b) haben Ljungqvists Kommentare zur Grundlage. Er führt aus (Hervorhebung hinzugefügt):

…die Mittelalterliche Warmzeit vom 9. bis zum 13. Jahrhundert scheint über dem mittleren Temperaturniveau von 1961 bis 1990 der außertropischen Nordhemisphäre zu liegen oder genauso hoch zu sein.“

Er fügte eine Mahnung zur Vorsicht hinzu (Hervorhebung zugefügt):

Seit dem Jahr 1990 jedoch gehen die mittleren Temperaturen auf der außertropischen Nordhemisphäre über diejenigen jeder anderen Warmphase der letzten zwei Jahrtausende hinaus, selbst über den Spitzenwert der MWP, falls man allein die instrumentellen Temperaturdaten betrachtet unabhängig von der Proxy-Rekonstruktion. Allerdings muss dieser scharfe Temperaturanstieg im Vergleich zur Magnitude der Wärme in früheren Warmzeiten sehr vorsichtig interpretiert werden, da er in der Proxy-Reproduktion selbst nicht auftaucht“.

Betrachtet man die Vorsichts-Anmerkung von Ljungqvist sowie Punkt b) oben, ist der Vergleich instrumenteller Temperaturen mit jenen aus Proxys abgeleiteten kein „Äpfel-mit-Äpfeln-Vergleich“, weil Proxy-Temperaturen gedämpft (abgeflacht) erscheinen, während Thermometeranzeigen sehr rasch auf Temperaturänderungen reagieren.

Ljungqvist beschreibt die abgeflachten Proxy-Temperaturen folglich so (Hervorhebung hinzugefügt):

Die Unsicherheit bei der Datierung von Proxy-Aufzeichnungen führt sehr wahrscheinlich zu einem „Abflachen“ der Werte des gleichen Klima-Ereignisses über viele hundert Jahre, so dass folglich in Wirklichkeit ein Lowpass-Filter angebracht wird, der es uns unmöglich macht, die wirkliche Amplitude von Kalt- und Warmzeiten zu erfassen … was wir stattdessen bekommen ist ein Mittel der Temperatur über ein oder zwei Jahrhunderte“.

Allerdings ist die Abflachung von Proxy-Aufzeichnungen nicht das einzige Problem, wenn man Proxys mit instrumentellen Temperaturen vergleicht – da gibt es auch das „Divergenz-Problem“. Wir untersuchen dieses für die Ljungqvist’sche Kalibrierungs-Periode von 1850 bis 1989 in Abbildung 4:

Abbildung 4: Vergleich von Proxy- und instrumentellen dekadischen mittleren Temperaturvariationen (nach Ljungqvist 2010)

Die dekadische Korrelation (r = 0.95, r² = 0.90) zwischen Proxy- und instrumenteller Temperatur ist während des Kalibrierungs-Zeitraumes von 1850 bis 1989 sehr hoch. Man beachte jedoch, dass die instrumentelle Temperaturspitze zwischen 1990 und 1999 nicht in der Kalibrierung herangezogen ist. Möglicherweise weil Abbildung 4 zeigt, dass der instrumentelle Temperatur-Spitzenwert 0,39°C für den Zeitraum 1990 bis 1999 beträgt, während der Proxy-Temperaturspitzenwert nur 0,06°C beträgt – eine Differenz von 0,33°C.

Diese Divergenz liegt außerhalb der beiden Fehlerbalken der Standardabweichung von ±0.12°C, wie sie von Ljundqvist angeführt worden sind, und es illustriert das Divergenz-Problem in einer Nussschale – Proxys folgen den jüngsten hohen instrumentellen Temperaturen nicht. Der Grund für diese Divergenz ist, dass die Proxy-Reaktion möglicherweise nicht linear ist anstatt der linearen Reaktion, von welcher in allen Klima-Rekonstruktionen bis auf den heutigen Tag ausgegangen wird.

Ljungqvist erklärt die Nichtlinearität (Hervorhebung hinzugefügt):

Ein Umstand, der möglicherweise zu einer Unterschätzung der wahren Variabilität geführt hat ist, dass wir eine lineare Reaktion im Voraus annehmen müssen zwischen Temperatur und Proxy. Falls diese Reaktion ihrer Natur nach nichtlinear ist, was wahrscheinlich oftmals der Fall ist, müssen unsere Interpretationen logischerweise falsch werden. Dies ist etwas, das zu einer Unterschätzung der Amplitude der Variabilität führen kann, welche außerhalb der Bandbreite von Temperaturen während der Kalibrierungs-Periode liegt“.

Als Bauingenieur stimme ich Ljungqvist zu, dass Nichtlinearität oftmals bei Proxys der Fall ist. Die meisten natürlichen Materialien, Bauholz, Steine usw., zeigen nichtlineares Verhalten. Allerdings ist es schwierig, dies in Worten zu erklären, weshalb ich dieses Konzept graphisch in Abbildung 5 erkläre:

Abbildung 5: indikative nichtlineare Reaktion für ein Temperatur-Proxy.

Der Deutlichkeit halber zeige ich den positiven Teil der Temperatur-Reaktion in Abbildung 5, aber man sollte nicht vergessen, dass es dabei eine entsprechende negative Reaktion gibt. Ich erkläre Abbildung 5 wie folgt:

a) Die Linie OAB repräsentiert die lineare Proxy-Reaktion der Temperatur, die gegenwärtig in Rekonstruktionen verwendet wird. Parameter P1 ergibt eine Temperatur T1 (via Punkt A), und die Reaktion nimmt linear zu, so dass Parameter P2 eine höhere Temperatur T2 anzeigt (via Punkt B).

b) Die Linie OACD repräsentiert die indikative nichtlineare Proxy-Reaktion auf die Temperatur. Parameter P1 liegt im linearen Teil der Kurve und ergibt daher die gleiche Temperatur T1 wie die in a).

c) Zusätzlich zu Punkt b) liegt der Parameter am Punkt C im nichtlinearen Teil der Kurve, was in der Temperatur T2 resultieren würde, welche signifikant höher ist als der aus der linearen Reaktion via Punkt A abgeleitete Wert von T1.

Zusammengefasst: Eine nichtlineare Reaktion von Proxy-Temperaturen kann zu zwei Temperaturwerten für einen einzelnen Proxy-Wert führen. Dies könnte problematisch bei der Entscheidung sein, welchen Temperaturwert man denn nun nehmen soll.

Allerdings kann für derzeitige Temperaturen die nichtlineare Reaktion des Proxys kalibriert werden gegen die instrumentelle Messung. Zum Beispiel, falls die Temperaturergebnisse in Abbildung 4 für einen einzelnen Proxy gelten würden, könnte man das folgende Verfahren anwenden:

a) Die nichtlineare Kurve würde kalibriert werden, so dass die Temperatur T1 = 0,08°C im linearen Teil der Kurve in Abbildung 5 liegen würde.

b) Die Temperatur T2 = 0,39°C würde so kalibriert werden dass sie im nichtlinearen Teil der Kurve in Abbildung 5 liegen würde.

Man beachte, dass die in Abbildung 4 verwendete lineare Reaktion T2 = 0.06°C zeigt, dass aber das Nichtlineare-Reaktion-Verfahren die Kalibrierung T2 = 0.39°C erlauben würde. Diese Art der nichtlinearen Kalibrierung würde bedeuten, dass historische Temperaturen höher liegen als jene, die geschätzt werden mittels einer linearen Proxy-Temperatur-Reaktion.

Außerdem ist die Kalibrierung in heutiger Zeit relativ einfach, weil wir Proxys vergleichen können mit instrumentellen Temperaturen, um festzustellen, welcher Temperaturwert korrekt ist, T1 oder T2. Allerdings sind historische Temperaturen problematischer, weil wir über viele tausend Jahre keinerlei instrumentelle Aufzeichnungen haben, um den korrekten Temperaturwert zu bestimmen, T1 oder T2. Nichtsdestotrotz können wir die korrekte Temperatur abschätzen, indem wir eine entsprechendes Verfahren wie dasjenige anwenden, welches Erdbeben-Ingenieure vornehmen, wie im Folgenden erklärt.

Erdbebenforscher entwerfen routinemäßig Strukturen für 1 seismisches Ereignis innerhalb von 500 Jahren und für eine spezielle Struktur (zum Beispiel Kernkraft-Einrichtungen) für 1 seismisches Ereignis in 5000 Jahren. Allerdings standen ihnen Seismographen-Messungen der Stärke von Erdbeben erst seit 1935 zur Verfügung, zu welchem Zeitpunkt Charles Richter diese Skala entwickelte. Erdbebenforscher lösen dieses Dilemma des kurzen Zeitraumes instrumenteller Messungen, indem sie historische Beschreibungen seismischer Ereignisse auswerten.

Zum Beispiel: die historische Aufzeichnung eines Erdbebens könnte eine Beschreibung enthalten wie „die Erde kochte“. Diese buchstäbliche Beschreibung bedeutet nicht, dass die Erde tatsächlich den Siedepunkt erreicht hatte. Sondern sie bedeutet, dass das Grundwasser in der Erde Blasen bis an die Oberfläche geschlagen hat – ein Prozess, der als Verflüssigung der Erde bekannt ist. Erdbebenforscher können dann diese Beschreibung heranziehen, um die Stärke der Erschütterungen zu schätzen, die zu der Verflüssigung führten, woraus sich die Stärke des Erdbebens an jener Stelle abschätzen lässt.

In der Klimawissenschaft könnte ebenfalls der richtige Temperaturwert T1 or T2 abgeschätzt werden, und zwar aus historischen Beschreibungen der Änderung der Vegetation, menschlicher Wohnorte usw. Zum Beispiel, falls unser Proxy in Grönland liegen würde, sind die folgenden Ergebnisse möglich:

a) Falls das Land zum Zeitpunkt des Proxys im Permafrostbereich liegen würde, dann würde man die niedrigere Temperatur T1 heranziehen.

b) Falls das Land von den Wikingern zum Zeitpunkt des Proxys kultiviert worden wäre (d. h. kein Permafrost), würde man die höhere Temperatur T2 heranziehen.

Obiges nichtlineare Verfahren würde offensichtlich mehr Arbeit für Paläo-Wissenschaftler bedeuten im Vergleich zu den gegenwärtigen linearen Kalibrierungs-Verfahren, aber von Erdbebenforschern wird diese Arbeit wird routinemäßig geleistet.

Zusätzlich wären aktuelle Proxys aus der Zeit nach dem Jahr 2000 nützlich für die Abschätzung, falls die Divergenz zwischen Proxys und instrumentellen Messungen zugenommen hat. Die Proxys würde auch eine genauere nichtlineare Kalibrierung der Proxy-Temperaturen ermöglichen, sagen wir, Punkt D in Abbildung 5. Seltsamerweise scheint es im Klima-Establishment starken Widerstand gegen die Veröffentlichung aktueller Proxys zu geben.

Der Gebrauch einer nichtlinearen Proxytemperatur-Reaktion würde in historisch hohen Temperaturen resultieren, wobei die hohen Temperaturen noch höher und die niedrigen Temperaturen noch tiefer berechnet werden.

Conclusions

Eine Übersicht der globalen Ausdehnung der MWP wird präsentiert und führt zu folgenden Ergebnissen:

1. Die MWP war ein globales Ereignis, und eine große Anzahl von Studien zeigt, dass Erwärmungsereignisse überwältigend häufiger als Kaltereignisse aufgetreten waren.

2. Allerdings würde die nicht unbedeutende, während der MWP aufgezeichneten Anzahl von Trocken- oder Nass-Ereignissen im MWP Mapping Project zeigen, dass vielleicht die Mittelalterliche Klima-Anomalie eine bessere Bezeichnung wäre als die MWP.

3. Die Temperaturen der Nordhemisphäre waren mindestens genauso hoch wie die instrumentellen Messungen im Zeitraum 1980 bis 1989.

4. Jüngste instrumentelle Temperaturmessungen zeigen höhere Temperaturen, wenn man sie mit MWP-Proxys vergleicht. Allerdings sollten instrumentelle Temperaturen nicht direkt verglichen werden mit Proxy-Temperaturen, weil dies kein Äpfel-mit-Äpfel-Vergleich ist. Proxy-Temperaturen werden im Zeitmaßstab von Jahrzehnten oder noch größeren abgeflacht.

5. Jüngste Proxy-Aufzeichnungen divergieren von instrumentellen Temperaturen – Thermometer zeigen höhere Werte, wenn man sie mit Proxys vergleicht.

6. Das Divergenzproblem in Punkt e) oben ist möglicherweise einer linearen Proxy-Temperatur-Reaktion geschuldet, von der in gegenwärtigen Temperatur-Rekonstruktionen ausgegangen wird. Eine nichtlineare Reaktion von Proxy-Temperaturen würde genauere Ergebnisse bringen bzgl. historisch hoher und niedriger Temperaturen sowie eine bessere Korrelation mit jüngsten instrumentellen Daten zeitigen.

Bis es eine gute Korrelation zwischen instrumentellen Temperaturen und Proxys gibt, kann kein seriöser Wissenschaftler definitiv feststellen, dass die gegenwärtigen Temperaturen die höchsten jemals seien.

Nachwort

Hinsichtlich des 2°C-Limits seitens des Klima-Establishments klingt die folgende Aussage (getroffen aufgrund der in diesem Beitrag präsentierten Fakten) längst nicht so alarmierend wie gegenwärtig von den Medien kolportiert:

Wir wissen, dass die Präindustriellen MWP-Temperaturen um rund 1°C ohne CO2 über jenen der Kleinen Eiszeit lagen, aber wir glauben auch, dass ein entsprechender Temperaturanstieg von der Kleinen Eiszeit bis zum Zeitraum 1980 bis 1989 durch CO2 verursacht ist. Daher glauben wir, dass wir CO2-Emissionen begrenzen müssen, um einen weiteren (gefährlichen) Anstieg um 1°C zu verhindern. Wir glauben“.

Ich denke, hier geht viel zu viel glauben vor sich und nicht genug echte Klimawissenschaft.

Ein guter Anfang wäre es, nichtlineare Reaktionen von Proxy-Temperaturen heranzuziehen, um genaue historische Höchst- und Tiefsttemperaturen zu etablieren.

Link: https://wattsupwiththat.com/2017/01/03/documenting-the-global-extent-of-the-medieval-warm-period/

Übersetzt von Chris Frey EIKE




Drei-Königs Sternsinger Aktion 2017 gegen Klima­wandel-Auswir­kungen in Kenia: Seit 5000 Jahren besteht dort ein ununter­brochener Trend zum heutigen Klima, doch seit Kurzem ist der Westen daran schuld

[10] Aktion Dreikönigssingen 20*C+M+B, Begleitheft: Willi in Kenia

Doch die Turkana sind in Gefahr. Schuld daran ist der Klimawandel. Zwar war der Norden Kenias schon immer sehr trocken, und Dürren machten es oft schwierig, hier zu leben. Doch früher konnten sich die Turkana wenigstens auf regelmäßige Regenzeiten verlassen.
Der Klimawandel hat alles durcheinandergebracht. Jetzt regnet es in der Turkana nur noch sehr selten und in manchen Jahren gar nicht mehr – eine echte Katastrophe.
… Er ist Fischer am Turkanasee. Der See schrumpft von Jahr zu Jahr, und es gibt immer weniger Fische. … Der Begriff Klimawandel beschreibt eine langfristige Veränderung: Eigentlich ist das ganz normal und passiert seit der Entstehung der Erde immer wieder. Das Besondere am jetzigen Klimawandel ist, dass er von Menschen verursacht wird und sehr schnell vonstatten geht.

Auch die Homepages verschiedener Diözesen und Zeitungen berichteten, warum Spenden dafür so wichtig ist:
Erzdiözese München und Freising: Sternsingeraktion 2017: Beispielland Kenia leidet unter Klimawandel
… Der Regen lässt auf sich warten, nicht einmal genieselt hat es in den vergangenen Wochen. Ohne den Brunnen und die Tränke in Kabosan, die dank der Hilfe der Sternsinger von einem Wassertank gespeist werden, wäre das Überleben der Menschen und Tiere der gesamten Umgebung gefährdet.
Traditionell lebten die meisten Turkana als Nomaden. Doch der Klimawandel zwingt die Menschen, ihre Lebensgewohnheiten zu ändern. Sie werden zunehmend sesshaft, und zwar vor allem dort, wo es Überlebenshilfen gibt – Wasser, Nahrungsmittel, medizinische Versorgung – wie zum Beispiel hier im Kokuselei-Tal.
… Warum es kaum mehr regnet, das wissen weder sie noch ihr Vater. Das Wort „Klimawandel“ gibt es in ihrer Sprache nicht.
HOHENZOLLERSCHE ZEITUNG: Sternsinger unterstützen mit ihrer Aktion Familien in Kenia
Die Menschen dort haben kaum etwas zum Klimawandel beigetragen, müssen aber trotzdem mit den schlimmen Folgen leben.

Und wieder macht sich der Autor auf die Suche, anhand von Daten nachzusehen, ob hier nicht wieder Wetter mit Klima verwechselt wird, und vor allem auch, ob es nicht zudem andere Einflüsse geben könnte, die solche Probleme verursachen. Denn bei seinen vielen, bisherigen Recherchen nach unbestechlichen Klimawandel-Einflüssen hat er noch keinen stichhaltigen gefunden, dafür aber jede Menge Belege, dass jeder Cent, der zur CO2-Vermeidung ausgegeben wird, eine nutzlose, schlimmer, die wirklichen Problemlösungen verhindernde Ausgabe ist.

Ost-Afrika mit Kenia ist schon seit Jahren ein oft bemühtes Klimawandel-„Menetekel“

kaltesonne: Im Juni 2012 verbreitete dpa via Die Zeit eine fragwürdige Meldung von Unicef, in der ostafrikanische Dürren als Folge der menschengemachten Klimakatastrophe gedeutet werden
… Besonders drastisch sei die Situation in Afrika. «Die Krise am Horn von Afrika war keine bloße Naturkatastrophe», heißt es im Report. Bedingt durch den Klimawandel wiederholten sich die Dürreperioden jetzt alle zwei bis drei Jahre. Wassermangel erhöhe die Gefahr von Auseinandersetzungen – bis hin zu bewaffneten Kämpfen.
Wenige Monate später erschien im Fachmagazin Nature eine bemerkenswerte Publikation, in der gezeigt werden konnte, dass die Häufigkeit von Dürren in Ostafrika eng an die Entwicklung langmaßstäblicher Ozeanzyklen gekoppelt ist (siehe unseren Blogartikel „Neue Studie in Nature: Ostafrikanischer Dürretrend Teil eines natürlichen Zyklus“). Und auch die zweite Unicef-Behauptung entpuppte sich schnell als falsch (siehe: “Studie der University of Colorado verneint die Hypothese von Klimakriegen in Ostafrika“).
Auch die Diakonie Katastrophenhilfe versuchte die Dürre in Somalia dem Klimawandel anzulasten. Der
Deutschlandfunk berichtete im Juli 2012 ausgiebig darüber. Allerdings widerspricht sich der Artikel letztendlich selber. Der Deutsche Wetterdienst wird vom Radiosender befragt und erläutert, dass die Dürre mit einer La Nina-Wetterlage bzw. Ozeanzyklen zu tun hat:
Eine Expertise des kenianischen Wetterdienstes verzeichnet für das vergangene Jahr im Nordosten Somalias zwischen Juni und Juli Niederschläge von gerade einmal 200 Millimeter im Durchschnitt. In normalen Jahren sind die Niederschlagsmengen dreimal so hoch. Doch meteorologisch normale Jahre hat es in Somalia seit fast einem Jahrzehnt nicht mehr gegeben, erklärt Christiana Lefebre vom Deutschen Wetterdienst Hamburg. So sei die Wetterlage in Ostafrika, speziell in Somalia 2011 extrem gewesen. Lang anhaltender Dürre folgten heftige Regenfälle und Überschwemmungen: “Diese La-Ninja-Phase, die hat sich dort im letzten Jahr ausgewirkt. Die ist einfach mit einer Dürre dort verbunden. Die klimatologische Situation ändert sich dort, und jetzt haben wir eine neutrale Phase, sodass dort die Zirkulation wieder ganz normal ist.”

Kenia

Historische Wetterdaten

Um vom Wetter unabhängig zu werden, muss man langfristige Verläufe betrachten. Zum Glück liegen solche für Ostafrika vor.
Zuerst Daten des historischen Niederschlagsverlaufs am Viktoriasee, der an Kenia grenzt (Bild 1 [4]). Seit dem Beginn der Messungen in dieser Gegend ist kein Trend-Einfluss eines Klimawandels erkennbar (die Rekonstruktionen basieren auf wirklichen Niederschlagsmessungen, also nicht auf Proxirekonstruktionen).

Bild 1 Historischer Niederschlagsverlauf am Viktoriasee ab ca. 1930. Quelle: [4] Fig. 7 Total rainfall (annual, March–May, and October–December) (continuous line) for the study stations with the average (dash-dash line) and the 5 year moving average (dash-dot line) superimposed. The lower panel shows the number of stations used to compute the mean
Nun Daten der Weltbank über Kenia. Sie ergeben ein ähnliches Bild. Wie bereits am Viktoriasee, ist der Niederschlag im Mittel eher historisch hoch, auch bei den niedrigen Werten, die Temperatur ist wie schon im Jahr 1900, nur das 30-Jahre-Mittel ist um 0,5 Grad höher (Bild 3).

Bild 2 Kenia Regenmenge (Monatsauflösung) und Regen-Jahresmittelwert von 1900 – 2012. Quelle: Weltbank. Grafik vom Autor anhand der Daten erstellt

Bild 3 Kenia 1900 – 2012, Regenmenge (Jahresmittel) und Temperaturwerte: Monatswerte, 30-Jahre Mittelwert. Quelle: Weltbank. Grafik vom Autor anhand der Daten erstellt

Fazit

Auch anhand der Weltbank-Daten ist kein schlimmer Klimawandeleinfluss erkennbar.

Das Klima in Ostafrika in historischer Zeit und davor

Dürren und regereichere Zeiten wechselten sich seit der letzten Eiszeit schon immer ab

Ostafrika – wozu Kenia gehört – hat seit dem Ende der letzten Eiszeit immer Klimaschwankungen durchlitten. Aber niemals bedingt durch CO2-Änderungen in der Atmosphäre, sondern bedingt durch andere Klimatreiber. Auf „kaltesonne“ sind einige Informationen dazu im Archiv nachlesbar.
kaltesonne, 27. Januar 2014 : [2] Neue Studie der Universität Potsdam und des Senckenberginstituts: Sonne verursachte in Kenia während der letzten 15.000 Jahre starke Schwankungen in den Niederschlägen
kaltesonne, 9. Februar 2014: [3] Während der Mittelalterlichen Wärmephase gab es in Ostafrika ähnlich viele Dürren wie heute: Feuchtphase während der Kleinen Eiszeit brachte zwischenzeitliche Entspannung
kaltesonne: Längere Zeitreihen helfen die Auslöser der Dürren in Ostafrika besser zu verstehen. Im Oktober 2013 publizierte eine Forschergruppe um Gijs De Cort von der belgischen Ghent University im Fachjournal Palaeogeography, Palaeoclimatology, Palaeoecology die Dürrehistorie des zentralen kenianischen Rift-Valley. Anhand von Seensedimentuntersuchungen konnten die Wissenschaftler zeigen, dass es in den letzten 1700 Jahren immer wieder dürrereiche und dürrearme Phasen gab, die sich abwechselten. Zur Zeit der Mittelalterlichen Wärmeperiode vor 1000 Jahren gab es längere Trockenphasen. Die feuchteste Phase des gesamten Untersuchungszeitraums ereignete sich während der Kleinen Eiszeit. Offensichtlich wirken sich hier die bekannten tausendjährigen Klimazyklen signifikant auf das Dürregeschehen aus. Momentan sind die globalen Temperaturen wieder auf dem Niveau der Mittelalterlichen Wärmeperiode angelangt, so dass aktuelle, vereinzelte Dürrejahre gut ins Bild passen und keine Überraschung darstellen.

Der Lake Turkana, um den die vom Klimawandel bedrängten Nomaden leben

Der See befindet sich in der heißesten Region Kenias mit stark wüstenhaftem Charakter. Zum Glück finden sich Studien, welche sich mit diesem See, seinen Besonderheiten und dem Umland befasst haben.

Bild 4 zeigt den rekonstruierten Pegelverlauf des Lake Turkana (roter Pfeil) und anderer Seen in Ostafrika. Es überrascht, aber alle Seen zeigen seit ca. 5000 Jahren einen stetigen Pegelabfall, obwohl sich in diesem Zeitraum der CO2-Anteil der Atmosphäre (angeblich) nur um wenige ppm verändert hat. Ost-Afrika befindet sich demnach in einer vor 5.000 Jahren begonnenen, natürlichen „Austrocknungsphase“. Das ist eindeutig Klimawandel, aber ohne dem „AGW“ (vom Menschen emittiertes CO2) als Ursache.

Bild 4 [8] Figure 13. Water level chronologies and constraining ages for lakes adjacent to Lake Turkana. (A) Lake ZiwayShala (Gillespie et al., 1983). (B) Lake Turkana water levels for comparison. Note solid black arrow, which reflects possible spillover from Lake Chew Bahir, with 14C age from Etheria elliptica shells. (C) Lake Suguta water levels, with 14C ages corrected for a ~1.9 ka carbon reservoir effect (Garcin et al., 2009; Junginger et al., 2013). (D) Radiocarbon ages on shells from Lake Baringo (Williams and Johnson, 1976). (E) Lake Nakuru water level chronology based on diatom assemblages (Richardson and Dussinger, 1987). Blue shaded areas reflect periods of spillover. All ages calibrated by Fairbanks et al. (2005).
Dass der Turkana-See auch kurzfristig enorme Pegelschwankungen aufweist, zeigt das folgende Bild 5.Und dieses zeigt auch, dass der aktuelle Pegelstand höher ist als um 1950 und dass die Reduzierung weit vor der „schlimmen“ Klimawandel-Phase (ab ca. 1990) im extremen Ausmaß begann.

Bild 5 [9] Turkana See, Pegelverlauf seit ca. 1890
In einer Studie für die Afrikanische Entwicklungsbank sind die Klimaverhältnisse in einem Teil des Einzugsgebietes des Turkana-Sees (Einzugsgebiete liegen in Äthiopien) beschrieben. Ergebnis: Auch dort ist kein AGW-Klimawandel-Einfluss feststellbar. Kein Trend lässt sich einem Klimawandel zuordnen.

African Development Bank, Tunis: [9] Interesting studies have been done on long-term rainfall trends in Ethiopia. Data from 1960 to 2008 was analysed, for instance, with the findings below reported (Cheung et al, 2008)
“…Overall…there are no significant changes or trends in annual rainfall at the national or watershed level in Ethiopia…” “…Many of the contradictions in previous findings on trends and climatic extremes in Ethiopia may be explained by the arbitrary division of the study area as well as the quality of the data…” ..“…It is unclear whether climate change is driving any systematic trends in Ethiopia’s rainfall ,,,
.

Bild 6 Langfristiger Niederschlagsverlauf in einem Teil des Einzugsgebietes (Äthiopien) des Turkana-Sees. Quelle: [9] Figure 42: Annual rainfall variation in the Omo Basin at three selected stations (1955-2008) (Source: Monthly data obtained from NMSA, Addis Ababa)

Gibt es dann weniger Ernten durch den Klimawandel?

Bild 8 zeigt die auf den Startwert von 1961 normierten Verläufe für Getreideprodukte und die Haupt-Reissorte, sowie die Bevölkerungsentwicklung. Da sich beim Normieren zeigt, dass die Erntedaten von Korn und Reis relativ gesehen identisch verlaufen, muss man an der Datenqualität stark zweifelt, für eine Plausibilisierung sollten sie aber ausreichen.
Erkennbar ist, dass die Erträge seit ca. 1980 nicht mehr zunehmen, aber auch auf keinen Fall „Klimawandel“-bedingt weniger werden. Die Produktionsmengen sind stark gestiegen, erreichen die Zunahme der Bevölkerungszahl aber bei Weitem nicht.
Damit sind aber auch die Probleme offensichtlich: Während weltweit die Erträge seit 1961 um mehrere 100 % gestiegen sind (Bild 9), stagnieren diese in vielen ostafrikanischen Ländern. Als Folge wird extrem viel zusätzliche Fläche zur Produktionssteigerung benötigt. Parallel wächst die Bevölkerung jedoch überproportional.

Bild 7 Kenia, Landwirtschaftsdaten und Bevölkerungsentwicklung normiert auf das Jahr 1961. Vom Autor aus den Daten bei catfish erstellt

Bild 8 Kenia, auf den Startwert von 1961 normierte Daten: Getreide, geschliffener Reis, Bevölkerung. Quelle: factfish, Grafik vom Autor anhand der Daten erstellt

Bild 9 Weltweite Produktionen von Kornprodukten seit 1961. Quelle: kaltesonne: Weshalb steigt die globale Weizenernte immer weiter an, obwohl der Weizen doch angeblich vom Klimawandel bedroht ist?

Die Politik trifft keine Schuld?

Man hat den Eindruck, auf der Welt gibt es kein Ereignis oder Problem mehr, für das nicht der Klimawandel verantwortlich gemacht wird, obwohl es in aller Regel viele andere Gründe gibt.
Das ist in Deutschland so, wo die dpa über Weihnachten meldete, die Flut in Simbach wäre ein 1000-jähriges Flutereignis gewesen, obwohl dort eindeutig ein dilettantisch gebauter Tal-Querdamm wegen Verstopfung des Abflusses brach, die Regenmengen selbst bei Weitem nicht die höchsten in der jüngeren Zeit waren und sich dort nachweislich alle Jahrzehnte wiederholen. In den Dritte-Welt Ländern, die zunehmend auf Geld aus dem Klimafond spekulieren, ist es noch viel schlimmer.

d.i.e, 10.10.2011: [5] Die nächste Hungersnot kommt bestimmt
Die betroffenen Gebiete in Ostafrika sind in fast jeder Hinsicht randständig. Kennzeichnend für diese ariden und semi-ariden Landstriche ist eine geringe landwirtschaftliche Produktion als Folge schwacher und unregelmäßiger Niederschläge.
Schuld ist immer die Dürre
Aufgrund der erwähnten Grenzlage und der generellen Vernachlässigung ist Dürre oft gleichbedeutend mit Nahrungsmittelkrise. Klimabedingt sind Dürren in dieser Region jedoch normal – ein häufiges Phänomen, mit dem immer gerechnet werden muss. Hinzu kommt, dass der Klimawandel Häufigkeit, Schwere und Ausmaß von Dürren aller Voraussicht nach steigern wird. Obwohl dies bekannt ist und es funktionierende Frühwarnsysteme gibt, sind Regierungen entweder unvorbereitet oder unfähig, angemessen zu reagieren.
Die anhaltende dürrebedingte Hungersnot in Ostafrika ist ein Beispiel hierfür: die betroffenen Regierung wurden frühzeitig vor der drohenden Krise gewarnt. Trotzdem trafen sie nur unzureichende und unwirksame Vorbereitungen (siehe „Die aktuelle Kolumne“ vom 22. August 2011). Welchen Wert haben Frühwarnsysteme, wenn diejenigen, die reagieren sollten, nichts oder zu wenig tun? Wie weit und wie lange noch soll die Schuld für anhaltende Ernährungsunsicherheit angesichts
solcher Untätigkeit den Dürren in die Schuhe geschoben werden? (Siehe „Die aktuelle Kolumne“ vom 25. Juli 2011)
Wahrscheinlich wird die Weltbank Gelder für ein wichtiges Projekt zur Dürrerisikosteuerung und Ernährungssicherung, das seit 1996 im Norden Kenias umgesetzt wird, einfrieren. Grund dafür sind massive Korruption und betrügerische Geschäfte in ca. 29 Prozent der derzeit geprüften Fälle

d i e, 22.08.2011: [7] Die Hungerkrise in Ostafrika – welche Rolle spielen der Klimawandel und die jahrelange Vernachlässigung der Landwirtschaft?
Klimaschwankungen treffen auf fehlende Entwicklung und Marginalisierung
… Ein Großteil der betroffenen Menschen sind Nomaden, deren Wandermöglichkeiten immer mehr eingeschränkt werden, so dass sie mit ihren Herden nicht mehr so einfach in Regionen mit Wasser und besseren Weiden ziehen können.
Durch Klimaveränderungen und Übernutzung werden die nutzbaren Flächen und verfügbaren Wassermengen immer kleiner, während gleichzeitig die Zahl der Menschen, die von diesen Ressourcen leben müssen, weiter wächst – Konflikte sind vorprogrammiert. Im Grenzgebiet zwischen Äthiopien und Kenia kommt es immer häufiger zu Kämpfen zwischen verschiedenen Stämmen, da der
Lake Turkana durch zunehmende Verdunstung immer mehr an Fläche verliert und äthiopische Nomaden auf der Suche nach Wasser die Grenze zu Kenia überschreiten. Durch die dauerhafte Übernutzung der Ressourcen sinkt die in semiariden Gebieten sowieso schon niedrige Produktivität noch weiter.

[13] … JOS: Richtig. Etwas später existierte der Wald größtenteils nicht mehr. Es gibt dort jetzt etliche Teeplantagen und Fabriken, aber die gehören nicht der örtlichen Bevölkerung, sondern großen Leuten aus der Hauptstadt, einflußreichen Politikern.Der Grund, warum man den Leuten gesagt hat, sie dürften den Wald betreten, ist folgender: Der Mau-Wald ist sozusagen ein Wasserturm. Das Wasser fließt von dort in den Naivashasee, den Nakurusee, den Wildpark Maasai Mara und zahlreiche Flüsse. Sie alle werden vom Mau-Wald gespeist. Als aber große Flächen entwaldet wurden und alles zerstört war, hat es aufgehört zu regnen. Prompt setzte ein Aufschrei ein. Alle fingen an zu jammern. Und deshalb wurden die Leute aufgefordert: Ihr müsst den Wald verlassen, geht da raus! Aber das ging von den gleichen Leuten aus, die den Menschen zuvor gesagt hatten, sie dürften den Wald betreten.

Denn Kenias Regierung tut etwas dagegen

Es wird Biotreibstoff angebaut und man möchte am CO2-Zertifikatehandel partizipieren. Zudem werden Nahrungsmittel exportiert. Auch Öko-Energie ist ein wichtiger Klimaschutz-Meilenstein – natürlich vom Westen gefördert. Anmerkung: Mit diesem Kapitel soll nicht der Eindruck erweckt werden, es gäbe in Kenia nicht auch sinnvolle Maßnahmen.

[12] Klimawandel in Kenia: Wie falsche Klimaschutzmaßnahmen das Recht auf Nahrung bedrohen
Die kenianische Regierung hat in den vergangenen Jahren nur unzureichende Klimaschutzstrategien erarbeitet. Eine dieser Strategien stellt die Ausweitung von Anbaugebieten für Energiepflanzen zur Produktion von Agrartreibstoffen dar. Das Tana Delta im Norden Kenias ist eines der für Investitionen dieser Art vorgesehenen Gebiete.
Letztgenannte Maßnahme geht mit der Empfehlung einher, Jatrophaplantagen für die Erzeugung von Agrartreibstoffen in großem Maße in Kenia zu kultivieren, um an den internationalen Emissionsmärkten handeln und den nationalen CO²­Ausstoß durch die Reduzierung der Abhängigkeit von Holzbrennstoffen kompensieren zu können. Der Anbau von Pflanzen für die Agrartreibstoffproduktion führt jedoch zu einer Konkurrenz um Land­ und Wasserressourcen mit der Nahrungsmittelproduktion.
Gleichzeitig setzt die kenianische Regierung zunehmend auf eine Kommerzialisierung der Landwirtschaft, um die Ernährungssicherheit bei anhaltendem Bevölkerungswachstum sicherstellen zu können und um diesen Sektor profitabel und international wettbewerbsfähig zu machen. Nahrungsmittel sollen also verstärkt für den Export produziert werden. In allen Veröffentlichungen der kenianischen Regierung bleibt diese die Antwort auf die Frage schuldig, wie eine Steigerung der Nahrungsmittelproduktion die Ernährung der Bevölkerung sichern kann, wenn gleichzeitig die Konkurrenz zwischen Nahrungs­ und Agrartreibstoffproduktion um Landflächen wächst.

[13] … Auch in einem Gebiet am Turkanasee, in dem ein riesiger Windpark entsteht, für den Investoren aus der Europäischen Union schon mehrere hundert Millionen Euro bezahlt haben, leben Menschen, die nicht gefragt wurden, ob sie mit dem Bau einverstanden sind.

Teile des Westens erzählen diesen Ländern, dass er daran schuld ist und sie deshalb bedingungslosen Entschädigungs-Anspruch haben

d i e, 12.12.2011: [6] Durbans „afrikanischer“ Klimagipfel – Anpassung in Afrika
.. US Chefunterhändler Todd Stern provozierte die Delegierten mit der Behauptung, die Entwicklungsländer seien für eine nicht an Auflagen gebundene Klimaschutzfinanzierung noch nicht bereit. Diese Aussage ist theoretisch ungerecht, denn nach dem Verursacherprinzip handelt es sich bei Anpassungsfinanzierung um Entschädigungszahlungen, und Umweltsünder müssen zahlen – unabhängig davon, was die Empfänger mit dem Geld machen

Was auch so umgesetzt wird:
proplanta, 2009: [11] Afrikaner uneins: Schrille Töne aus Sudan und Simbabwe
Besonders lautstark und schrill formulierten allerdings Politiker jener Staaten, die wegen Menschenrechtsverletzungen am internationalen Pranger stehen. Der Chef-Unterhändler des Sudans, Lumumba Stanislaus Di-Aping, sprach von einer drohenden «Auslöschung von Afrika» und verstieg sich sogar zu einem Vergleich mit dem Holocaust.
Die Afrikaner würden aufgefordert, «ihrem Selbstmord» zuzustimmen, sagte der Sudanese, der auch der Sprecher der Entwicklungsländer (G77) ist. Die Zwei-Grad-Grenze sei der sichere Tod für viele Afrikaner. Kopenhagen stehe für «eine der schlimmsten Entwicklungen bei Klimawandel-Verhandlungen in der Geschichte».
Der international weitgehend geächtete Präsident Simbabwes, Robert Mugabe, schimpfte auf die «kapitalistischen Götter», deren «Karbon-Rülpser» die Menschen in Afrika töteten.
Mugabe war laut der südafrikanischen «Cape Times» mit einer 59-köpfigen Delegation aus dem Hunger leidendend Simbabwe nach Dänemark geflogen.
Vor Beginn hatten die 52 Mitglieder der Afrikanischen Union in seltener Einstimmigkeit von den Industriestaaten eine Reduktion des Kohlendioxid-Ausstoßes um 40 Prozent bis 2020 gefordert. Zudem wurden massive Finanzhilfen verlangt: 0,5 Prozent des Bruttosozialprodukts der reichen Staaten sollten in die Dritte Welt für Maßnahmen gegen den Klimawandel fließen.

Bei dieser Gelegenheit muss wieder einmal das Schreiben der GRÜNEN an die Bewohner der Carteret-Inseln wiederholt werden, um auf diesen Hang westlicher „Eliten“ zur Klimakasteiung auf Kosten ihrer Bürger hinzuweisen und, weil der Autor bisher wirklich noch nichts, auch nur im Ansatz gleich bescheuertes, zum Thema gefunden hat (Anmerkung: Die im Jahr 2015 wegen dem Westen untergehende Insel gibt es heute immer noch).

Liebe Bewohnerinnen und Bewohner der Carteret-Inseln,

Bild 10 Logo zum Wahlbrief der GRÜNEN. Quelle: Homepage, Briefe zur Wahl: BÜNDNIS 90/DIE GRÜNEN an die Bewohnerinnen und Bewohner der Carteret-Inseln

Ihre Heimat ist ein Ort, von dem wir Deutschen träumen. Eine Südseeidylle mit weißen Palmenstränden, umgeben von türkisfarbenem Wasser, das funkelnde Unterwasserlandschaften birgt. Welche Wunder die Natur schaffen kann, das wussten Sie schon, als Sie Kinder waren.

Sie leben in diesem Paradies seit vielen Jahrhunderten. Doch nach der Landung der Europäer begann der Niedergang Ihres Landes. Hungersnöte, Übervölkerung und monokulturelle Landwirtschaft zwangen viele Ihrer Landsleute schon vor Jahren zur Flucht.
Den schwersten Schlag aber haben Ihnen die Industriestaaten indirekt zugefügt. Ihr Land wird vermutlich das erste Opfer des Klimawandels sein. Etwa 2015 werden die Inseln überschwemmt sein. Sie, die verbliebenen 2.600 Einwohner, werden Ihre Heimat verlassen müssen und nie wieder sehen. Sie wird versunken unter Wasser liegen, verschlungen von unserer Unfähigkeit, an das Morgen zu denken.
Wir tragen die Verantwortung für diese Katastrophe. Nicht nur bei Ihnen, überall auf der Welt sind die Vorboten der Klimakatastrophe sichtbar: Eisberge schmelzen, der Meeresspiegel steigt, die Unwetter werden schwerer, ganze Landstriche werden verwüstet. Am schlimmsten trifft es die Menschen in den Ländern, die am wenigsten zum Klimawandel beitragen. Wie Sie.
Wir, der Norden, sind in der Pflicht, endlich zu handeln. Sonst ist die Klimakatastrophe unabwendbar. Die Industriestaaten müssen ihre Treibhausgasemissionen bis 2020 um mindestens 25 bis 40 Prozent und bis 2050 um mindestens 80 bis 95 Prozent im Vergleich zum Jahr 1990 reduzieren.
Deutschland muss sich entschlossen für den Schutz des Klimas einsetzen – zu Hause und international. Leider hat unsere bisherige Regierung aus Konservativen und Sozialdemokraten in den letzten vier Jahren nicht mehr für den Klimaschutz getan, als sich öffentlichkeitswirksam vor Gletschern abbilden zu lassen – wie unsere Bundeskanzlerin und ihr Umweltminister. Die Vorreiterrolle Deutschlands beim Klimaschutz haben sie aufgeben.
Ob Sie es glauben oder nicht: Während bei Ihnen der Meeresspiegel steigt, wollen eben diese beiden bei uns regierenden Parteien neue Kohlekraftwerke bauen – obwohl jeder weiß, dass nichts klimaschädlicher ist.
Nun wird bei uns ein neues Parlament gewählt. Wir Grüne versprechen Ihnen: Egal ob wir nach dieser Wahl regieren oder in der Opposition landen; wir werden mit allen uns zur Verfügung stehenden Mitteln dafür kämpfen, dass unser Land wieder Vorreiter beim Klimaschutz wird.
Auch wenn Ihre Heimat nicht mehr zu retten ist – das schulden wir Ihnen und den Millionen anderen Menschen, die durch den Klimawandel in Zukunft ihre Lebensgrundlage verlieren. Wir haben nur noch zehn Jahre Zeit, um umzusteuern. Packen wir’s jetzt an – ohne Wenn und Aber!
Ihre Grünen

Quellen

[1] Erzdiözese München und Freising: Sternsingeraktion 2017: Beispielland Kenia leidet unter Klimawandel

[2] kaltesonne, 27. Januar 2014 : Neue Studie der Universität Potsdam und des Senckenberginstituts: Sonne verursachte in Kenia während der letzten 15.000 Jahre starke Schwankungen in den Niederschlägen

[3] kaltesonne, 9. Februar 2014: Während der Mittelalterlichen Wärmephase gab es in Ostafrika ähnlich viele Dürren wie heute: Feuchtphase während der Kleinen Eiszeit brachte zwischenzeitliche Entspannung

[4] Michael Kizza at al., 2008: Temporal rainfall variability in the Lake Victoria Basin in East Africa during the twentieth century

[5] Deutsches Institut für Entwicklungspolitik, 10.10.2011, Dr. Chinwe Ifejika Speranza: Die nächste Hungersnot kommt bestimmt

[6] Deutsches Institut für Entwicklungspolitik, 12.12.2011, Pieter Pauw, Dr. Marcus Kaplan und Dr. Chinwe Ifejika Speranza: Durbans „afrikanischer“ Klimagipfel – Anpassung in Afrika

[7] Deutsches Institut für Entwicklungspolitik, 22.08.2011, Dr. Marcus Kaplan und Dr. Chinwe Ifejika Speranza: Die Hungerkrise in Ostafrika – welche Rolle spielen der Klimawandel und die jahrelange Vernachlässigung der Landwirtschaft?

[8] B.A. University of Chicago, 2008, CHRISTOPHER ANDREW BLOSZIES: Water level history of Lake Turkana, Kenya and hydroclimate variability during the African Humid Period

[9] African Development Bank, Tunis, Dr. Sean Avery BSc PhD, November 2009: HYDROLOGICAL IMPACTS OF ETHIOPIA’S OMO BASIN ON KENYA’S LAKE TURKANA WATER LEVELS & FISHERIES FINAL REPORT

[10] Aktion Dreikönigssingen 20*C+M+B, Begleitheft: Willi in Kenia

[11] proplanta: Afrikaner uneins: Schrille Töne aus Sudan und Simbabwe
http://www.proplanta.de/Agrar-Nachrichten/Umwelt/Afrikaner-uneins-Schrille-Toene-aus-Sudan-und-Simbabwe_article1261345798.html

[12] FIAN Deutschland e.V., FIAN Fact Sheet 2011/1: Klimawandel in Kenia Wie falsche Klimaschutzmaßnahmen das Recht auf Nahrung bedrohen

[13] Tagung des Vereins INFOE – Institut für Ökologie und Aktions-Ethnologie und des Klima-Bündnisses am 12. Juni 2015 im LVR LandesMuseum Bonn




Weil wir erneuerbare Energie besser nutzten, ist zum Ende des Jahrhunderts Energie im Überfluss vorhanden

In einem großen Artikel der Nürnberger Nachrichten präsentierte eine Redakteurin – immerhin Ressortleiterin und Ausbildungsredakteurin – den Lesern, wie die wirkliche Zukunft aussieht. Dazu durfte ihr ein wahrer Visionär erzählen, warum die Zukunft die schönste werden wird, die wir je hatten: Zukunftsforscher Michael Carl wirft einen kühnen Blick voraus. Er skizziert für uns in einigen Bereichen seine Visionen vom Alltag in zwanzig oder dreißig Jahren.

Die vorgestellten Visionen betreffen auch Bereiche, welche auf EIKE besprochen werden, deshalb davon ein kleiner Auszug
Zukunftsforscher M. Carl:
Energie:
Was die Antriebsenergie betrifft, ist die Zeit des Verbrennungsmotors im Wesentlichen vorbei. Es gibt eine flächendeckende E-Mobilität. Ist der Akku leer, wechseln wir einfach das Fahrzeug. Das ist kein Problem, denn es kauft niemand mehr ein Auto, sondern nimmt eines, das gerade zu dem passt, wofür er es braucht. Weil wir erneuerbare Energien besser nutzen, ist zum Ende des Jahrhunderts Energie im Überfluss vorhanden.
Mobilität: Menschen man Steuer sind ein Auslaufmodell. Im Laufe des nächsten Jahrzehnts fragen wir uns, wie wir sie überhaupt ans Lenkrad lassen konnten. Das gilt für alle Verkehrsmittel; für Autos, Busse, Bahnen … Maschinen werden Fahrzeuge aller Art fahren. Wir gewinnen so Zeit, die wir anders nutzen. Ein Hotelzimmer beispielsweise könnte eine Dockingstation haben, an der unser Fahrzeug andockt. Während wir im Hotelbett schlafen, werden wir zu unserem Ziel gebracht. Weil so viele Anbieter autonome Fahrzeuge auf die Straße bringen, ist die Mobilität kostenlos.
… Elon Musk
(Tesla Chef) hat ein Transportsystem entwickelt, bei dem kapselähnliche Fahrzeuge durch eine Röhre geschossen werden. Die Firmen, die mit dieser Technologie Los Angeles und San Francisco verbinden wollen, sind sicher, dass sie nie ein Ticket dafür verkaufen werden. Die Menschen bezahlen für die Mobilität der Zukunft vielmehr mit ihren Daten und mit ihrer Aufmerksamkeit.
In Düsseldorf ist seit 3. November die Nahverkehrs-Nutzung kostenlos
[1], wenn Sie dafür 80 Sekunden Werbung auf Ihrem Handy anschauen.
Im nächsten Jahrzehnt stellt der Frisör Ihr Auto, damit er Ihnen während der Fahrt die Haare schneiden kann. … Keiner kauft sich dann mehr ein Auto, sondern findet für jedes Bedürfnis ein Fahrzeug zur kostenlosen Nutzung.

Warum diskutiert man im EIKE überhaupt noch die Kosten der Energiewende oder des ominösen Klimawandels? So schwer ist das doch nicht: Etwas Werbung ansehen, und schon erfüllen sich alle Wünsche. Hätten Adam und Eva schon ein Mobile mit Werbe-App gehabt und Gott einen vernünftigen Startup beschäftigt anstelle einer Schlange, säßen die beiden – und wir mit – immer noch im Paradies. Vielleicht wäre es etwas langweilig, immer nur Werbung zu gucken? – Aber was tut man nicht alles, um der schnöden Arbeit zu entkommen und trotzdem Energie im Überfluss zu haben. Zudem kommt man nach so viel Werbung auch nicht auf die Idee, noch unbedingt vom Baum der Erkenntnis naschen zu wollen.

Man muss eben Theologe sein und einen Karriereweg durch unsere Fernsehanstalten vorweisen können, um die wahren Zukunfts-Lösungen zu erkennen und vor allem auch glaubhaft (einer Redakteurin) zu vermitteln. Nur mit einer solchen Ausbildung und Karriere ist man genügend frei von den Problemen des schnöden Alltags und auch daraus resultierender, kommerzieller Zwänge. Wer selbst nur erlebt hat, wie GEZ-Zwangsgebühren wundersam jedes Bezahlproblem lösen, glaubt auch daran, dass werben Einnahmen ersetzt. Herr Justizminister Maas ist ja auch fest davon überzeugt, dass Steuern dem Bürger nicht weggenommen werden, sondern vom Staat erwirtschaftet sind.

Zugegeben, google belegt, dass so ein Geschäftsmodell äußerst erfolgreich sein kann. Dem stehen allerdings die vergangenen, sozialistischen Länder gegenüber, welche mit der Werbung für die Ideen der Herren Marx und Engels allesamt komplett gescheitert sind, obwohl damit ein sicheres Paradies versprochen war. Auch ist kein Versorger, Netzbetreiber, oder Verkehrsverbund bekannt, dem es gelungen wäre, seine Verluste durch Werbung auszugleichen.
Es ist eben ein Unterschied, ob man übers WEB automatisch und billigst weltweit milliardenfach präsent ist, oder wenigen Nutzern neben der App auch eine komplette Verkehrs-Infrastruktur mit Personal zur Verfügung stellen muss – was auch für alle anderen, vom Visionär angesprochene Anbieter gilt.

Nur bei den „Energieerntern“ klappt dieses Geschäftsmodell. Sie machen Werbung:
Franz Alt, Buch: „Die Sonne schickt uns keine Rechnung – Neue Energie – Neue Arbeit – Neue Mobilität„,
und die Energie kommt seitdem praktisch umsonst:
Franz Alt, 04. Juli 2015: Siegeszug für Sonne und Wind
Bis 2015 dürfte die Kilowattstunde Solarstrom in Deutschland noch etwa vier und im Süden etwa zwei Cent kosten – prognostiziert das Fraunhofer-Institut.
Die Wirklichkeit sieht aber auch dort eher wie bei der einst wissenschaftlich belegten Wahrheit von Mark und Engels aus: Ein Land, welches auf dieses Werbe-Bezahlsystem hereingefallen ist, hat die zweithöchsten Strompreise der EU – mit steigender Tendenz und nötigt seine Bürger, sich den Strom künftig gefälligst selbst zu erzeugen und zu speichern, sofern man auf bezahlbaren und verfügbaren Wert legt.

Somit werden einige der Visionen des zukunftsforschenden Theologen raue Wirklichkeit werden.
Im Blog zum Düsseldorfer Werbe-Bezahlsystem [1] lässt sich nachlesen, wie diese kostenlose Mobilität der Zukunft funktioniert:
Das System gilt nur für Kurzstrecke. Wer weiter als Kurzstrecke fahren will, steigt aus, sieht sich wieder Werbung an und fährt die nächsten drei Stationen. Dann steigt er wieder aus … Hat er Pech, steht er vor einem geleerten Kontingent und kann sehen, wie er nun vor oder zurückkommt. Und man kann auch absolut sicher sein, die Verluste des Düsseldorfer Nahverkehrs bezahlen nicht die werbenden Firmen.

Solch eine Vision steckt also voller Wahrheit – die bei Sehern und Propheten oft erst nach vielen Generationen Zukunft rückwirkend entschlüsselt werden kann. Denn wirkliche Seher drücken sich nicht immer ganz allgemeinverständlich aus, weshalb die griechische Pythia in Delphi damals auch wohlweislich noch ein Interpretationsteam beschäftigte.
In vielen Artikeln zum EEG wurde es auf EIKE bereits angesprochen: Strom kommt in der EEG-Zukunft nur noch kontingentiert und sofern nicht vorhanden, eben auch nicht.
Was der Theologe vielleicht gar nicht weiß, diese Vision hat schon heute einen Namen: Intelligente Netze, Smart-Grid und Energie-Verteil-und Not-Abschaltkonzept:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt?
So herum gedreht, verhält sich die EEG-Zukunftsenergie genau so, wie bei der als zukunftsweisend gepriesenen, kostenlosen Werbe-Fahrkarte. Und die Vision der „Energie im Überfluss“ ist beim EEG teilweise sogar schon eingetroffen. Über Weihnachten gab es sie schon (wieder):
EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
Leider war dieser Energieüberfluss nicht mit etwas Werbung ansehen bezahlt, sondern hat die Kunden 208 Millionen EUR gekostet, ohne den geringsten Nutzen zu bringen, was wieder zeigt, dass auch modernste Visionen versteckte Mängel haben können.
Wenn man schon bei Mängeln der Zukunft ist. Elon Musk ist wirklich ein herausragendes Beispiel, wie man mit Werbung Geld macht und es andere bezahlen lässt. Eine Zukunft, deren flächendeckende Umsetzung jedes Land in den Abgrund treibt, unsere Politiker aber bereits konsequent umzusetzen beginnen.

Wie man sieht, nimmt die Wirklichkeit schon verblüffend viel von dieser gepriesenen Zukunft mit ihren Visionen vorweg. Die Redakteurin müsste also nur auf EIKE vorbeisehen, und könnte regelmäßig und kostenlos Neuestes darüber erfahren. Allerdings wird es dort in dürreren Worten und fundierter beschrieben.

Zusatzinformation

[1] Düsseldorf, WelectGo: Kostenlos Bahnfahren gegen Werbung
Es klingt wie ein Traum: Einfach eine App auf dem Smartphone installieren, ein paar Werbeclips ansehen und schon kannst du kostenlos mit der Bahn fahren. Und doch ist dieser Traum dank WelectGo jetzt Realität. Am 3. November ist der neue Service in Düsseldorf offiziell gestartet.
Damit kannst du vollkommen kostenlos innerhalb der Stadt alle Busse und Bahnen nutzen. Der Service von
Welect finanziert sich dabei allein durch Werbung. Vor dem Ticketkauf werden dir deshalb einige Videos von Sponsoren gezeigt. Anschließend erhältst du dein kostenloses Bahn- und Busticket und kannst direkt einsteigen und losfahren
n Düsseldorf erhältst du mit WelectGo sowohl kostenlose Tickets für eine Kurzstrecke als auch Fahrkarten der Preisstufe A. Letztere sind dabei ab dem Erwerb 90 Minuten für eine Fahrt im Geltungsbereich Düsseldorf Mitte/Nord und Süd (43/53) gültig. Die Kurzstreckentickets der Rheinbahn gelten für bis zu drei Haltestellen und für maximal 20 Minuten. Rund- oder Rückfahrten sind stets ausgeschlossen.
Blogeintrag dazu: Wollte am Sonntag den 11.12.16 die App nutzen. Leider kam eine Meldung: Ihr habt gute Arbeit geleistet. Leider sind alle Tickets gebucht.

[2] Michael Carl: Nach dem Studium der Evangelischen Theologie in Hamburg, Edinburgh und Frankfurt am Main volontierte er in Frankfurt und war anschließend für verschiedene Radiosender als Reporter, Redakteur und Moderator tätig. Zu seinen Stationen zählten MDR Sputnik und MDR Jump in Halle (Saale) und radioeins vom rbb in Potsdam.
Derzeit Director Analysis & Studies 2b AHEAD Think Tank, Zukunftsforscher und Berater Strategieexperte und Organisationsentwickler Journalist, Blogger, Theologe




Zerbröselnder „Konsens“: 500 im Jahre 2016 veröffent­lichte Studien stützen eine skeptische Haltung bzgl. Klima-Alarm

Beispiel: Man sagt uns, dass Extremwetter (Hurrikane, Dürren, Überschwemmungen, Stürme) an Häufigkeit und Intensität seit etwa 1950 zugenommen haben, hauptsächlich infolge des dramatischen Anstiegs anthropogener CO2-Emissionen seitdem (hier). Die Menschen schmelzen die Gletscher und die Eisschilde ab, gleiches gilt für das Meereis in der Arktis mit einer sich alarmierend beschleunigenden Rate – mit der Suggestion einer unmittelbar bevorstehenden „Todesspirale“. Die Menschen heizen und versauern jetzt die Ozeane bis zu tausenden Metern Tiefe wegen der Verbrennung fossiler Treibstoffe. Die Menschen betreiben jetzt den Anstieg des Meeresspiegels, so dass dieser um katastrophale 10 Fuß [ca. 3 m] während der nächsten 50 Jahre steigen wird (hier). Infolge unserer CO2-Emissionen gefährden die Menschen jetzt das langfristige Überleben hunderttausender Tierarten (vor allem Eisbären), und den Klimamodellen zufolge werden wir während der nächsten 33 Jahre eine Million Spezies mit unseren CO2-Emissionen zum Aussterben bringen (hier). Die Erde dreht sich sogar langsamer oder schneller, nein, langsamer – ach wo, doch schneller – wegen menschlicher Aktivitäten. Noch einmal: dies alles ist settled Wissenschaft! Nur jene, die die Verwegenheit haben, diese Wissenschaft zu leugnen („Klimaleugner“) würden dem nicht zustimmen oder es ablehnen, das zu glauben.

Aber was ist, wenn Vieles von dem, was man uns zu glauben nahe gelegt hat, gar nicht stimmt? Was ist, wenn Wissenschaftler nicht mit überwältigender Mehrheit zustimmen, dass die Menschen Wetter- und Klimaänderungen seit etwa 1950 dominiert haben (mit einem Beitrag ~110% ), wie es uns das IPCC der UN gesagt hat (hier)? Was ist, wenn Wissenschaftler nicht mit überwältigender Mehrheit zustimmen, dass natürliche Kräfte effektiv keinen Einfluss mehr auf Wetter- und Klimaänderungen haben – wenn doch jetzt die Menschen diese Rolle übernommen haben?

Dies sind zwingende Fragen. Vor allem vor dem Hintergrund, dass allein im Jahre 2016 500 begutachtete wissenschaftliche Studien in Fachjournalen veröffentlicht worden sind, in denen ernsthaft in Frage gestellt wird, wie settled die „Konsens“-Wissenschaft wirklich ist, der zufolge der anthropogene CO2-Antrieb jetzt Wetter- und Klimaänderungen dominiert und nicht-anthropogenen (natürlichen) Kräften kaum noch eine Bedeutung zumisst.

Anstatt die „Konsens“-Wissenschaft zu unterstützen muss man jetzt glauben (um nicht als „Klimaleugner“ gebrandmarkt zu werden), dass diese 500 Studien die Position untermauern, dass es bedeutende Grenzen und Unsicherheiten inhärent bei der Klimamodellierung gibt und dass Prophezeiung zukünftiger Klimakatastrophen mit anthropogenem Antrieb verknüpft sind. Außerdem zeigen diese wissenschaftlichen Studien sehr deutlich, dass natürliche Faktoren (die Sonne, multidekadische ozeanische Oszillationen { NAO, AMO/PDO, ENSO}, Variationen von Wolken- und Aerosol-Albedo) sowohl in der Vergangenheit als auch in der Gegenwart einen bedeutenden oder dominanten Einfluss auf Wetter- und Klimaänderungen ausgeübt haben. Das bedeutet, dass ein anthropogenes Signal viel schwieriger aufzufinden ist im Zusammenhang mit einer derartig großen natürlichen Variabilität. Studien, welche den „Konsens“-Standpunkt zu Paläoklima (Mittelalterliche Warmzeit), Ozean-Versauerung, Gletscherschmelze, Anstieg des Meeresspiegels, Extremwetterereignisse, Klima-Antriebe der Vergangenheit, Klimasensitivität bzgl. CO2 usw. in Frage stellen (und unterminieren) sind in dieser Sammlung enthalten.

Wegen der enormen Anzahl neuer verfügbarer Studien, die eine skeptische Haltung zum anthropogenen Klima-Alarm stützen, wurde die Liste der 500 Studien in drei Bereiche aufgegliedert, jeder mit einer eigenen Website (Part 1, Part 2, Part 3). Es gibt 68 Graphiken darin, von denen die meisten belegen sollen, dass „Hockeyschläger“-Rekonstruktionen von Temperaturen und Meeresspiegel in der Vergangenheit im Verhältnis zu heute nicht durch verfügbare Beweise gestützt werden.

Trotz des großen Umfanges wird diese Liste hoffentlich nutzerfreundlich daherkommen und als Referenz leicht zu durchforsten sein wegen der klar umrissenen (unten) und organisierten Kategorisierung. Jede Studie ist mit einem Link versehen unter dem Namen des/der Autoren.

Und schließlich, es gibt 132 Studien, die einen Zusammenhang zwischen Sonnenaktivität einerseits sowie Wetter- und Klimaänderungen andererseits belegen (zusätzlich zu rund 90 Studien, die natürliche ozeanische bzw. atmosphärische Oszillationen {ENSO, NAO usw.}, Wolken, Vulkanismus … und Klimawandel in Verbindung bringen). Dies ist besonders hervorzuheben, weil das IPCC seit seiner Einführung darauf bestanden hat, dass solare Faktoren fast gar keine Rolle spielen hinsichtlich des derzeitigen Klimawandels. Offensichtlich stimmen immer weniger Wissenschaftler diesem „Konsens“ zu.

———————————–

Click any of the 3 links below

Part 1. Natural Mechanisms Of Weather, Climate Change (236 papers)

Part 2. Natural Climate Change Observation, Reconstruction (152 papers) 

Part 3. Unsettled Science, Ineffective Climate Modeling (112 papers)

Part 1. Natural Mechanisms Of Weather, Climate Change

I. Solar Influence On Climate (132)
II. Natural Oceanic/Atmospheric Oscillation (ENSO, NAO, AMO, PDO, AMOC) Influence On Climate (45)
III. Natural Ozone Variability and Climate (3)
IV. A Questionable To Weak Influence Of Humans, CO2 On Climate (11)
V. Low CO2 Climate Sensitivity (4)
VI. Modern Climate In Phase With Natural Variability (17)
VII. Cloud/Aerosol Climate Influence (14)
VII. Volcanic/Tectonic Climate Forcing (9)

Part 2. Natural Climate Change Observation, Reconstruction

I. Lack Of Anthropogenic/CO2 Signal In Sea Level Rise/Mid-Holocene Sea Levels Meters Higher (34)
II. Warmer Holocene Climate, Non-Hockey Sticks (40)
III. No Net Regional Warming Since Early- Mid-20th Century (15)
IV. Abrupt, Degrees-Per-Decade Natural Global Warming (D-O Events) (8)
V. The Uncooperative Cryosphere: Polar Ice Sheets, Sea Ice (34)
VI. Ocean Acidification? (14)
VII. Natural Climate Catastrophes – Without CO2 Changes (4)
VIII. Recent Cooling In The North Atlantic (3)

Part 3. Unsettled Science, Ineffective Climate Modeling

I. Failing/Failed Renewable Energy, Climate Policies (10)
II. Climate Model Unreliability/Biases and the Pause (34)
III. Elevated CO2 Greens Planet, Raises Crop Yields (10)
IV. Wind Turbines, Solar Utilities Endangering Wildlife (7)
V. Less Extreme, Unstable Weather With Warming (15)
VI. Heat Not Hazardous To Polar Bears, Humans (3)
VII. No Increasing Trends In Intense Hurricanes (3)
VIII. No Increasing Trends In Drought Frequency, Severity (7)
IX. Urban Surfaces Cause (Artificial) Warming (4)
X. ‘Settled’ Science Dismantled (3)
XI. Natural CO2, Methane Sources Out-Emit Humans (3)
XII. Fires, Anthropogenic Climate Change Disconnect (5)
XIII. Miscellaneous (4)
XIV. Scientists: We Don’t Know (4)

Link: http://notrickszone.com/2017/01/02/crumbling-consensus-500-scientific-papers-published-in-2016-support-a-skeptical-position-on-climate-alarm/#sthash.UrKUfGSi.dpbs

Übersetzt von Chris Frey EIKE




Die Schweizer Bürger begehren nun gegen die Energie­strategie 2050 ihrer Regierung auf

EIKE: Atomausstieg – Nein, danke Die Schweizer Bürger stimmten überdeutlich gegen die sofortige Abschaltung ihrer Kernkraftwerke
EIKE: Auch die Schweizer Bürger wählen falsch: Volksbegehren für eine „Grüne Wirtschaft“ in der Schweiz gescheitert

Nun ist die Schweizer Energiestrategie 2050 [2] im Focus des Bürgerzorns. Man erinnere sich, bei uns ist das der Klimaschutzplan 2050 von Umweltministerin, Frau Hendricks, beschrieben im Artikel: Der Klimaschutzplan 2050 für Marrakesch: Ich bitte dich, komm sei so gut, mach meine heile Welt kaputt, Teil 2
Die von den Schweizern vorgebrachte Argumentation kann man 1:1 auf die deutsche Planung anwenden, denn Klimahysterie führt überall zu den gleichen Auswüchsen an Gängelungs-Vorschriften und vom Bürger zu bezahlenden Kosten.

KaltDuschenMitDoris: [1] Es geht weiter
Die Ausstiegsinitiative ist vom Tisch. Aber es lauert ein weiteres Monster: Die „Energiestrategie 2050“. Während sich energiesuisse,net voll auf den Kampf gegen die Ausstiegsinitiative konzentrierte, haben die SVP und verschiedene Gruppen, darunter die Jungfreisinnigen mit dem Sammeln von Unterschriften für das Referendum gegen das Energiegesetz begonnen.
Das Energiegesetz (EnG) vom 30. September 2016, in welchem die Energiewende verpackt ist, darf niemals in Kraft treten, denn es wäre eine schwere Belastungsprobe für unser Land und unsere Wirtschaft. Es ist ein Subventions- und Bürokratiemonster, welches zu einem Staatsinterventionismus von bisher (ausser in Kriegszeiten ) ungekannten Ausmasses und horrenden Kosten führen würde.
•Das erste Massnahmenpaket der Energiestrategie 2050 kostet uns 200 Milliarden Franken in 30 Jahren. Das sind 600 Franken pro Jahr und Person.
•Die Quersubventionierung des teuren Stroms aus Wind und Sonne geht zu Lasten der Haushaltungen und Kleinunternehmer. Grossverbraucher sind ausgenommen.
•Von der kostendeckenden Einspeisevergütung (KEV) profitieren dagegen Hausbesitzer, Landeigentümer und Elektrizitätswerke. Es erfolgt also eine Umverteilung von unten nach oben.
•Strom wird man brauchen dürfen, wenn es Strom gibt. Wann wir welche elektrischen Geräte benutzen dürfen, liegt nicht mehr in unserer Kompetenz, es wird vorgeschrieben …
Das Weitere im Original lesen.

Quellen

[1] KaltDuschenMitDoris.ch, 29 Nov 2016: Es geht weiter
http://kaltduschenmitdoris.ch/themen/energiestrategie-2050/item/173-es_geht_weiter

[2] Schweizerische Eidgenossenschaft, Bundesamt für Energie BFE: Energiestrategie 2050
http://www.bfe.admin.ch/energiestrategie2050/index.html?lang=de