1

Energiebilanz 2016

Wo bleibt das Positive? Nicht immer nur das Schlechte, das Negative sehen, bringt nur Magenverstimmung, sondern frisch den Blick gewendet und Erfolgsmeldungen gesucht.

Zum Beispiel hier: Die FAZ berichtet über ein positives Ergebnis an der Energiewendenfront. »Der Strom in Deutschland kommt immer häufiger aus erneuerbaren Energieträgern und immer weniger aus Kohle. Fachleute in Berlin haben dafür im vergangenen Jahr vor allem einen Grund gefunden.«

Schreiben sie klickhaschend über eine Bilanz für das Jahr 2016, wie sie jetzt in der Schrift »Die Energiewende im Stromsektor: Stand der Dinge 2016« vorgelegt wurde. Die Fachleute sind die von der Berliner Denkfabrik Agora Energiewende. Wem bei den Begriffen »Denkfabrik«, »Energiewende« und Berlin ein lautes Lachen überkommt, sollte sich doch bitte sehr strikt an das positive Denken halten und die feinsinnigen Sätze des Chefs genießen: »Bleibt das System der Abgaben und Umlagen, wie es ist, so ist bis 2023 ein weiterer Anstieg der Strompreise absehbar“, sagte Agora-Direktor Patrick Graichen. Erst danach kommen die »Ernte-Jahre« der Energiewende.« Wie alle Heilsversprechen: Und siehe, nach sieben mageren Jahren kommen fette.

Zunächst aber wird es noch magerer. Die »Fachleute« berichten von Strompreisen, die in diesem Jahr schon über 30 Cent pro Kilowattstunde liegen dürften. Das treibt dann die letzten Unternehmen aus Deutschland. Für den Sieg müssen Opfer gebracht werden.

WIRD WEITER BLIND GEGLAUBT?
Das ABC von Energiewende und Grünsprech 26: Energiewende 6
Energiewelt im Umbruch – alles unter Kontrolle oder ökoreligiöser Blindflug? Täglich…

Die »Fachleute« dieser Lobby-Organisation entpuppen sich als rechte Energiefachleute: Der Agora-Chef hat in Volkswirtschaft und Politikwissenschaft gemacht. Die stellvertretende Direktorin: Volkswirtschaft und Politikwissenschaft. Ein weiterer stellvertretender Direktor Wirtschaftsgeschichte, Politikwissenschaft. Erinnert an jene unselige »Ethikkommission für eine sichere Energieversorgung«, die 2011 den von Merkel erwünschten gesellschaftlichen Konsens produzierte, dass alle Kernkraftwerke sofort auszuschalten seien. Mitglieder waren damals unter anderen ein Bischof, ein Chef der deutschen Katholiken, ein umstrittener Soziologieprofessor, eine »Philosophin«. Nur war niemand dabei, der etwas von Kraftwerken verstand, von Energieerzeugung und Stromtransport, von Netzfrequenz. Blindleistung muss was aus der Optik sein. Auch beim Denktank stören niemanden mehr solche komplizierten präfaktischen Begriffe wie Energie und Leistung. Man kann erzählen, dass jede dritte Kilowattstunde Solaranlagen und Windräder lieferten. 32,3 Prozent – die Jubelmeldung der Energiewenden-Propaganda-Kompanie – so viel Anteile am Stromverbrauch kämen aus »erneuerbaren Energien«.

Nur wann? Das zeigt der Verlauf des vergangenen Jahres. Den überwiegenden Anteil an der Stromversorgung lieferten die konventionellen Kohle- und Kernkraftwerke. Mit der Lupe muss man den Anteil von Wind- und Wasserkraft suchen. Auffallend die heftigen Spitzen, wenn ein kräftiger Wind weht. Wenn der nicht die Windräder umwirft oder zum automatischen Abschalten zwingt, bringt er die Netzbetreiber zur Verzweiflung. Die wissen nicht wohin, mit dem plötzlichen vielen Strom, müssen viel Geld in die Hand nehmen und den Strom mit ein paar Millionen Euro versüßt irgendjemanden aufs Auge drücken, der etwas damit anfangen kann.

energieerzeugung_2016

Unter den Augen grüner Naturschützer werden dafür riesige Waldgebiete zerstört und mit Windrädern zugepflastert. Zudem eine beispiellose Zerstörung der Landschaft, um einigen wenigen Windrad-Haien fürstliche Renditen zu garantieren. Und dennoch stieg der Anteil aus Windrädern und Sonnenanlagen nur um 0,8 Prozentpunkte, also im Verhältnis zum extrem starken Ausbau ein sehr schwacher Zuwachs an »grüner« Stromlieferung.

Denn 2016 war ein »schlechtes« Wind- und Sonnenjahr. Also Industrieproduktion runterfahren? Nein, Deutschland noch weiter zupflastern, die Antwort des Denktank-Chefs Patrick Graichen: »Daraus können wir für die weitere Energiewende lernen, dass sich der Ausbau der erneuerbaren Energien an den regelmäßig auftretenden schlechten Windjahren orientieren sollte. Denn nur dann ist der Klimaschutz im Energiesystem wirklich gesichert.«

Doch Flaute mal Millionen von Windrädern liefert immer noch Flaute, null Strom. Nichts. Niente. OK, das ist vielleicht noch alten Ingenieuren und Kraftwerksexperten klar, die noch was von Energie und ihrer Erzeugung verstehen. Die wissen, dass für jede Kilowattstunde aus irgendeinem Windrad, aus irgendeiner Solarzelle Kapazitäten aus konventionellen Kraftwerken vorgehalten werden müssen, die also zunächst in der Landschaft stehen und natürlich bezahlt werden müssen. Wenn dann Wind und Sonne versiegen, müssen diese konventionellen Kraftwerke wieder ran.

Mist, wir aber wollten das Positive sehen.

Die Strompreise haben sich gegenüber früher nur vervierfacht. Doch »nach der Bundestagswahl sollte die Energiepolitik daher das System der Steuern, Abgaben und Umlagen auf Energie komplett überarbeiten. Denkbar wäre es etwa, die Stromkosten zu senken, und die Abgaben und Umlagen auf klimaschädliche Energieträger wie Kohle, Heizöl, Diesel, Benzin und Gas zu verlagern.« Meint Graichen. Dann dürften die Grünen nichts mehr zu sagen haben, SPD- »Energieexperten« und CDU-Energiewendegewinnler hoffentlich verstummt sein. Man kann darüber reden, wie man die Energieversorgung Deutschlands wieder auf die Füße stellt und kalkulieren, wie lange es dauert und was es kostet und wer es bezahlt, bis die Windräder wieder abgebaut sind und die Wälder sich erholt haben.

Wir wollten ja das Positive sehen.

Also: Wo bleibt es? Die Grünen jubeln: In Baden-Württemberg kommen schon beachtliche 1,1 Prozent des gesamten Stromverbrauches aus Wind und bereits 6,5 Prozent aus Photozellen. 30 Prozent liefert der letzte Kraftwerksblock des Kernkraftwerkes Philippsburg. Der rettet bisher die Stromversorgung, ist noch nicht abgeschaltet, wird aber bald. »Planmäßig«, wie das so schön heißt, volle Durchdachtheit und Kontrolle suggerierend.




Über den Unter­schied zwischen Energie, Arbeit und Leistung – und warum das für die Klima-Prophe­zeiungen eine Rolle spielt

Man betrachte eine Taschenlampen-Batterie. Eine Batterie enthält Energie, aber diese Energie macht gar nichts – die Batterie kann Monate im Schrank liegen, bereit zum Einschub in die Taschenlampe. Aber wenn man das dann tut, die Taschenlampe danach anknipst und nicht wieder ausschaltet, wird die Batterie innerhalb von Stunden leer sein – alle enthaltene Energie ist verbraucht.

Ähnlich ist es mit einer Batterie für einen Motor, deren Energie ebenfalls verbraucht wird.

Graphik 1: Von einer Batterie getriebener Motor.

Steckt man die Batterie in die Taschenlampe oder in einen Motor und schaltet diese an, macht sich die Energie an die Arbeit. Eventuell versagt die Batterie, nachdem all ihre gespeicherte chemische Energie in elektrische Leistung umgewandelt worden war.

In welcher Beziehung steht dieses Beispiel eines batteriebetriebenen Motors zum Klimawandel?

Rein physikalisch ist auch das Klima der Erde eine Maschine. Anstelle einer Batterie wird das Klima mit Solarenergie angetrieben – Sonnenlicht erreicht tagsüber die Erde, wird in Wärme umgewandelt und dann wieder in den Weltraum abgestrahlt. Dies bedeutet: Der Transport jener Energie von wärmeren Regionen zu kälteren Regionen, bevor sie in den Weltraum abgestrahlt wird, ist die Summe aller weltweiten Klima-Phänomene – Wind, Regen, Meeresströme sind alle Teil der globalen Klima-Maschine, welche von unserer Sonne mit Energie versorgt wird.

Graphik 2: Von der Sonne mit Energie versorgtes Erdklima

Wie wirken sich nun globale Erwärmung oder globale Abkühlung auf diese Klima-Maschine aus?

Was man im Hinterkopf behalten muss: Die Energie des Sonnenlichtes wird der Erdoberfläche mit konstanter Rate zugeführt, weil der solare Output mehr oder weniger stetig ist und sich die Größe der Erde nicht ändert. Die Leistung des Klimasystems, die Rate, mit der die Arbeit durch das Klimasystem durchgeführt werden kann, ist konstant.

Globale Erwärmung – Akkumulation von Energie in Gestalt von Wärme in der Erdatmosphäre – beeinflusst nicht die Energiemenge, die für die Energieversorgung des Erdklimas zur Verfügung steht. Falls die akkumulierte Energie das Klima beeinflussen würde mittels Beiträgen zu wilderem Wetter, würde sie aufgebraucht, genau wie die gespeicherte chemische Energie aufgebraucht wird, wenn sie eine Taschenlampe oder einen Motor betreibt.

Die Art und Weise, mit der Energie vom Klima der Erde verbraucht wird, könnte sich ändern, wenn sich die Welt erwärmt. Ein Beispiel sind die Milankovitch-Zyklen – die langsam vonstatten gehenden Änderungen der Verteilung des Sonnenlichtes durch Schwankungen des Erdorbits – haben wahrscheinlich einen tiefgreifenden Effekt auf das globale Klima; es lässt Eiszeiten aufkommen und abklingen. Aber die durch die Milankovitch-Zyklen beschriebenen orbitalen Schwankungen haben keinen Einfluss darauf, wie viel Sonnenlicht insgesamt auf die Erde trifft. Das Einzige, was dadurch beeinflusst wird, ist das Verhältnis des Gesamt-Sonnenlicht-Budgets, welches die Nord- bzw. Südhemisphäre zu verschiedenen Jahreszeiten empfangen.

Die Implikationen eines Gesamt-Erdklima-Energiebudgets sind tiefgreifend. In einer wärmeren Welt könnte es tatsächlich mehr regnen. Aber es muss einen Ausgleich geben. Die Verdunstung von Wasser zur Bildung von Regenwolken erfordert enorme Energiemengen. Falls Energie aus dem globalen Klima-Budget in die Erzeugung von mehr Regen fließt, steht weniger Energie für Wind und Meeresströme zur Verfügung.

Es gibt für geringe Änderungen Bewegungsfreiheit. Eine Menge des Sonnenlichtes, welches auf die Erde trifft, wird direkt zurück in den Weltraum geworfen, mit minimalem Einfluss auf das Klima. Falls die Albedo, also die Reflektivität der Erde substantiell zurückgehen würde, könnte mehr Sonnenlicht absorbiert werden, was mehr Energie zur Verfügung stellt für Wind, Regen und Meeresströme. Aber es gibt keine Garantie dafür, dass eine wärmere Welt eine signifikant geringere Albedo haben würde. Etwas Albedo könnte verloren gehen, falls Polareis schmilzt, aber Polareis empfängt nicht so viel Sonnenlicht verglichen mit dem in tropischen Gebieten auftreffenden Sonnenlicht. Jedweder Rückgang der Albedo infolge schmelzenden Polareises würde wahrscheinlich durch eine zunehmende Wolkenbedeckung in den Tropen mehr als kompensiert.

Während der letzten paar Jahre hat die Aufmerksamkeit in der Klima-Gemeinde für diese thermodynamische Begrenzung zugenommen. Viele Klimawissenschaftler haben ängstigende Prophezeiungen extremerer Wetterereignisse eingeschränkt, indem sie sagen, dass Stürme stärker werden, aber seltener auftreten. Aber wie ich zu Beginn erwähnt habe, geht viel zu oft die Qualifikation verloren. Viele Menschen glauben, dass das Wetter einfach ohne Hindernisse extremer wird, wenn sich die Welt erwärmt, weil sie nicht die harten Grenzen verstehen, die durch das Gesamt-Klimaenergie-Budget der Erde gesetzt werden.

Wärmere Klimabedingungen, welche mehr zur Bildung von Gewitter neigen, könnten zu häufigeren, aber schwächeren Stürmen führen, mit weniger Schäden anrichtenden Winden. Aber eine derartig langweilige Prophezeiung würde nicht zum Narrativ der Klimawissenschaft passen, dass durch die globale Erwärmung alles schlimmer wird.

Die folgende wissenschaftliche Studie erklärt die Grenzen des Energiebudgets des Erdklimas noch detaillierter:

Erzwungene Arbeitsleistung der feucht-atmosphärischen Wärmemaschine bei einem sich erwärmenden Klima:

Einfallende und ausgehende Sonnenstrahlung sorgen für den Wärmeausgleich an der Erdoberfläche, wobei Wettervorgänge angetrieben werden, die Wärme und Feuchtigkeit um die ganze Welt verteilen, was eine atmosphärische Wärmemaschine erzeugt. Hier untersuchen wir den Output der Arbeit dieser Maschine mittels thermodynamischer Diagramme, die berechnet sind aus re-analysierten Beobachtungen und aus einer Klimamodell-Simulation mit anthropogenem Antrieb. Wir zeigen, dass der Arbeits-Output immer geringer ist als der von einem äquivalenten Carnot-Zyklus [?] und dass er begrenzt wird durch die Energie, die zur Aufrechterhaltung des hydrologischen Zyklus‘ erforderlich ist. Bei der Klimasimulation verstärkt sich der hydrologische Zyklus schneller als der äquivalente Carnot-Zyklus. Wir folgern daraus, dass die Intensivierung des hydrologischen Zyklus‘ in wärmeren Klimaten die Fähigkeit der Wärmemaschine limitieren könnte, Arbeit zu erzeugen.

Mehr hier (paywalled)

Aktualisierung: Willis Eschenbach weist darauf hin, dass die Aussage „…Energie durch Sonnenlicht trifft mit konstanter Rate auf der Erdoberfläche, weil der solare Output mehr oder weniger stetig ist…“ falsch und irreführend ist. Wolken reflektieren Sonnenlicht zurück in das Weltall, bevor es die Erdoberfläche erreicht. Da Wolken eine Funktion der Temperatur sind und höhere Temperaturen mehr Wolken erzeugen, reduzieren höhere Temperaturen die Energiemenge, die in das Klimasystem eintritt.

Link: https://wattsupwiththat.com/2017/01/10/the-difference-between-energy-work-and-power-and-why-it-matters-to-climate-prediction/

Übersetzt von Chris Frey EIKE




Erwärmung in Deutschland und in den USA – eine der Hauptursachen dafür näher beleuchtet

Grafik 1: seit 1881 wurde es in Deutschland wärmer, das zeigt die lineare Trendlinie zu den Jahresmitteln des Deutschen Wetterdienstes

Seit 30 Jahren hat sich in den Medien und der Politik, angetrieben durch das IPPC, die vorherrschende Meinung gebildet, diese Erwärmung sei auf die Industrialisierung zurückzuführen, die nach 1850 begonnen hat. Und mit der Industrialisierung verbunden ist die vermehrte Kohlendioxidfreisetzung. Deshalb ist wohl der C02– Gehalt in der Atmosphäre von damals 0,028% auf jetzt über 0,04% gestiegen. Die Treibhaustheorie besagt, dass ausschließlich das zunehmende C02 diese Erwärmung von etwa 1,5 bis 2 K seit gut 150 Jahren bewirkt habe. Da diese CO2-Treibhaustheorie keinen Versuchsbeweis und keine technische Anwendung vorlegen kann, handelt es sich streng genommen um einen Glauben, aus dem inzwischen eine Erwärmungsreligion entstanden ist, die lautet: Mehr CO2 bringt mehr Hitze.

Sind die Temperaturen nun tatsächlich gestiegen in Deutschland, so wie es die Grafik 1 zeigt? Die richtige Antwort wäre: Die Trendlinien steigen, weil die Temperaturen bei den Stationen zugenommen haben. Jedoch die Schlussfolgerung, wir hätten in der ganzen Fläche Deutschlands eine Erwärmung von gut 1,5 Grad, ist naturwissenschaftlich nicht gerechtfertigt, und somit falsch. Das soll im Folgenden erläutert werden:
Jeder Student im Anfangsstudium eines naturwissenschaftlichen Faches lernt, dass er bei Langzeitversuchen seine Versuchsbedingungen nicht ändern darf, sonst sind die Ergebnisse nicht vergleichbar. Und genau das ist bei den Messstationen Deutschlands der Fall. Vor über 130 Jahren standen diese an ganz anderen, viel kälteren Orten, oder die Orte wurden selbst wärmer durch menschliche Eingriffe in der Umgebung einer Wetterstation. All dies haben wir bereits ausführlich in vielen Artikeln beschrieben. siehe Kowatsch/Kämpfe/Leistenschneider unter „Wärmeinseleffekte bei den Messstationen“.http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

oder http://www.eike-klima-energie.eu/news-cache/die-zunahme-der-waermeinseln-brachte-den-grossteil-des-temperaturanstieges-der-letzten-125-jahre/

Grafik 2: Europa bei Nacht vom Weltall aus. Die Karte vermittelt einen Eindruck über die Verteilung der Wärmeinseln in Mitteleuropa. Wie hätte so eine Aufnahme vor 130 Jahren ausgesehen? Allerdings muss angemerkt sein, dass wegen der Lichtstreuung die hellen Flecken flächenmäßig zu groß erscheinen.

Im Grunde wären die Temperaturwerte nur direkt vergleichbar, wenn Deutschland und die Welt genauso geblieben wären, wie sie damals 1881 war und wenn sich nichts, aber auch gar nichts seitdem verändert hätte. Nur dann hätten wir identische Vergleichsbedingungen bei den Messstationen. Dass dies nicht so ist, dafür ist der DWD nicht verantwortlich. Nur muss man das wissen, und jeder naturwissenschaftliche Student begreift sofort, dass diese steigende Trendlinie der Grafik 1 nur mit Einschränkungen aussagekräftig ist. Richtig wäre lediglich die Aussage: Es wurde bei den Messstationen auch aufgrund der veränderten Mess- und Umgebungsbedingungen wärmer. Die Trendlinie könnte aber auch die veränderten Messmethoden sowie die geänderten Besonnungsverhältnisse und die Häufigkeitszunahme südlicher Großwetterlagen widerspiegeln.

Wie vergleicht man richtig?

Für einen aussagekräftigen Temperaturvergleich bräuchte man einen Temperatur- Korrekturfaktor, der die wärmende Veränderung bei den Messstationen rausstreicht. Diesen Faktor nennen wir Wärmeinseleffekt. (WI- Effekt). Kowatsch/Kämpfe/ Leistenschneider haben diesen Korrekturfaktor bereits 2010 ermittelt und eine WI-Bereinigung (Wärme-Inselbereinigung) in die DWD-Jahres-Diagramme eingefügt.

Grafik 3: Beim grünen Temperaturverlauf wurden die WI- Effekte der Stationen herausgerechnet, damit die Jahreswerte vergleichbar wurden. Schön erkennbar ist das Kälteloch zu Beginn der 2. Hälfte des letzten Jahrhunderts, welches man beim DWD und international gerne als Vergleichsraum zu heute nimmt und als „Normal“ bezeichnet.

Die hier dargestellte WI- Bereinigung (statistische Berechnung: R. LEISTENSCHNEIDER) entspricht sicher nicht völlig der (leider schwer zu fassenden) Realität, weil für große Teile Deutschlands (Wald, größere Gewässer, leider auch weite Teile des Offenlandes fernab der Siedlungen) keine seriösen, langjährigen Messreihen vorliegen. Der DWD unterzieht seine Messungen (rote Linien) keiner WI-Korrektur, was er allerdings auch zugibt.

Die WI-bereinigte (grüne) Deutschlandkurve

Nehmen wir nun an, dass Deutschland und die Welt sich seit 130 Jahren überhaupt nicht verändert hätten, dann würde uns der Deutsche Wetterdienst diese Grafik vorlegen:

Grafik 4: Die wärmeinselbereinigten Deutschlandtemperaturen aus Grafik 2 – hier mit linearer Trendlinie – zeigen einen nicht signifikanten leichten Temperaturanstieg seit 1891.

Die WI-Datenbereinigung nach Leistenschneider geht von gut 1,2 K (plus/-0,3K) seit 1891 aus, wobei ab 1980 bis heute die größte WI-Spreizung erfolgte. Man sieht deutlich, dass der größte Teil der Erwärmung in Grafik 1 auf den schleichend steigenden Wärmeinseleffekt vor allem der letzten vier Jahrzehnte zurückzuführen ist und nicht auf eine C02-Erwärmung. Das wärmste Jahr wäre deswegen 1934 gewesen und nicht 2014. Immerhin war das Jahr 2016 auch WI-bereinigt wärmer als der Gesamtschnitt und deutlich wärmer als 1891 und den kälteren Folgejahren.

Wir wagen die Aussage: Wäre Deutschland genauso geblieben wie 1891, mit derselben Einwohnerzahl, demselben Energieverbrauch, Lebensstandard und der noch viel geringeren Urbanisierung der Fläche und würden alle Messstationen noch am selben Ort stehen wie damals, dann würde die Temperaturtrendlinie nur einen sehr geringen Temperaturanstieg anzeigen: Die Erwärmung Deutschlands ist ganz wesentlich durch den stetig wachsenden Wärmeinseleffekt bei den Messstationen hervorgerufen worden und nicht durch die behauptete CO2-Treibhauserwärmung.

Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich in diesem langen Zeitraum nur wenig in der weiten Umgebung verändert hat, leider nicht bei uns, sondern in den USA. In der nächsten Grafik sind die Temperaturdaten der sehr ländlichen Dale-Enterprise-Virginia Wetter-Station eingezeichnet, deren Umgebung in den letzten 130 Jahren nahezu gleich blieb, sieht man vom Bau breitspuriger amerikanischer Straßen ab. Dale Enterprise liegt etwa 160 Km westsüdwestlich von Washington und westlich der Kleinstadt Harrisonburg an der breiten US- Straße 33, die es natürlich 1881 noch nicht gab. (geringer WI-effekt). Auch die Tagesmittelwerte wurden seit drei Generationen in der Familie immer nach demselben Muster bestimmt und so die Jahreswerte ermittelt. Googeln: Dale Enterprise Virginia Weather-Station.

Auch wenn in Virginia ein gänzlich anderes Klima herrscht als bei uns in Mitteleuropa, wollen wir den Temperaturverlauf seit 1891 gerne zeigen, denn eine globale CO2-Erwärmung müsste natürlich auch an einem fast WI-freien Standort in den USA und überall auf der Welt zu einer Erwärmung geführt haben.

Die Überraschung ist groß. Eine gleichmäßige durch CO2 hervorgerufene Erwärmung gibt es nicht. CO2 hat nichts bewirkt. Die Trendlinie dieser Station in den USA bestätigt eher unsere grüne WI-bereinigte Deutschland-Trendlinie der Grafik 4.

Grafik 5: Die Temperaturen der fast WI-freien Dale-Enterprise Station braucht man nicht WI bereinigen, man kann die Temperaturen direkt vergleichen. Die Trendlinie ist ähnlich der WI-bereinigten (grünen) DWD-Trendlinie und hat nur einen sehr geringen Temperaturanstieg von 0,4F über die letzten 126 Jahre.

Spannend war für uns die Frage, ob es, ähnlich wie in Deutschland (Frankfurt/Main- Flughafen) auch im Nordosten der USA vielleicht Wetterstationen gibt, die sich durch eine besonders starke Erwärmung in den letzten 3 bis 4 Jahrzehnten auszeichnen. Leider reichen die Werte der meisten, offiziellen CDC- Klimastationen der USA nur bis 1986 zurück; oder davor weisen sie zu große Lücken auf. Zufällig stießen wir auf einen kritischen Beitrag über die Station am Flughafen der Bundeshauptstadt Washington, welche fast auf gleicher Breite und nur etwa einen Längengrad östlicher als Dale Enterprise liegt, wenngleich in viel geringerer Höhe über dem Meeresspiegel. Sie finden diesen Beitrag (englisch) unter http://thevane.gawker.com/exploring-the-urban-heat-island-washingtons-infamous-1539669759 . Daraufhin sahen wir uns den Trendverlauf beider Stationen für die letzten 35 Jahre an (die Daten für Washington, Stations- ID 72405, sind bis 1981 nahezu lückenlos) und erlebten eine große Überraschung:

Grafik 6: Während es in Washington seit 1981 deutlich wärmer wurde, fielen die Temperaturen an der ländlichen Station Dale Enterprise, 160 Km westsüdwestlich von Washington in den Appalachen unweit der Stadt Harrisonburg gelegen, deutlich. Ohne WI- Effekte lässt sich dieses gegensätzliche Verhalten der nicht sehr weit voneinander entfernten Stationen kaum erklären, auch wenn vielleicht geänderte Wetterlagenhäufigkeiten, Lee- Effekte der Appalachen und geänderte Besonnungsverhältnisse ebenfalls eine Rolle spielen könnten.

Weil die Daten monatsweise vorliegen, verglichen wir den monatsweisen Gang der Differenzen beider Stationen seit 1981. Auf eine Höhenbereinigung verzichteten wir (Dale Enterprise liegt etwa 400 Meter höher als Washington), so dass die sehr großen Temperaturdifferenzen größtenteils der Höhendifferenz anzulasten sind. Der WI- Effekt zeigt sich jedoch deutlich an den viel größeren Differenzen während der Sommermonate, in welchen sich die dicht bebaute Stadt meist besonders stark aufheizt:

Grafik 7: Die Differenzen der Monatsmittelwerte beider Stationen sind im Sommer viel größer, als im Spätherbst und Winter. Sie wurden nicht höhenbereinigt, weil der Unterschied beider Stationen mit etwa 400 Metern sehr groß ist. Trotzdem weisen sie auf WI- Effekte hin. Das völlig andere Klima dieser Gegend, welche etwa auf der Breite Südspaniens liegt, erklärt vermutlich, warum sich die Differenzen etwas anders verhalten, als bei unseren Untersuchungen zum Berliner Umland (dort waren besonders zwischen April und Juni, teils aber auch im Januar, die höchsten Stadt- Umlanddifferenzen zu beobachten).

Zu dieser spannenden Thematik wird es weitere Untersuchungen mit mehr Stationsdaten geben müssen.

Ergebnis: Eine CO2-Erwärmung aufgrund der auch in Virginia gestiegenen CO2-Konzentration von 280 auf 400 ppm ist aus den Daten der fast WI-freien Station Dale Enterprise Virginia nicht erkennbar, und schon gar keine Erwärmungskatastrophe. Daraus kann man nur den Schluss ziehen, dass der behauptete CO2-Erwärmungseffekt nicht existiert oder fast keine Wirkung hat.

Kürzere Zeiträume: Zwar schreitet der wärmende Eingriff des Menschen in die Landschaft weiter voran, täglich werden in Deutschland 0,7 km² freie Fläche in die Natur hinein urbanisiert und damit weiter erwärmt, innerhalb der bebauten Ansiedlungen gehen Grundstücke mit großen Gärten durch den Trend zur Häuservergrößerung verloren, was nicht durch die Statistik der täglichen 0,7 Quadratkilometer erfasst wird, und in der freien Fläche werden durch Windräder der kühlende Wind und damit die natürliche Abkühlung zusätzlich vermindert und über Strom letztlich erneut Wärme hergestellt. Jedoch sind diese durch Menschenhand erzeugten wärmenden Effekte innerhalb der letzten 15 bis 20 Jahre relativ klein im Vergleich zum Gesamtzeitraum bis 1881 und bisweilen wohl auch vernachlässigbar. Doch muss man sich im Klaren sein, direkt vergleichbar sind beim DWD immer nur die Folgejahre. In 365 Tagen machen sich die zunehmenden wärmeerzeugenden Zusatzeffekte im Gesamtschnitt Deutschlands noch nicht wesentlich bemerkbar.

Anders verhält es sich bei Einzelstationen, hier können durch Stationsverlegung oder durch ein neues Gewerbegebiet oder Vergrößerungsbau eines Flughafens enorme Zusatzwärmemengen entstanden sein, schließlich kann sich der dunkle Asphaltbelag im Sommer bis auf 50 C aufheizen, und bei ungünstiger Stationslage wärmen dann auch noch die Abgase der Fahr- und Flugzeuge. Autobahnen und Straßen sind Wärmebänder in der Landschaft, genauso wie die im Zuge der bisher äußerst umweltschädlichen und teuren „Energiewende“ zusätzlich gebauten Hochtemperatur-Stromleitungen, die bei guten alternativen Bedingungen einen plötzlich entstehenden Überschussstrom in die Landschaft verheizen oder als Erdleitung die Böden aufwärmen werden.

Im Folgenden betrachten wir kürzere Zeiträume, nämlich die letzten 30 Jahre, weil 30 Jahre eine Klimaeinheit darstellt. Wir vergleichen die Wetterstation am Frankfurter Großflughafen (rot) mit der fast WI-freien ländlichen Station Amtsberg-Dittersdorf (blau), dessen Stationsumgebung in den letzten 30 Jahren relativ unverändert blieb.

Grafik 8: Aufgrund des zunehmenden Flugverkehrs und des ständig weiteren Ausbaus des Frankfurter Flughafens zeigt die dortige Wetterstation an den Landebahnen im Strahle der 700 C heißen Flugzeug-Abgase auch die größte Erwärmung. In Amtsberg und in der Freifläche wurde es überhaupt nicht wärmer, dazwischen die DWD-Temperaturen als Schnitt aller deutschen Wetterstationen.

Ergebnis: Frankfurt zeigt wie erwartet den größten Trendlinienanstieg, am Frankfurter Flughafen wurde es eindeutig wärmer. Die fast WI-freie sehr ländliche Station Amtsberg zeigt seit 30 Jahren keine Erwärmung mehr, obwohl an beiden Standorten, Frankfurt und Amtsberg die CO2-Konzentrationen der Atmosphäre gleichmäßig auf jetzt über 0,04% angestiegen sind. Warum wirkt derselbe CO2-Anstieg in Amtsberg nicht erwärmend?

Antwort: Der CO2-Konzentrationsanstieg wirkt auch in Frankfurt nicht erwärmend. Die Thermometer der Wetterstation zeigen vielmehr die Zunahme des Flugverkehrs und des Ausbau des Flughafens an.

Die Leser möge hier nochmals einen Blick auf die Grafik 6 richten. Bei der noch WI-ärmeren Virginiastation – noch WI-ärmer als Amtsberg – ist die Trendlinie sogar fallend.

Im Nordosten der USA gibt es auch an anderen Orten ähnliche Ergebnisse. Leider sind die Werte der nahezu WI- freien Harvard Forest Station erst seit 2002 lückenlos verfügbar, so dass die Trends des folgenden Vergleichs mit 2 städtischen Stationen dieser Region nicht signifikant sind; doch deutet sich eine geringere Erwärmung der Forststation an:

Grafik 9: Geringere Erwärmung der Forststation (unten, grün) seit 2002 (Trends und Unterschiede nicht signifikant). Die sich besonders stark erwärmende Station Wilkes-Barre/Scranton (Mitte) liegt an einem Flughafen.

Anmerkung: Auch die Dale-Enterprise Station zeigt ab 2002 einen leichten Trendlinienanstieg, was hauptsächlich durch das warme Jahr 2012 in Virginia bewirkt wird.

Unsere Behauptung war: Die 130-jährige Erwärmung Deutschlands gibt es nur im Umfeld der DWD-Wetterstationen. Das ist dort, wo die Menschen wohnen und arbeiten, wo die einst freie Fläche immer weiter wärmend urbanisiert wurde. In der freien Fläche Deutschlands und an WI-armen Standorten sind die Temperaturen zumindest in den letzten 30 Jahren gleich geblieben.

Ergebnisse:

Die Erwärmung der letzten 130 Jahre fand also viel stärker in den Wärmeinseln statt.

Nicht die Zunahme von CO2 hat die Erwärmung der letzten 130 Jahre bewirkt, sondern hauptsächlich die immer noch anhaltende Ausbreitung der Wärmeinseln in Deutschland und überall auf der Welt. Die Sonne und die vielen anderen Wetterbedingungen sind für das wiederkehrende Auf und Ab in den Temperaturreihen verantwortlich.

WI-bereinigt haben wir in Deutschland einen Temperaturstillstand seit 30 Jahren.

In den WI-armen Standorten und in der freien Fläche hat die Abkühlung bereits seit 20 Jahren eingesetzt, das zeigen auch unsere WI-bereinigten Deutschlanddaten.

Grafik 10: Unsere nach der Methode von R. Leistenschneider WI-bereinigten Deutschlanddaten (grün) zeigen seit 20 Jahren einen leichten Temperaturrückgang. Übrigens genauso wie die gemessenen Daten der WI-armen Station Amtsberg im Erzgebirge.

———————————————-

Aktualisierung vom 7. Januar 2017: Die ländliche Kachelmann-Station Marienberg-Kühnhaide (Erzgebirge, eher WI-arm) meldete an diesem Morgen minus 31,4°C. Erwärmung durch CO2- mitnichten.!!!

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Rundbrief des Heartland Institute vom 6. Januar 2017

Zum Rundbrief:

Beweise zeigen, dass menschliche Treibhausgas-Emissionen nur eine sehr geringe Auswirkung auf das globale Klima haben, sind doch alle Modell-Prophezeiungen der Alarmisten routinemäßig nicht in der Lage, die Realität abzubilden.

Für alle, die die Freiheit lieben und diesbezüglich auf dem Laufenden bleiben wollen versendet das Heartland-Institute jeden Freitag Rundbriefe mit den wichtigsten Hinweisen auf entsprechende Beiträge. Diese kann man hier herunterladen. Hier folgt beispielhaft die Ausgabe dieser Woche:

Pipelines sind sicherer als ,Safe Sex‘

Isaac Orr, Breitbart

Der Streit um die Dakota Access-Pipeline hat das Thema Sicherheit von Öl- und Erdgastransporten an vorderste Stelle der nationalen Debatte um Energiepolitik geschoben. Die Debatte wurde kürzlich erheblich befeuert durch ein Leck, durch welches nahe der Stadt Belfield in North Dakota 176.000 Gallonen [ca. 799.040 Liter] Rohöl ausgelaufen waren. Gegner der Pipeline führen dieses Leck als Beweis an, dass Pipelines nicht ordentlich betrieben werden können. Die Wahrheit ist jedoch, dass Pipelines um Einiges sicherer sind als viele andere menschliche Aktivitäten, darunter „Safe Sex“. Mehr

Der Beweis, dass die Menschen nicht das Klima zerstören

H. Sterling Burnett, Red State

Es ist keine Frage: Die Menschen haben das Klima in einem kleinräumigen Maßstab verändert – und nicht immer zum Besseren. An einigen Stellen haben Entwaldung und Brandrodung für sich ändernde Verteilungen der Regenmengen, Überschwemmungen und Wüstenbildung gesorgt. Allerdings zeigen alle Beweise, dass menschliche Treibhausgas-Emissionen nur einen sehr geringen Einfluss auf das globale Klima haben, haben sich doch fast alle Modell-Prophezeiungen der Alarmisten als routinemäßig nicht in der Lage erwiesen, die Realität abzubilden.Tatsächlich ist es viel wahrscheinlicher, dass menschliche CO2-Emissionen der Umwelt viel mehr nutzen als schaden.

Mehr [Dieser Beitrag ist vollständig für die Übersetzung geplant]

Vorgestelltes Podcast: William Yeatman – erste Schritte der Trump-Regierung: für bezahlbare Energie sorgen

Während der letzten acht Jahre wurden Umweltgruppen, welche die Obama-Regierung unterstützt hatten, die Schlüssel zur EPA übergeben, wo sie durch einen ideologisch getriebenen Hass auf fossile Treibstoffe ihr Bestes getan haben, um die Erzeugung und den Verbrauch von Kohle, Öl und Erdgas zu stoppen. Aber jene Tage sind vorbei. William Yeatman vom Competitive Enterprise Institute CEI trifft den Betreiber von Environment & Climate News H. Sterling Burnett, um das Ende der Obama-Regierung zu feiern und vorauszuschauen auf eine vernünftige Vorschriftengebung in der Zukunft, welche die Umwelt schützt und welche gleichzeitig eine verantwortungsbewusste Energieerzeugung und ökonomischen Fortschritt ermutigt. Mehr hören

Die letzten Atemzüge von Obamas imperialer Präsidentschaft

Justin Haskins, The Hill

Präsident Obama nutzt jede ihm noch verbleibende Sekunde im Amt für eine Flut neuer Vorschriften, welche dem Willen lokaler und [US-]staatlicher Regierungen, dem amerikanischen Volk und seinen gleichartigen Peers im Kongress zuwider läuft. Hoffentlich wird Donald Trump seine Amtszeit nutzen, um das Prinzip der Freiheit voranzubringen und die vielen anti-libertären Maßnahmen der Obama-Regierung zu annullieren. Mehr

Podcast: Dr. Zacharias Hildenbrand: Beeinträchtigt Fracking die Luftgüte?

Dr. Zacharias Hildenbrand trifft das Mitglied des Heartland Institute Isaac Orr, um mit ihm über seine jüngsten Forschungen zu sprechen, bei denen er die Konzentrationen von Giftstoffen untersucht hat bei Fracking-Bohrstellen im Eagle Ford Shale of Texas. Die Ergebnisse variierten von der Stelle der Messung, aber die gemessene Menge lag unter dem als „schädlich“ eingestuften Standard der Occupational Safety and Health Administration. Weiter hören

Neue Website zu den Lügen von Wikipedia

Es gibt jetzt eine spezielle einzelne Website, auf der Dutzende Beiträge gesammelt werden einschließlich solcher über wissenschaftliche Forschungen, und wie Wikipedia, die „freie Enzyklopädie“, in Wirklichkeit die Fake-Enzyklopädie ist. Wikipedia ist die erste Adresse, wenn die Menschen etwas über Organisationen und Individuen erfahren möchten, von denen sie in den Nachrichten oder online hören, aber die dort geposteten Profile sind verzerrt, unzuverlässig und oftmals verleumderisch. Das Wikipedia-Profil über das Heartland Institute enthält viele Lügen und Fehler, aber wir stehen nicht allein: Tausende derartiger Profile wurden auf ähnliche Weise von linken Aktivisten gehackt [was natürlich auch für das EIKE gilt! Anm. d. Übers.] Mehr

Link: https://www.heartland.org/news-opinion/news/climate-change-101-evidence-humans-arent-destroying-the-climate

Alles Übersetzt von Chris Frey EIKE




Großes Minimum der solaren Gesamt-Strahlung führt zu der Kleinen Eiszeit

Abstract

Die Quasi-zweijährige Variation der Energie der von der Erde absorbierten Solarenergie wird weiterhin nicht durch die Energieabstrahlung in den Weltraum kompensiert während eines Zeitraumes, der bestimmt wird durch die thermische Trägheit. Das ist der Grund, warum die Soll- und Haben-Anteile des mittleren jährlichen Energie-Budgets mit seiner Hülle aus Luft und Wasser immer in einem Zustand des Ungleichgewichts liegen, welches der grundlegende Status des Klimasystems ist. Das mittlere jährliche Gleichgewicht des thermischen Budgets des Systems Erde-Atmosphäre während langer Zeiträume wird zuverlässig Verhalten und Wert sowohl der durch die Erde akkumulierten überschüssigen Energie als auch das Energie-Defizit im thermischen Budget bestimmt. Dies wiederum kann unter Berücksichtigung der Daten der vorhergesagten Variationen der Gesamt-Solarstrahlung (TSI) in der Zukunft gut im Voraus Richtung und Amplitude bevor stehender Klimawandel mit hoher Genauigkeit vorhersagen. Seit Anfang der neunziger Jahre wurde sowohl eine Abnahme der TSI als auch des von der Erde absorbierten Energie-Anteils beobachtet. Die Erde als Planet wird in Zukunft ebenfalls ein negatives Gleichgewicht im Energiebudget aufweisen, weil die Sonne in die abnehmende Phase des Quasi-zweijährigen Zyklus‘ der TSI-Variationen eingetreten ist. Dies wird zu einem Absinken der Temperatur führen und zum Beginn einer Epoche der Kleinen Eiszeit etwa ab dem Jahr 2014. Die Zunahme der globalen Albedo und die Abnahme der Treibhausgas-Konzentration in der Atmosphäre wird zu einer zusätzlichen Reduktion der absorbierten Sonnenenergie führen und den Treibhauseffekt reduzieren. Der Einfluss der ununterbrochenen Kette von Rückkopplungs-Effekten wird zu einem zusätzlichen Absinken der Temperaturen führen, die den Einfluss der TSI-Abnahme sogar noch überbieten kann. Der Beginn eines Minimums vom Typ Grand Mauder der TSI des quasi-zweijährigen Zyklus‘ kann um das Jahr 2043 ± 11 Jahre erwartet werden und der Beginn der Phase starker Abkühlung bis zum Niveau der 19. Kleinen Eiszeit während der letzten 7500 Jahre im Jahr 2060 ± 11 Jahre. Langzeitliche zyklische Variationen der TSI sind der Hauptgrund der damit einher gehenden Klimavariationen.

Introduction

Das Klimasystem wird beeinflusst durch einen quasi-zweijährigen zyklischen externen Vorgang im Zusammenhang mit korrespondierenden TSI-Variationen. Bedeutende zyklische Klimawandel sind eine erzwungene Reaktion des Klimasystems auf diese externen Vorgänge. Die grundlegenden Merkmale der Klimavariationen hängen besonders zusammen mit Fluktuationen der Energie und der Geschwindigkeit sowohl der atmosphärischen Zirkulation als auch von Meeresströmen, einschließlich des thermischen Fließens des Golfstromes, welcher getrieben wird durch die Akkumulation von Wärme im Ozeanwasser der Tropen. Dies wird bestimmt durch die allgemeinen Vorgänge zwei- und elfjähriger zyklischer TSI-Variationen. Die bedeutenden Klimavariationen während der letzten 7,5 Jahrtausende zeigen, dass die zweijährige quasi-periodische TSI-Variation einen korrespondierenden zyklischen Mechanismus klimatischer Änderungen definiert, die von globalen Erwärmungen bis zu Kleinen Eiszeiten reicht, und der außerdem den Zeitrahmen von praktisch allen physikalischen Prozessen vorgibt, die im System Sonne-Erde vor sich gehen [13]. Gleichzeitig führt die zweijährige quasi-periodische TSI-Variation zu einer zusätzlichen Temperaturabnahme (mit einer gewissen zeitlichen Verzögerung), die infolge klimatischer Rückkopplungs-Mechanismen über den direkten Einfluss der TSI-Variation hinausgeht. Diese Rückkopplungs-Mechanismen, namentlich der graduelle nichtlineare Anstieg der Oberflächen-Albedo der Erde (eine zusätzliche Abnahme des absorbierten TSI-Anteils) und die natürliche nichtlineare Abnahme der atmosphärischen Wasserdampf-Konzentration, Kohlendioxid und anderer Gase (Schwächung des Einflusses des Treibhausgas-Effektes) während des Prozesses der Abkühlung und umgekehrt.

Die beobachtete langzeitliche TSI-Abnahme und bevorstehende starke Abkühlung wird zunächst einmal klima-abhängige natürliche Ressourcen beeinflussen und folglich zuallererst wirtschaftliche Zweige mit enger Bindung an den Zustand des Klimas. Heutzutage ist das Problem einer zukünftigen globalen Abkühlung nicht nur ein hauptsächliches und bedeutendes wissenschaftliches Problem von planetarischen Ausmaßen, vor dem die gesamte Menschheit steht, sondern auch ein wirtschaftliches und politisches Problem, dessen Lösung die weiteren Aspekte der Entwicklung der menschlichen Zivilisation bestimmt. Eine bevorstehende globale Abkühlung wird die Richtung der Änderungen verschiedener natürlicher Prozesse auf der Erdoberfläche und in der Atmosphäre vorgeben ebenso wie die Bedingungen zur Bildung materieller und finanzieller Ressourcen für die Gesellschaft. Starke Abkühlung wird direkt die Entwicklung der wissenschaftlichen, technischen und wirtschaftlichen Potentiale der modernen Zivilisation beeinflussen. Ein frühes Verständnis der Realität der bevorstehenden Abkühlung sowie die dafür ursächlichen physikalischen Prozesse bestimmt direkt die Wahl geeigneter und zuverlässiger Maßnahmen, welche es der Menschheit besonders in Ländern mit größerer Entfernung vom Äquator ermöglicht, sich an die zukünftige globale Abkühlung anzupassen. In der Praxis ist es am wichtigsten, die Tendenzen des erwarteten Klimawandels während der nächsten 50 bis 100 Jahre zu bestimmen, das heißt also bis Mitte oder Ende des 21. Jahrhunderts.

Wechselwirkungen zwischen Klimavariationen und orbitalen Antrieben der Erde

Abbildung 1: Allgemein bekannt sind die astronomichen Milankovitch-Zyklen [4, 5].
Bedeutende langfristige Variationen des jährlichen Mittels der TSI infolge Änderungen des Erdorbits, der Neigung der Erdachse relativ zur Orbitalebene und die Präzession sowie Präzession (Abbildung 1), bekannt als die astronomischen Milankovitch-Zyklen [4,5] führen zusammen mit sekundären Rückkopplungs-Effekten zu Großen Glazialen Perioden. Erhebliche Änderungen des jährlichen mittleren Abstandes der Erde von der Sonne mit einer Periode von etwa 100.000 Jahren und daraus resultierende TSI-Variationen führen zu wesentlichen Temperatur-Fluktuationen von den Erwärmungen zu den Großen Glazialen Perioden, ebenso wie zu variablen atmosphärischen Konzentrationen von Wasserdampf, Kohlendioxid und anderen Gasen. Die astronomischen Milankovitch-Zyklen führen zu einer Änderung der absorbierten Menge in verschiedenen Gebieten der Erde, und auf dem gesamten Planeten zu Änderungen der mittleren jährlichen Energie durch Sonnenstrahlen infolge Variationen des orbitalen Antriebs. Die TSI ist definiert als S=L/4πR2, wobei L = die solare Helligkeit – die Gesamtenergie des solaren Outputs (pro Zeiteinheit) in Gestalt elektromagnetischer Strahlung, S = die solare Gesamt-Einstrahlung bei der mittleren jährlichen Distanz zwischen Sonne und Erde, R = die mittlere jährliche Distanz zwischen Sonne und Erde. Die astronomischen Milankovitch-Zyklen induzieren bedeutende Variationen der Temperatur und der atmosphärischen Konzentration von Kohlendioxid. Während der 420.000 Jahre gab es vier Große Glaziale Perioden (mit einer Periode von etwa 100.000 Jahren) und fünf Hochtemperaturphasen ebenso wie Variationen der atmosphärischen Kohlendioxid-Konzentration um etwa 100 ppm und der Temperatur um etwa 10°C (Abbildung 2) [68]. Die ikaite Aufzeichnung unterstützt qualitativ, dass sowohl die Mittelalterliche Warmzeit als auch die Kleine Eiszeit des Maunder-Minimums sich bis zur Antarktischen Halbinsel auswirkten, was auf die globale Natur dieser Änderungen hinweist [9].

Abbildung 2: Erdklima und Kohlendioxid-Variationen während der Vergangenheit – für den Zeitraum von 420.000 Jahren (aus dem 3623 m-Eisbohrkern nahe Wostok [6, 7]
Antarktische Eisbohrkerne beweisen eindeutig eine enge Kopplung zwischen Variationen der Temperatur und der atmosphärischen Konzentration von Kohlendioxid während der glazialen/interglazialen Zyklen von zumindest den letzten 800 bis 1000 Jahren. Präzise Informationen über das relative Timing der Temperatur- und CO2-Änderungen können helfen, unser Verständnis der physikalischen Prozesse zu verbessern, die bei dieser Kopplung eine Rolle spielen. Analysen von Eisbohrkernen aus den antarktischen Eisschilden zeigen, dass die CO2-Konzentration in der Atmosphäre eng dem Anstieg der Temperaturen folgt, nämlich etwa 800 ± 400 Jahre später [6, 8, 10]. Bei keinem der glazialen/interglazialen Zyklen war eine Spitze der CO2-Konzentration vor einer Wärmespitze aufgetreten. In der modernen Ära wurde mittels Datenreihen des atmosphärischen CO2-Gehaltes und der Temperatur ebenfalls das Verhältnis der jeweiligen Phasen untersucht im Zeitraum Januar 1980 bis Dezember 2011 [11]. Die maximale positive Korrelation zwischen Kohlendioxid und Temperatur zeigt, dass Kohlendioxid um 11 bis 12 Monate der globalen Wassertemperatur hinterher hinkt, der Lufttemperatur um 9,5 bis 10 Monate und etwa 9 Monate der Temperatur der unteren Troposphäre.

Folglich laufen Änderungen des atmosphärischen CO2-Gehaltes hinter den korrespondierenden Temperaturen hinterher. Aus anthropogenen Quellen stammendes Kohlendioxid hat kaum einen Einfluss auf die beobachteten Änderungen des atmosphärischen CO2-Gehaltes, und Änderungen des atmosphärischen CO2-Gehaltes spiegeln keine Änderungen bei den menschlichen Emissionen [11]. Änderungen der Wassertemperaturen können einen substantiellen Anteil der beobachteten Änderungen des atmosphärischen CO2-Gehaltes seit Januar 1980 erklären [11]. Dies bedeutet, dass eine globale Erwärmung eine CO2-Zunahme als Konsequenz zur Folge hat. Folglich wurden messbare Änderungen der atmosphärischen CO2-Konzentration immer durch korrespondierende Temperatur-Fluktuationen in den Ozeanen der Welt bestimmt, der CO2 in einer Menge enthält, die über die in Wasser um etwa den Faktor 50 hinausgeht (erwärmtes Wasser absorbiert weniger CO2) [12]. Daher gibt es keinen Beweis, dass CO2 ein wesentlicher Faktor bei der Erwärmung der Erde sind (siehe unten). Messbare Änderungen der atmosphärischen Konzentration von CO2 werden immer ausgelöst durch korrespondierende Temperatur-Fluktuationen der Welt-Ozeane. Folglich sind signifikante langzeitliche zyklische Variationen der jährlich im Mittel auf die Erde und hier auf die oberen Schichten der Erdatmosphäre einfallenden Gesamt-Sonnenenergie von den astronomischen Milankovitch-Zyklen bestimmt, die der wesentliche und fundamentale Grund korrespondierender Klimavariationen auf der Erde sind mit einer Periode von etwa 100.000 Jahren (selbst dann, wenn die solare Luminosität L konstant bleibt).

Wechselwirkungen zwischen Klima und Sonnenaktivität

Die Korrelation zwischen Sonnenflecken-Aktivität uns Klima wurde zum ersten Man von dem berühmten englischen Astronom William Hershel im Jahre 1801 ins Spiel gebracht. Dieser hatte eine inverse Relation entdeckt zwischen den Weizenpreisen und dem Niveau der Sonnenaktivität vor und während einer Periode, die als das Dalton-Minimum bekannt ist [1]. Während hoher Niveaus der Sonnenaktivität stieg die Produktion von Weizen, was zu sinkenden Preisen führte. Nahmen die Sonnenflecken dagegen signifikant ab, stiegen die Preise wieder. Hershel vermutete, dass die Änderungen der Weizenpreise auf korrespondierende Klimaänderungen zurückzuführen waren, konnte aber die physikalische Natur des Phänomens nicht erklären. Später fand man eine Korrelation in Phase und Amplitude zwischen separaten Perioden merklicher Variationen der Sonnenfleckenbildungs-Aktivität und korrespondierenden großen Klimaänderungen während des gesamten vorigen Jahrtausends [2]. Während jedem der 18 Minima vom Maunder-Typ der solaren Aktivität mit dem quasi-zweihundertjährigen Zyklus , der während der letzten 7500 Jahre zu beobachten war, ging einher mit einer Periode starker Abkühlung, wohingegen die Perioden der Maxima der Sonnenaktivität mit Erwärmung korrespondierten [3]. Gegenwärtig ist allgemein akzeptiert, dass der quasi-zweihundertjährige Zyklus der Sonne einer der intensivsten solaren Zyklen ist. Allerdings werden starke Abkühlungen und Erwärmungen nicht nur durch den direkten Einfluss der quasi-zweihundertjährigen TSI-Variation ausgelöst, sondern auch durch deren sekundäre zusätzlichen Einflüsse in Gestalt nachfolgender Rückkopplungen. Die jüngsten Studien [13, 14] bestätigen unsere früheren Ergebnisse [15, 16], die den direkten zusammenwirkenden Effekt (mit einiger Verzögerung) der 11-jährigen (11 ± 3 Jahre) und der quasi-zweihundertjährigen (200 ±70 Jahre) zyklischen Variationen von TSI zeigen auf die Änderungen des Zustandes der Oberflächen-Schicht (zehner bis hunderte Meter tief) im tropischen Pazifik. Dies wiederum führt zu El Nino- und La Nina-Effekten, die einhergehen mit dem Auftreten warmen und kalten Wassers, was das Klima beeinflusst. Die Änderungen der gemessenen El-Nino-Parameter während der letzten 31 Jahre korrespondierten nicht mit den von den Klimamodellen prophezeiten Änderungen, welche von der dominanten Rolle von Treibhausgasen ausgehen. [13, 14]. Folglich sind die Oszillationen der El-Nino-Parameter hauptsächlich natürlichen Gründen geschuldet, nämlich den zyklischen TSI-Variationen.

TSI-Variationen und Rückkopplungs-Effekte

Abbildung 3: Variationen sowohl der Sonnenaktivität auf der Grundlage monatlicher Daten [27] und die Gesamt-Solarstrahlung TSI sowie deren Defizit seit 1990 auf der Grundlage täglicher Daten [21] zwischen 1978 und dem 4. Dezember 2012.
Die physikalische Natur großer Klimaänderungen im Verlauf der letzten 7500 Jahre war direkt korreliert mit Änderungen der TSI S. Wir haben gezeigt, dass die Variationen von TSI S synchron verlaufen und korreliert sind (sowohl in Phase als auch in Amplitude) mit dem quasi-zweihundertjährigen und den 11-jährigen zyklischen Variationen des Sonnenflecken-Aktivitätsindex‘ (Abbildung 3) [1520]. Wir zogen die PMOD-Komposit-Daten [21] heran, da das konstruierte „gemischte“ ACRIM-SATIRE-Komposit von 1986 bis 1996 keine Zunahme der TSI zeigte, im Gegensatz zum ACRIM-Komposit [22]. Dies gestattet es, eine relativ kurze Reihe (seit 1978) präziser außer-atmosphärischer Messungen [mittels Satelliten, der Übersetzer] von TSI S [21] auf längere Zeiträume mittels langer Läufe des W-Index‘ der Sonnenaktivität [2327] zu extrapolieren. Dies ermöglicht es, den Verlauf der TSI während vergangener Jahrhunderte und sogar Jahrtausende nachzuvollziehen und wie diese zu den korrespondierenden Klimaänderungen in der Vergangenheit passen, sowie die zukünftigen Variationen zu untersuchen.

Wir können also festhalten: alle 18 starken Abkühlungen und Erwärmungen während der letzten 7500 Jahre wurden verursacht durch die korrespondierenden quasi-zweihundertjährigen zyklischen Variationen der TSI zusammen mit sekundären Nachfolge-Rückkopplungseffekten [17, 18, 20]. Allerdings sind die quasi-zweihundertjährigen TSI-Änderungen relativ klein (maximale Werte etwa 6,6 W m–2 oder ~0.5% der jüngsten rekonstruierten Daten [26], wobei die Autoren die Aufhellung spezifisch kleinräumigen Magnetfeldern zuordnen, die erzeugt werden durch turbulente Kaskaden im Netzwerk und dem Intranet-Netzwerk). Deren direkte Auswirkung ist unzureichend, um die korrespondierenden zyklischen quasi-zweihundertjährigen Temperaturänderungen der Erde zu erklären, von Perioden mit Erwärmung bis zur Kleinen Eiszeit. Ein zusätzlicher „Verstärker“ ist erforderlich, um die direkten Auswirkungen von TSI-Variationen auf beobachtete globale Klimaänderungen zu erklären. Derartige Verstärker der direkten Auswirkungen von TSI-Variationen auf Klimavariationen sind Rückkopplungs-Effekte: natürliche Änderungen der globalen Albedo der Erde als Planet (Bond-Albedo) sowie Änderungen der Konzentration von Treibhausgasen in der Atmosphäre (Wasserdampf, CO2, Methan, usw.).

Die Bond-Albedo ist definiert durch die globalen optischen Eigenschaften der Erde als Ganzes mit seiner sie einhüllenden Atmosphäre und Wasser, gemittelt über die gesamte vertikale Erstreckung, von der Oberfläche durch die Atmosphäre. Die Bond-Albedo ist ein Anteil der reflektierten Sonnenstrahlungs-Energie zurück in den Weltraum durch das gesamte System Erde-Atmosphäre; sie ist ein besonders wichtiger physikalischer Parameter im Energiehaushalt der Erde als Planet. Die Albedo der Erde nimmt bis auf ihr Maximum zu während einer starken Abkühlung und sinkt auf ein Minimum bei Erwärmung, während die Konzentration von Treibhausgasen in der Atmosphäre umgekehrt variiert, da diese hauptsächlich von den Temperaturen in den Ozeanen abhängig ist. Variationen der Parameter von Oberfläche und Atmosphäre der Erde, welche aufgrund der quasi-zweihundertjährigen zyklischen TSI-Variationen vor sich gehen, lösen weitere nachfolgende Temperaturänderungen aus infolge multipler Wiederholungen eines solchen ursächlichen Zyklus‘ der sekundären Rückkopplungs-Effekte, selbst wenn die TSI über einen bestimmten Zeitraum nachfolgend unverändert bleibt. Als Folge können globale Klimawandel weiter verstärkt werden durch einen Wert, der über den Einfluss der quasi-zweihundertjährigen TSI-Variation hinausgeht. Eine derartige Verteilung war zum Ende des 20. Jahrhunderts aufgetreten. Folglich haben während der letzten 7500 Jahre die quasi-zweihundertjährigen zyklischen TSI-Variationen zusammen mit nachfolgenden sekundären Rückkopplungseffekten korrespondierende zyklische Klimawandel von Erwärmungen bis zur kleinen Eiszeit kontrolliert und zu 100% bestimmt – und sie haben Zeiträume gesetzt für praktisch alle physikalischen Prozesse, die im System Sonne-Erde vonstatten gehen. Unglücklicherweise ist die Dynamik, die die Rate der Gesamt-Zunahme der mit Schnee und Eis bedeckten Flächen ebenso wie die Rate der Abnahme der Konzentration von Treibhausgasen in der Atmosphäre, eine nichtlineare Funktion des Temperaturrückgangs und fast unvorhersagbar. Von der natürlichen CO2-Konzentration in der Atmosphäre weiß man, dass diese während der Großen Eiszeiten in der Erdgeschichte etwa zweimal so niedrig lag wie heute [6,7].

Quasi-zweihundertjährige TSI-Variation führt zu dem unausgeglichenen Energiehaushalt des Systems Erde-Atmosphäre

Die zeitweiligen Änderungen der von der Einhüllenden des Systems Erde-Atmosphäre in den Weltraum emittierten Energie in Gestalt langwelliger Strahlung hinken wegen der Enthalpie der Erde als Planet immer hinter Änderungen der Sonnenstrahlung hinterher. Die thermodynamische Temperatur, die das integrale Wärme-Gleichgewicht des Planeten spezifiziert, läuft Änderungen der Energie absorbierter Solarstrahlung merklich hinterher. Dies ist der thermischen Trägheit des Systems Erde-Atmosphäre geschuldet. Diese ist äquivalent dem Überschuss oder dem Defizit im Budget zwischen absorbierter und abgestrahlter Energie. Jede langzeitliche Änderung der von der Erde absorbierten solaren Strahlungsenergie, verursacht durch die quasi-zweihundertjährige TSI-Variation, die langsame Änderungen der Enthalpie im System zulässt definiert durch thermische Trägheit, verbleibt nicht kompensiert durch die Energie der in den Weltraum emittierten langwelligen Selbststrahlung. Dieser Prozess wird beschrieben durch ein Inkrement in der planetarischen thermodynamischen Temperatur, die sich langsam mit der Zeit ändert. Folglich ist das jährliche mittlere Energie-Gleichgewicht der Erde als Planet immer in einem Zustand des Ungleichgewichtes und oszilliert um den Gleichgewichts-Zustand, wobei die absorbierte und abgestrahlte Energie ungleich sind wegen der quasi-zweihundertjährigen TSI-Variation. Als Folge davon wird sich der Planet graduell erwärmen oder abkühlen. Die jährliche mittlere Differenz zwischen der auf die äußeren Schichten der Erdatmosphäre einfallende Sonnenstrahlungs-Energie

Ein=(S+ΔS)/4                                                               (1)

und die reflektierte Sonneneinstrahlung sowie die langwellige Ausstrahlungs-Energie in den Weltraum

Eout=(А+ΔA)(S+ΔS)/4+εσ(Тр+ΔТр)4                        (2)

spezifizieren das Gleichgewicht des Energiebudgets des Systems Erde-Atmosphäre. Hierin sind S die TSI, ΔS das Inkrement der TSI, A die Albedo der Erde als ein Planet (Bond-Albedo), ΔA ist das Inkrement der Bond-Albedo, ε ist die Emissivität des Systems Erde-Atmosphäre, σ ist die Stefan-Boltzmann-Konstante und Tp die planetarische thermodynamische Temperatur. Der Faktor 1/4 auf der rechten Seite der Gleichungen (1) und (2) spiegelt die Tatsache, dass der Fluss der Solarstrahlung projiziert wird auf den Querschnitt der terrestrischen Sphäre (Kreis), während die Erde von der ganzen Oberfläche der Sphäre emittiert, die vier mal so groß ist. Die spezifische Energie ΔE der Enthalpie-Änderung des Systems Erde-Atmosphäre (Unterschied zwischen incoming Ein and outgoing Eout radiation) wird durch folgende Gleichung beschrieben:

Е=(S+ΔS)/4–(А+ΔA)(S+ΔS)/4–εσ(Тр+ΔТр)4; (3)

Hierbei ist E die spezifische Energie der Enthalpie-Änderung der aktiven ozeanischen und atmosphärischen Schicht [W/m²], C die spezifische Oberflächen-Wärmekapazität der aktiven ozeanischen und atmosphärischen Schicht im Verhältnis zur Gesamtfläche der Erdoberfläche [J/m²K] und t steht für die Zeit. Die spezifische Energie der Enthalpie-Änderung der Erde ist ein besonderer Indikator von Defizit oder Überschuss der thermischen Energie, welche angesehen werden kann als das Energie-Gleichgewicht des mittleren jährlichen Budgets bei Soll und Haben der thermischen Energie des Planeten.

Gleichzeitig folgt das Inkrement der effektiven Temperatur der Erde, die im Strahlungs-Gleichgewicht involviert ist, sofort nach der Änderung der absorbierten Energie im Gegensatz zur planetarischen thermodynamischen Temperatur, die im Wärme-Gleichgewicht involviert ist. Die relative Auswirkung von Variationen der TSI und der Bond-Albedo auf die effektive Temperatur der Erde kann berechnet werden aus dem Strahlungs-Gleichgewicht der Erde als Planet:

S/4=σТ4ef+AS/4                                                          (4)

wobei Tef die die effektive Temperatur der Erde ist.

Jetzt wollen wir das Inkrement der effektiven Temperatur einführen Δtef=Tef–Tef0, wobei Tef der gegenwärtige Wert der effektiven Temperatur der Erde ist und Tef0 der initiale Wert. Man vermutet, dass dieses Inkrement den Inkrementen der TSI ΔS und der Bond-Albedo ΔA geschuldet ist. In diesem Falle bekommt die Gleichung der Strahlungsbilanz (Gl. (4)) folgende Form:

(S+ΔS)/4=σ(Тef+ΔТef)4+(A+ΔА)(S+ΔS)/4        (5)

Da die Inkremente der effektiven Temperatur klein sind, also ΔTef << Tef0, wird die folgende Gleichheit mit einem hohen Grad von Genauigkeit erfüllt:

S/4+ΔS/4=σТ4ef+4σТ3efΔТef+AS/4+АΔS/4+ΔА(S+ΔS)/4 (6)

Subtrahiert man Gl. (4) von Gl. (6), erhält man

ΔS/4=4σТ3efΔТef+AΔS/4+ΔА(S+ΔS)/4             (7)

oder

16σТ3efΔТef=ΔS–AΔS–ΔАS–ΔАΔS.                    (8)

Die Formel für das Inkrement der effektiven Temperatur der Erde infolge der Inkremente der TSI und der Bond-Albedo kann man aus Gl. (8) ableiten:

ΔТef=[ΔS(1 – А – ΔА) – ΔАS]/(16σТ3ef).                  (9)

Falls sich die TSI nicht ändert (ΔS=0), erhalten wir aus Gl. (9), dass

ΔТef= – ΔАS/(16σТ3ef)                                                   (10)

Unter Annahme der derzeit bekannten Werte der effektiven Temperatur der Erde und der TSI ( Tef=254.8 K bzw. S=1366 W/m²) erhalten wir aus Gl. (10) für ΔS=0:

ΔТef= – 91 ΔА                                                                      (11)

Mit einer konstanten Bond-Albedo (ΔA=0) wird Gl. (9) zu

ΔТef= – ΔАS/(16σТ3ef)                                                    (12)

Unter der Annahme des bekannten Wertes der globalen Albedo der Erde, welcher gleich A = 0,30 ist, wie aus den jüngsten Daten hervorgeht [28], erhalten wir aus (12) für for ΔA=0:

Δтef=0,047 ΔS                                                                     (13)

Eine Abschätzung des Verhältnisses der relativen Beiträge der Inkremente ΔS and ΔА zum Inkrement ΔTef kann vorgenommen werden, indem man die Bedingungen ihrer gegenseitigen Kompensation übernimmt, während das Energiegleichgewicht erhalten bleibt [29]

ΔS(1–А–ΔА)–ΔАS= 0                                                   (14)

in Formel (9). Aus (14) kann man das Verhältnis ableiten zwischen dem relativen Beitrag der Inkremente ΔS and ΔA einerseits sowie dem Inkrement ΔТef andererseits:

ΔS/S=ΔА/(1–А–ΔА)                                                        (15)

oder

ΔS=1366·ΔА/(0.7–ΔА)                                                     (16)

Gleichung (13) zeigt, dass wenn die Bond-Albedo unverändert bleibt (ΔA=0) und es nur die TSI ist, die um ΔS= – 6,6 W/m2 abnimmt, die globale effektive Temperatur einschließlich der Einhüllenden aus Wasser und Luft abnimmt mit ΔTef= –0,31 K (weil Schätzungen der Differenz zwischen den Inkrementen der globalen Lufttemperatur {angesichts der Dauer von dessen Verzögerung} und der effektiven Temperatur unbedeutend sind). Aus Gl. (11) folgt, dass die Abnahme der effektiven Temperatur der Erde mit ΔTef= – 0,31 K eine Zunahme der globalen Albedo der Erde um ΔA= + 0,0034 oder 1,13% bewirkt. Eine solche Zunahme der Bond-Albedo wird zu einem zusätzlichen Rückgang der effektiven Temperatur der Erde als Planet um etwa 0,3 K führen, was eine lange Aufeinanderfolge dieser Zyklen zeitigt.

Allerdings beschreibt die (radiative) Temperatur des Systems Erde-Atmosphäre den trägheitsfreien Prozess des radiativen Wärmeaustauschs in einem thermischen Regime im Gleichgewicht. Als Konsequenz wird das unmittelbare radiative Gleichgewicht erreicht mit dem zeitlichen Fortschritt relativ zum Gesamt-Energie (thermisch)-Gleichgewicht des Planeten (Gl. (3), was eine langsame Änderung der Enthalpie des Systems Erde-Atmosphäre zulässt. Die effektive Temperatur ist die Strahlungstemperatur des Planeten. Sie zeigt den Trend der Klimaänderungen auf dem Planeten und reflektiert nicht so sehr zeitweilige planetarische Temperaturänderungen. Folglich betrifft die Änderung der Bond-Albedo merklich die effektive (radiative) Temperatur der Erde und ist (zusammen mit der TSI) der wichtigste Faktor zur Spezifizierung des stattfindenden Klimawandels. Die Welt-Ozeane sind eine träge Umgebung mit langsamen Änderungen im Klimasystem, die Atmosphäre ändert sich schneller. Allerdings führt das enge Zusammenwirken zwischen Atmosphäre und Ozeanen zu einer signifikanten Verzögerung der atmosphärischen Klima-Reaktion auf externe Anreize. Daher ändert sich die thermodynamische Temperatur der Erde nicht sofort auf Variationen der TSI und der Bond-Albedo; es gibt eine merkliche Zeitverzögerung, die bestimmt wird durch die konstante thermische Trägheit des Planeten [30]:

T=0,095(1+0,42·l) Jahr                                                             (17)

wobei 1 die Tiefe der aktiven Schicht in den Ozeanen ist. Falls diese Tiefe 300 bis 700 m beträgt, ist die konstante thermische Trägheit

t=20 ± 8 Jahre                                                                              (18)

Wegen ihrer großen Wärmekapazität ändert sich die Enthalpie der Ozeane langsam, was man durch einen gegenwärtigen Wert der konstanten thermischen Trägheit im Gesamt-Wärmegleichgewicht berücksichtigt. Folglich ändert sich die thermodynamische planetarische Temperatur langsam (was die Emissivitäts-Fähigkeit, d. h. den Grad der Schwärze betrifft). Daher sind Soll und Haben im jährlichen mittleren Energiehaushalt der Erde mit ihrer Einhüllenden aus Luft und Wasser infolge der 11-jährigen und der quasi-zweihundertjährigen Variationen der TSI immer im Ungleichgewicht (E ≠ 0) und sind entweder positiv oder negativ im Gleichgewicht. Ein solcher jährlicher mittlerer Wärmehaushalt im Ungleichgewicht ist der Hauptzustand im Klimasystem Erde-Atmosphäre. Falls TSI über lange Zeiträume abnimmt, erweist sich die mittlere jährliche Änderung der Enthalpie von Erde-Atmosphäre als negativ (E<0). Nimmt dagegen TSI über lange Zeiträume zu, ist diese Änderung positiv (E>0). Die Variationen von TSI und Bond-Albedo spielen die wichtigste Rolle bei der Änderung des Energiegleichgewichtes bei Erde-Atmosphäre und deren thermodynamischer Temperatur. Das jährliche mittlere Gleichgewicht des Energiehaushaltes von Erde-Atmosphäre über einen langen Zeitraum wird zuverlässig Trend und Magnitude der überschüssigen Energie definieren, der sich durch die Erde akkumuliert, oder das Defizit im Wärmehaushalt. Folglich kann das langzeitliche Monitoring des mittleren jährlichen Energiegleichgewichtes der Erde als Planet mittels einer jetzt möglichen Prognose der TSI-Variationen zuverlässig im Voraus (10 bis 20 Jahre im Voraus) den Trend (Erwärmung bei ΔE>0 oder Abkühlung bei ΔE<0) sowie die Magnitude der bevorstehenden globalen Klimaänderung mit einem hohen Grad an Validität bestimmen und vorhergesagen.

Die Abnahme der TSI in der Abnahme-phase des quasi-zweihundertjährigen Zyklus führt zu einem Defizit des Energiehaushaltes der Erde sowie zu einer Kleinen Eiszeit

Die 11- und zweihundert-jährigen Komponenten der TSI nahmen seit Anfang der neunziger Jahre ab mit derzeit zunehmenden Raten (Abbildung 3). Selbst typische kurzfristige Variationen von 0,1% übersteigen die Gesamt-Solareinstrahlung aller anderen Energiequellen (wie etwa die natürliche Radioaktivität im Erdkern) zusammen. Folglich nimmt der Anteil der von der Erde absorbierten Energie mit den gleichen Raten ab [15, 16, 18, 19, 21, 28, 31]. Die untere einhüllende Kurve in Abbildung 3, welche die geglätteten Minimum-Werte des TSI-Niveaus in einigen aufeinanderfolgenden 11-Jahre-Zyklen miteinander in Verbindung bringt (allgemeines Niveau relativ zu dem die 11-jährigen zyklischen Variationen der TSI stattfinden), ist eine Komponente der quasi-zweihundertjährigen, quasi-periodischen Variation in der TSI [1519, 29].

Die mittlere TSI war im 23. Zyklus um 0,15 W/m² niedriger als im 22. Zyklus. Der geglättete Wert der TSI während des Minimums zwischen den beiden Zyklen 23 und 24 (1365,27 ± 0.02W/m²) war jeweils um 0,23 und 0,30 W/m² niedriger als das Minimum zwischen den Zyklen 22 und 23 sowie auch den Zyklen 21 und 22. Allerdings wurde das Anfang der neunziger Jahre beginnende Defizit der einfallenden Sonnenstrahlung (siehe Abbildung 3) seitdem noch nicht kompensiert mittels der Abnahme der eigenen thermischen Energie, die von der Erde in den Weltraum emittiert wird. Diese thermische Energie verharrte auf fast dem gleichen höheren Niveau während 20 ± 8 Jahre infolge der thermischen Trägheit der Ozeane. Ein derartiges Ungleichgewicht im System (ΔE<0) wird noch einige weitere bevorstehende 11-Jahre-Zyklen bestehen bleiben, weil die Sonne in das quasi-zweihundertjährige Stadium geringer TSI eintritt (siehe [1719, 3234]). Als Folge wird die Erde als Planet ein negatives Gleichgewicht auch während der kommenden Zyklen 25 und 26 aufweisen. Diese periodische solare zyklische Transition zeigt, dass die Erde am Rande von deutlichen langfristigen Klimaänderungen steht. Eine solche graduelle Akkumulation von Sonnenenergie durch die Ozeane während fast des gesamten 20. Jahrhunderts wird mit Sicherheit zu einem Rückgang der globalen Temperatur 20 ± 8 Jahre später führen, und zwar wegen des negativen Energiegleichgewichtes im Energiehaushalt der Erde. Dies wiederum wird zu einer verstärkten Albedo der Erdoberfläche führen (infolge sich ausbreitender Schneedecke und Eisbedeckung usw.), einer reduzierten Konzentration von Wasserdampf, welcher ein dominanter Faktor beim Treibhauseffekt ist, ebenso wie Kohlendioxid und einigen anderen Komponenten der Atmosphäre [14, 15, 29, 31, 35]. Wir wollen anmerken, dass Wasserdampf rund 68% der integralen Energie der intrinsischen langwelligen Emission der Erdoberfläche absorbiert, während Kohlendioxid nur etwa 12% absorbiert (Abbildung 4).

Abbildung 4: Die Spektraldichte des thermischen Flusses langwelliger Strahlung von der Erdoberfläche (als Schwarzkörper) [16]
Als Folge davon wird der Anteil der von der Erde absorbierten Solarstrahlungs-Energie weiter abnehmen, ebenso wie die Auswirkung des Treibhauseffektes wegen der sekundären Rückkopplungs-Effekte. Der Einfluss der aufeinanderfolgenden, immer zunehmenden Änderungen der Rückkopplungs-Effekte können zu einem weiteren Rückgang der globalen Temperatur führen, welcher sogar noch über die direkte Auswirkung der TSI-Abnahme hinausgehen kann. Folglich zeigt das Studium aller merkbaren Variationen des Erdklimas während der letzten 7500 Jahre, dass die zweihundertjährige, quasi-periodische Variation der TSI (sowohl deren direkter als auch der Rückkopplungs-Effekte geschuldeten sekundären Auswirkung) verantwortlich ist für die korrespondierenden zyklischen Vorgänge von Klimaänderungen, von den Perioden mit Erwärmung bis zu Kleinen Eiszeiten. Außerdem spezifiziert sie die Zeitmaßstäbe fast aller physikalischen Prozesse, die im System Sonne-Erde vor sich gehen [2, 3, 16].

Da sich die Sonne in der Abnahme-Phase der quasi-zweihundertjährigen Variation befindet, nimmt eine mittlere jährliche Abnahme-Rate des geglätteten absoluten Wertes der TSI vom 22. Zyklus zum 23. und 24. Zyklus zu: eine mittlere jährliche Abnahme-Rate im 22. Zyklus betrug 0,007 W/m² pro Jahr, während sie im 23. Zyklus schon 0,02 W/m² pro Jahr betrug. Die mittlere TSI war im 23. Zyklus um 0,15 W/m² geringer als im 22. Zyklus. Der TSI-Wert während des Minimums zwischen dem 23. und dem 24. Zyklus war jeweils um 0,23 bzw. 0,30 W/m² geringer als zum Minimum zwischen den Zyklen 22 und 23 bzw. 21 und 22. Die gegenwärtige zunehmende Rate einer mittleren jährlichen TSI-Abnahme (mit Berücksichtigung der abrupten Abnahme ihrer 11-jährigen Komponente) beträgt fast 0,1 W/m² pro jahr (Abbildung 3) und wird im 25. Zyklus weiter abnehmen. Der beobachtete Trend der zunehmenden Rate einer mittleren jährlichen Abnahme der absoluten TSI-Werte lässt den Schluss zu, dass diese Abnahme als Ganzes korrespondieren wird mit einer analogen TSI-Abnahme während der Periode des Maunder-Minimums, jedenfalls der zuverlässigsten Rekonstruktion zufolge [26] (in der die Autoren die Aufhellung spezifisch kleinräumigen magnetischen Feldern zuordnen, erzeugt von den Turbulenzen im Netzwerk und Intra-Netzwerk). Wir wollen anmerken, dass das Maximum-Niveau der 11-jährigen TSI-Komponente während der vier Jahre des 24. Zyklus‘ um 0,7 W/m² abgenommen hat gegenüber dem Maximum-Niveau des 23. Zyklus‘. Als Folge davon wird als der wahrscheinlichste Zeitpunkt des Einsetzens des Solaren Großen Minimums vom Maunder-Typ das Jahr 2043 ± 11 Jahre erwartet [1520, 29, 3136]. Wir können eine weitere Abnahme der TSI prognostizieren aufgrund der sich weiter beschleunigenden Abnahme der 11-jährigen und der quasi-zweihundertjährigen Komponenten, die seit Beginn der neunziger Jahre beobachtet wird, ähnlich dem Maunder-Minimum. Diese Abnahme (mit abnehmender Genauigkeit) kann jeweils 1363,4 ± 0,8 W/m², 1361,0 ± 1,6 W/m² und ein Minimum von 1359,7 ± 2,4 W/m² erreichen während der Minima zwischen den Zyklen 24/25, 25/26 und 26/27 (Abbildung 5).

Abbildung 5: Variationen sowohl der TSI als auch der Sonnenaktivität von 1978 bis 2012 sowie Prognose von deren Variationen über die Zyklen 24 bis 26 bis 1945. Der Pfeil zeigt den Beginn der Epoche der Kleinen Eiszeit.

Die Länge des 11-Jahre-Zyklus‘ hängt ab von einer Phase des quasi-zweihundertjährigen Zyklus‘ und nimmt graduell zu von der Wachstumsphase bis zur Maximum- und der Abnahme-Phase im zweihundertjährigen Zyklus (Abbildung 6) [15, 16, 37]. Da erwartet wird, dass die Länge der 11-Jahre-Zyklen während der Abnahme-Phase des quasi-zweihundertjährigen Zyklus‘ zunehmen wird, werden die Minima zwischen den Zyklen 24 und 25, 25 und 26 sowie 26 und 27 jeweils etwa 2020,7 ± 0,6 bzw. 2032,2 ± 1,2 bzw. 2043,7 ± 1,8 betragen. Das Maximum-Niveau der Sonnenfleckenzahl geglättet über 13 Monate könnte jeweils 65-70, 45 ± 20 sowie 30 ± 20 während der Zyklen 24, 25 und 26 erreichen [15,16,19,35].

Abbildung 6: Die Dauer eines 11-jährigen Zyklus‘ hängt ab von der Phase eines quasi-zweihundertjährigen Zyklus‘ und nimmt konsequent zu von der Anstiegsphase bis zur Maximum-Phase und Abnahme des quasi-zweihundertjährigen Zyklus (◉ – der Zyklus 23) [37].
Folglich können wir den Beginn eines TSI-Minimums vom Grand-Maunder-Typ des quasi-zweihundertjährigen Zyklus‘ für das Jahr 2043 ± 11 Jahre und das Temperatur-Minimum vom 19. Grand-Maunder-Typ für die letzten 7500 Jahre um das Jahr 2060 ± 11 vorhersagen (Abbildung 7).

Abbildung 7: TSI-Variationen (mittels der rekonstruierten Daten [26]) und Sonnenaktivitätseit 1611 [27] sowie Prognose von deren Variationen bis zum Ende des 21. Jahrhunderts (gestrichelte Linien): Die heiße Sonne ist gelb und die kühle Sonne rot markiert.
Derzeit werden wir Zeuge der Übergangsperiode zwischen Erwärmung und starker Abkühlung, die charakterisiert ist durch instabile Klimaänderungen mit oszillierenden globalen Temperaturen (etwa bis 2014) rund um das Maximum der Jahre 1998 bis 2005. Der Beginn der Epoche der neuen Kleinen Eiszeit wird um das Jahr 2014 erwartet nach dem Maximum des solaren Zyklus‘ 24, und der Beginn der starken Abkühlung zur Kleinen Eiszeit um das Jahr 2060 ± 11 Jahre (Abbildung 7). Die Temperatur kann bis Mitte des 21. Jahrhunderts auf das Niveau des Maunder-Minimums sinken. Dieses ereignete sich von 1645 bis 1715 (Abbildung 8) [35].

Abbildung 8: Die Prognose natürlicher Klimaänderungen während der nächsten einhundert Jahre.

Folglich sind die langzeitlichen TSI-Variationen (direkte und sekundäre Auswirkungen, letztere Rückkopplungs-Effekten geschuldet) die Hauptursache weit vor allen anderen Ursachen für Klimaänderungen, weil die Variation des Erdklimas eine Funktion des langzeitlichen Ungleichgewichtes ist zwischen der auf die oberen Schichten der Atmosphäre treffenden Solarstrahlung und der von der Erde in den Weltraum abgestrahlten Gesamtenergie.

Starke Vulkanausbrüche führen nur zu kurzfristigen Abkühlungsperioden

Starke Vulkanausbrüche lassen die Anzahl fester Partikel und Gase in der unteren Stratosphäre zunehmen, welche die einfallende Solarstrahlung teilweise absorbieren. Damit wird der Anteil der die Erdoberfläche erreichenden TSI reduziert, was zu einer kurzfristigen Klima-Abkühlung führen kann. Außerdem tragen vulkanische Mikropartikel in der Atmosphäre zur Wolkenbildung bei, was ebenfalls die Erdoberfläche vor der Solarstrahlung abschirmt. Sie absorbieren auch infrarote Strahlung, aber der Anti-Treibhauseffekt ist stärker als der Treibhauseffekt. Allerdings sind diese Änderungen nicht langfristiger Natur, weil die Verweildauer vulkanischer Partikel in der Atmosphäre begrenzt ist. Die Atmosphäre ist zur Selbstreinigung in der Lage, und die Durchlässigkeit bis zum Niveau zuvor wird während einer Zeitspanne von 6 Monaten bis zu ein paar Jahren erreicht, womit dann auch die Temperatur wieder das Niveau zuvor erreicht [16]. Das ist der Grund, warum die Rolle von Vulkanausbrüchen bei Klimavariationen nicht langfristiger Natur sein kann und diese nicht steuert. Man weiß, dass nach dem Ausbruch des Pinatubo im Jahre 1991, bei dem etwa 20 Millionen Tonnen Schwefeldioxid in die Atmosphäre geblasen worden waren, die Temperatur von 1991 bis 1993 um etwa 0,5°C zurückgegangen ist. Danach jedoch hat sich die Atmosphäre selbst von diesen Additiven befreit und schließlich ihren ursprünglichen Zustand wieder erreicht.

Sensitivität des Klimas zu Kohlendioxid ging mit der Zunahme der Wasserdampf-Konzentration zurück

Betrachtet man die von Treibhausgasen ausgelöste Temperaturänderung, sollte man erwähnen, dass die atmosphärische Konzentration von Wasserdampf viel wichtiger ist als die Konzentration von Kohlendioxid. Es ist das Wasser, dass die Hauptrolle beim Treibhauseffekt spielt. Das Volumen der Konzentration von Wasserdampf in der Atmosphäre hängt im Gegensatz zu dem von Kohlendioxid stark von der Höhe ab. Kohlendioxid weist eine konstante Proportion auf bis in Höhen von 80 bis 100 km (es ist homogen verteilt). Wasserdampf ist dagegen am Boden am höchsten konzentriert und geht abrupt mit der Höhe in der Troposphäre zurück, bevor in der Stratosphäre ein etwa konstantes Niveau erreicht ist (Abbildung 9).

Abbildung 9: Die Änderungen der Konzentrationen von Wasserdampf und Kohlendioxid mit der Höhe.

 

Ein langzeitlicher geringer Anstieg der TSI führt zu einer verzögerten Temperaturzunahme, was der Clausius-Clapeyron’schen Gleichung zufolge zu einer Zunahme der Verdunstungsrate von Wasser führt. Sogar eine geringe Zunahme der mittleren Wasserdampf-Konzentration in der Atmosphäre zusammen mit einem gleichzeitigen Anstieg der Kohlendioxid-Konzentration kann eine signifikante Zunahme der Wasserdampf-Konzentration in den bodennahen Luftschichten anzeigen. Dies führt zu substantiellen Änderungen beim Transfer des thermischen Flusses langwelliger Strahlung der Erdoberfläche durch den Wasserdampf (im Falle einer hohen Kohlendioxid-Konzentration in der Atmosphäre: >300 ppmv) wegen der signifikanten Überlappung der Wasserdampf- und Kohlendioxid-Bänder vorherrschend in den drei weiten Bereichen der Emissionsspektren (Abbildung 4) [35]. Als Folge davon nimmt die Klimasensitivität bei einer steigenden Kohlendioxid-Konzentration mit einem signifikanten Anwachsen der Wasserdampf-Konzentration in der bodennahen Luftschicht ab [35]. Während der letzten 40 Jahre ist sowohl die Konzentration von Wasserdampf als auch die von Kohlendioxid gestiegen infolge des Anstiegs der Wassertemperatur der Ozeane, wobei Wasserdampf die dreimal so starke Auswirkung aller Gase hat. Die Stärke natürlicher Zyklen und natürlicher Flüsse ist um das Zehnfache größer als jene aufgrund menschlicher Einflüsse [12]. Die vernachlässigbare Auswirkung der anthropogenen Kohlendioxid-Emissionen auf die Atmosphäre hat unbedeutende Konsequenzen [12].

Bereits im Jahre 1908 stellte der amerikanische Physiker Robert Wood zwei identische Schachteln (Mini-Treibhäuser) aus schwarzem Karton her: eine war bedeckt mit einer Glasplatte, während die andere mit einer Platte aus Steinsalz-Kristallen abgedeckt war, welche im infraroten Anteil des Spektrums nahezu durchlässig sind. Die Temperatur erreichte in beiden Treibhäusern gleichzeitig etwa 54,4°C. Allerdings ist die Steinsalzplatte für lange Wellenlängen durchlässig, und daher dürfte der allgemein verbreiteten Theorie vom Treibhauseffekt zufolge eine solche Temperatur mit dieser Abdeckung nie und nimmer auftreten [38]. Robert Wood hat damit bewiesen, dass in dem Treibhaus, in dem die Wärme von allen Seiten blockiert ist und es keinen Luftaustausch mit der Atmosphäre gibt, die Strahlungskomponente vernachlässigbar gering ist im Vergleich zur konvektiven Komponente. Folglich ist die Wärme-Akkumulation im Treibhaus unabhängig von der Durchlässigkeit der Abdeckung bzgl. infraroter Strahlung, und die Absorption dieser Strahlung durch das Glas ist nicht der Hauptgrund für die Wärme-Akkumulation im Treibhaus. Dies widerspricht der allgemein verbreiteten Erklärung des Treibhauseffektes. Es ist notwendig zu erwähnen, dass die Erdoberfläche zusammen mit der Erdatmosphäre das System mit einer Einhüllenden repräsentieren. Im allgemeinen thermischen Gleichgewicht sowohl der Erdoberfläche als auch der Atmosphäre wirken verschiedene Vorgänge des thermischen Austausches zusammen mit dem Treibhauseffekt: Konvektion, Verdunstung und Kondensation.

Der globale Temperaturanstieg auf der Erde ist seit 1998 zum Stehen gekommen

Abbildung 10: Der Überschuss des jährlichen Mittels der globalen Temperatur hinsichtlich dem Mittel der Temperatur im Intervall 1961 bis 1990 = +14°C sowie die Kohlendioxid-Konzentration von 1997 bis 2011 und deren zu erwartende Änderung 2012 bis 2015

Von der Temperatur weiß man, dass sie zu sinken beginnt, nachdem sie ihr Maximum während der glazialen/interglazialen Zyklen erreicht hatte, und zwar trotz der Tatsache, dass die Konzentration von Treibhausgasen weiterhin steigt [6, 8, 10, 39]. Höhere oder niedrigere Niveaus der Kohlendioxid-Konzentration wurden jeweils nach Erwärmung oder Abkühlung beobachtet. Dem Gesetz von Henry zufolge absorbiert eine warme Flüssigkeit weniger Gas, da die Löslichkeit eines Gases in Wasser direkt proportional ist zum Partialdruck des Gases über der Flüssigkeit, wodurch mehr Kohlendioxid in der Atmosphäre verbleibt. Ein ähnliches Bild sehen wir heutzutage. Während der letzten 16 Jahre ist die Kohlendioxid-Konzentration mit der gleichen Rate wie zuvor gestiegen, aber nach dem Jahr 1998 fehlt jeder an sich erwartete Einfluss auf die globale Temperatur (Abbildung 10). Die globale Erwärmung ist zum Stillstand gekommen und wird einer neuen Vorhersage des britischen nationalen Wetterdienstes während der nächsten fünf Jahre auch nicht wieder einsetzen [40]. Vor einigen Jahren sagte das Met.-Office, dass die meisten der nachfolgenden Jahre neue Rekorde setzen würden. Das UKMO verringert seine Temperatur-Prophezeiungen um 20% als „Rückkehr zur Bescheidenheit“. Die Tatsache, dass das UKMO seine kurzfristige Vorhersage der globalen Erwärmung Heiligabend 2013 stillschweigend geändert hat bedeutet, dass die globale Erwärmung langsam verschwindet. Es hat schließlich eingestanden, dass es keine Beweise dafür gibt, dass die „globale Erwärmung“ im Gange ist. Eine Studie der Variabilität der Schneebedeckung in den Schweizer Alpen von 1864 bis 2009 zeigt ebenfalls eine Trendwende der Temperatur dort seit dem Jahr 2000 [41]. Sämtliche Klimamodelle, die erzeugt wurden durch Die-Globale-Erwärmung-Kommt lagen mit ihren Prophezeiungen völlig falsch. Das Fehlen jedweder Erwärmung während der letzten 16 Jahre ist ein Vorbote des kommenden Beginns der Kleinen Eiszeit. Natürliche Ursachen spielen die Hauptrolle bei Klimavariationen, nicht die menschliche Aktivität, sind doch natürliche Faktoren substantiell stärker [12]. Als Folge davon hat der Temperaturanstieg auf der Erde im Jahre 1998 aufgehört, und die Kohlendioxid-Konzentration erreichte inzwischen eine Rekordhöhe (Abbildung 10). Der Stillstand der globalen Temperatur während der letzten 16 Jahre wird sich 2013 fortsetzen. Die Richtungen ihrer Entwicklung seit 1998 passen nicht zusammen. Die Erde hat das Maximum der Erwärmung während der Jahre 1998 bis 2005 durchlaufen [16, 29, 31, 35].

Der Gehalt von Treibhausgasen in der Atmosphäre hängt weitgehend von den Ozeanen ab, und der von Staub von vulkanischer Aktivität und dem Anstieg von Aerosolen über dem Festland. Die Stärke natürlicher Flüsse (Kohlendioxid, Wasserdampf und Staub) von Ozean und Festland in die Atmosphäre (Min) sowie aus der Atmosphäre in die Ozeane und auf das Festland (Mout) gehen oftmals viele Male über die anthropogenen Freisetzungen (Mant) hinaus [12]. Das mittlere Anwachsen des atmosphärischen Kohlendioxids hat sich seit Beginn des vorigen Jahrzehnts verlangsamt, zu einer Zeit also, als von Emissionen berichtet worden ist, die mit einer beispiellosen Rate gestiegen seien [42]. Der Gesamtgehalt von Kohlendioxid in den Ozeanen ist 50 mal höher als in der Atmosphäre, und selbst ein schwaches Ausgasen aus den Ozeanen kann das Kohlendioxid-Niveau in der Atmosphäre dramatisch verändern [12]. Gleichzeitig ist Kohlendioxid eine Schlüsselkomponente des Lebenszyklus‘ in der Biosphäre, und die Zunahme seiner Konzentration ist ein wesentlicher Faktor für das Pflanzenwachstum und die Steigerung der landwirtschaftlichen Produktivität.

Der Anstieg des Meeresspiegels infolge der globalen Erwärmung ist der zuverlässigste Indikator der Rate des Temperaturanstiegs (60% des Meeresspiegel-Anstiegs resultieren aus der Zunahme der Wassermenge in den Ozeanen, während 40% die Folge von thermischer Ausdehnung von Ozeanwasser mit der Erwärmung sind) und eines der aktuellsten Probleme derzeit. Über 40 Wissenschaftler in 20 Teams nehmen an Forschungen bzgl. der Arktis teil und verstärkten gemeinsam ihre Bemühungen, um den Beitrag schmelzenden Eises auf Grönland und in der Antarktis auf den globalen Meeresspiegel abzuschätzen. Seit 1992 hat das Schmelzen polaren Eises den Meeresspiegel im Mittel um 0,59 ± 0,2 mm pro Jahr steigen lassen [43]. Dieser genauesten Schätzung zufolge hat die Eisschmelze zu einem Anstieg des Meeresspiegels um 11 mm während der letzten beiden Jahrzehnte geführt. Dies bedeutet, dass der gegenwärtige Meeresspiegel gar nicht steigt, was den gegenwärtigen Zustand der globalen Erwärmung reflektiert – es hat aufgehört, und die globale Temperatur ist während dieses gesamten Zeitraumes nicht gestiegen. Außerdem wird die Rate des Anstiegs sowie Änderungen des Meeresspiegels auch direkt von langzeitlichen TSI-Variationen bestimmt. Die TSI-Abnahme seit Anfang der neunziger Jahre und korrespondierend dazu der in die tropischen Ozeanbereiche einfallende geringere Anteil von Sonnenenergie können graduell zu einer Abschwächung der atmosphärischen und ozeanischen Zirkulation führen und, zuallererst, zu einer Abschwächung des warmen Golfstromes, da die von den Strömungen transportierte Wärmemenge aus tropischen Gebieten abnehmen wird. Dies wird zu einer graduellen Klimaabkühlung in Westeuropa führen.

Gleichzeitig kommt es zu einer Erwärmung anderer Planeten und deren Satelliten im Sonnensystem: auf dem Mars, auf Jupiter, dem Neptunmond Triton, Pluto. Im Jahre 2005 enthüllten Daten der NASA-Missionen Mars Global Surveyor und Odyssey, dass die aus Kohlendioxid bestehenden „Eiskappen“ am Südpol des Mars‘ drei Sommer hintereinander geschrumpft sind [44]. Gibt es irgendeine Gemeinsamkeit, die auf allen Planeten des Sonnensystems gleichzeitig wirken und zu einer gleichzeitigen Erwärmung dort während des gleichen Zeitraumes führt? Dieser gemeinsame Faktor, der alle Körper im Sonnensystem gleichzeitig betrifft, ist das langzeitlich hohe TSI-Niveau während des gesamten 20. Jahrhunderts. Das ist der Grund, warum die gleichzeitige Erwärmung der Erde, des Mars‘ und des gesamten Sonnensystems eine natürliche solare Ursache hat. Damit werden die Auswirkungen eines „solaren Sommers“ im gesamten Sonnensystem und die daraus resultierenden Veränderungen der Klimabedingungen bestätigt [45]. Da es auf dem Mars keine anthropogenen Emissionen gibt, muss diese Erwärmung anderen Ursachen geschuldet sein wie etwa einer wärmeren Sonne, und genau die gleichen Gründe sind verantwortlich für die im 20. Jahrhundert beobachtete Erwärmung der Erde [15, 16, 45]. Dies ist der Beweis, dass die Erwärmung zum Ende des 20. Jahrhunderts auf der Erde von Änderungen auf der Sonne verursacht ist. Die langzeitliche Zunahme der Solarstrahlung erwärmt sowohl die Erde als auch den Mars. Gleichzeitig leistete die anthropogene Treibhaus-Erwärmung einen geringen Beitrag zu der Erwärmung auf der Erde in jüngerer Zeit, aber dieser Beitrag kann nicht mit der Zunahme der Solarstrahlung mithalten [15, 16, 29, 31, 35]. Langzeitliche Änderungen des solaren Wärme-Outputs sind die Ursache für fast alle Klimaänderungen, die wir auf den Planeten beobachten. Allgemein und analog zu den Jahreszeiten auf der Erde im Sonnensystem gibt es eine ähnliche Veränderung klimatischer Bedingungen, diktiert von der TSI-Variation im Rahmen des quasi-zweihundertjährigen Zyklus‘. In dieser Hinsicht wird unser gesamtes Sonnensystem zunächst den „solaren Herbst“ durchlaufen bis zum Eintreten des „solaren Winters“ im quasi-zweihundertjährigen Sonnenzyklus.

Vom Menschen verursachte globale Erwärmung: selbst das IPCC räumt ein, dass der Freudentanz vorüber ist [46]. Ein durchgesickerter Entwurf des jüngsten IPCC-Zustandsberichtes Nr. 5 gibt zu: Der Fall der vom Menschen verursachten globalen Erwärmung wird jeden Tag schwächer; die Sonne spielt eine wesentlich bedeutendere Rolle beim „Klimawandel“ als der wissenschaftliche „Konsens“ zuvor zugegeben hatte. Die starken Beweise der Existenz eines Verstärkungs-Mechanismus‘ des Einflusses des solaren Antriebs ändert alles. Jetzt können die Klima-Alarmisten nicht mehr behaupten, dass die globale Erwärmung ausschließlich der menschlichen Aktivität geschuldet ist während eines Zeitraumes, in dem sich solare Erwärmungseffekte im Maximum befanden – deren Bedeutung jetzt auch zugegeben wird.

Conclusion

Die langzeitlichen zyklischen Variationen der Gesamtenergie der Solarstrahlung, die auf die oberen Schichten der Erdatmosphäre trifft, sind der fundamentale Hauptgrund für korrespondierende Klimavariationen. Sie kontrolliert und bestimmt total die Vorgänge zyklischer alternierender Klimaänderungen von Erwärmung zu kurzfristigen Kleinen Eiszeiten und langfristigen Großen Glazialen Perioden. Sie setzt korrespondierende Zeitmaßstäbe für praktisch alle physikalischen Prozesse, die im System Sonne-Erde ablaufen. Alle beobachteten Änderungen des Klimas auf der Erde und im Sonnensystem sind normale kosmische Vorgänge. Die Sonne ist der Hauptfaktor, der das Klimasystem steuert, und selbst nicht signifikante langzeitliche TSI-Variationen können ernste Konsequenzen für das Klima auf der Erde und auf anderen Planeten nach sich ziehen. Quasi-zweihundertjährige Solarzyklen sind der Schlüssel zum Verständnis zyklischer Klimaänderungen sowohl in der Natur als auch in der Gesellschaft.

Das Signal und der Wert des Energie-Ungleichgewichtes im System Erde-Atmosphäre über einen langen Zeitraum (sich in den Ozeanen akkumulierender Überschuss einfallender TSI oder deren Defizit) bestimmt über eine korrespondierende Änderung des Energie-Status‘ des Systems und damit eine bevorstehende Klimavariation nebst deren Amplitude. Das ist der Grund für die Änderung des Erdklimas alle 200 ± 70 Jahre, und es ist die Folge der zweihundertjährigen zyklischen TSI-Variation. Alle beobachteten zyklischen Variationen des Klimas auf der Erde und im Sonnensystem sind normale solare Vorgänge. Lange vor Beginn des 24. Sonnenzyklus‘ während der Jahre 2003 bis 2007 [1720,36], als die anthropogene Natur der globalen Erwärmung weit verbreitet akzeptiert war, prophezeite ich den Beginn des Grand Minimums sowohl der TSI als auch der Sonnenaktivität um das Jahr 2043 ± 11 Jahre sowie die korrespondierende Abnahme der globalen Temperatur – den Beginn also der 19. Epoche (während der letzten 7500 Jahre) einer Kleinen Eiszeit – um das Jahr 2014 (nach dem Maximum des 24. Sonnenzyklus‘). Diese Vorhersagen angesichts des allgemeinen Glaubens an die anthropogene Natur der globalen Erwärmung sorgten für große Diskussionen in wissenschaftlichen und auch anderen Kreisen, aber im Laufe der Jahre gab und gibt es immer mehr wissenschaftliche Bestätigungen und Unterstützer. Der Hauptpunkt ist, dass die Vorhersagen von der Sonne selbst bestätigt werden und vom Verlauf der Änderungen der globalen Temperatur und des Meeresspiegels während der letzten 16 Jahre. Im Jahre 2014 – also im nächsten Jahr – werden wir in den etwa 45 Jahre langen Abstieg kommen bis hin zu etwas, dass die 19. Kleine Eiszeit auf der Erde sein wird. Das Eingehen der praktisch vollständigen Zuordnung der Klimaänderungen zu den langzeitlichen Änderungen der einfallenden Sonnenenergie (unter Berücksichtigung von deren direkter und daraus folgender sekundärer Rückkopplungs-Auswirkungen) in ein Klimamodell ergibt eine hinreichend präzise Rekonstruktion klimatischer Prozesse, die in der jüngeren Vergangenheit und in nächster Zukunft stattfinden werden. Alle Klimamodelle mit der Grundlage Die-Globale-Erwärmung-Kommt sind mit ihren Prophezeiungen gescheitert. Die mathematische Modellierung von Klimaprozessen ohne eine fundamentale Modernisierung des mathematischen Modells und die Einbeziehung noch stärkerer Supercomputer und auch ohne Einbeziehung quasi-zweihundertjähriger TSI-Variationen wird keine signifikant zuverlässigeren Ergebnisse bringen [40,46]. Der vernünftigste Weg, gegen die bevorstehende Kleine Eiszeit zu kämpfen wird es sein, eine Kombination spezieller Schritte auszuarbeiten mit dem Ziel, ökonomisches Wachstum sowie energiesparende Produktion zu fördern, um es der Menschheit zu ermöglichen, sich an die Periode starker Abkühlung anzupassen, die vermutlich bis zu Beginn des 22. Jahrhunderts dauern wird.

Die zuverlässigste Mehode zur genauen Vorhersage der Stärke und der Zeit der kommenden Kleinen Eiszeit wird es sein, die langzeitlichen Variationen der effektiven globalen Parameter zu untersuchen: Mittleres jährliches Energie-Gleichgewicht im Budget des Systems Erde-Atmosphäre bzgl. der thermischen Energie. Daher arbeiten wir jetzt an einem neuen Weltraumprojekt mit der Bezeichnung Selenometria im russischen Segment der International Space Station ISS, um die langzeitlichen Variationen der Gesamt-Solarstrahlung zu untersuchen, die von der Erde reflektiert und absorbiert wird, den damit zusammenhängenden Energiezustand der Erde und deren Einwirkung auf das Erdklima (Abbildung 11). Hierfür zieht die Selenometria den Mond als Spiegel heran, um diese Variationen zu studieren.

Abbildung 11: Die Selenometria benutzt den Mond als einen Spiegel, um die Variationen der TSI zu studieren, die von der Erde reflektiert bzw. absorbiert wird.

Link zum Originalabeitrag: https://www.omicsgroup.org/journals/grand-minimum-of-the-total-solar-irradiance-leads-to-the-little-ice-age-2329-6755.1000113.php?aid=12810

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Er bedankt sich bei Herrn Tyll Ruhtenberg für den Hinweis auf diese Arbeit.

References

  1. Herschel W (1801) Observations tending to investigate the nature of the Sun, in order to find the causes or symptoms of its variable of light and heat; with remarks on the use that may possibly be drawn from solar observations. Phil Trans R Soc London 91: 265-318.
  1. Eddy JA (1976) The Maunder minimum. Science 192: 1189-1202.
  1. EP Borisenkov, Leningrad (1988) Climate oscillations of the last millennium. Gidrometeoizdat 408.
  1. Milankovitch M (1941) Canon of Insolation and the Ice Age Problem: Kanon der Erdbestrahlung und seine Anwendung auf das Eiszeitenproblem.
  1. Astronomical theory of climate change. NOAA Paleoclimatology, NOAA.
  1. Petit JR, Jouzel J, Raynaud D, Barnola JM, Basile I, et al. (1999) Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature 399: 429-436.
  1. (2000) Climate change: new Antarctic ice core data.
  1. Fischer H, Wahlen M, Smith J, Mastroianni D, Deck B (1999) Ice core records of atmospheric CO2 around the last three glacial terminations. Science 283: 1712-1714.
  1. Lu Z, Rickaby REM, Kennedy H, Kennedy P, Pancost RD, et al. (2012) An ikaite record of late Holocene climate at the Antarctic Peninsula. Earth and Planetary Science Letters 325: 108-115.
  1. Pedro JB, Rasmussen SO, van Ommen TD (2012) Tightened constraints on the time-lag between Antarctic temperature and CO2 during the last deglaciation. Clim Past 8: 1213-1221.
  1. Humlum O, Stordahl K, Solheim JE (2013) The phase relation between atmospheric carbon dioxide and global temperature. Global and Planetary Change 100: 51-69.
  1. Nigmatulin RI (2010) The ocean: climate, resources, and natural disasters. Herald of the Russian Academy of Sciences 80: 338-349.
  1. Bal S, Schimanke S, Spangehl T, Cubasch U (2011) On the robustness of the solar cycle signal in the Pacific region. Geophys Res Lett 38: L14809-L14814.
  1. McPhaden MJ, Lee T, McClurg D (2011) El Nino and its relationship to changing back-ground conditions in the tropical Pacific ocean. Geophys Res Lett 38: L15709-L15712.
  1. Abdussamatov KHI (2009) The Sun defines the climate (Солнце определяетклимат Земли). Russian Journal “Nauka i Zhizn” (“Science and Life”) 34-42.
  1. Abdussamatov KHI (2009) The Sun dictates the climate of the Earth. St Petersburg. Published by Logos 197.
  1. Abdussamatov KHI (2005) Long-term variations of the integral radiation flux and possible temperature changes in the solar core. Kin Phys Celest Bodies 21: 328-332.
  1. Abdussamatov KHI (2007) Decrease of the solar radiation flux and drastic fall of the global temperature on the Earth in the middle of the XXI century. Izv Krym Astrofiz Observ 103: 292-298.
  1. Abdussamatov KHI (2007) Optimal prediction of the peak of the next 11-year activity cycle and of the peaks of several succeeding cycles on the basis of long-term variations in the solar radius or solar constant. Kin Phys Celest Bodies. 23: 97-100.
  1. Abdussamatov KHI (2005) About the long-term coordinated variations of the activity, radius, total irradiance of the Sun and the Earth’s climate. Proceedings of IAU Symposium No 223 Cambridge, Cambridge Univ Press.
  1. Frohlich C (2012) Solar Constant. Physikalisch-Meteorologisches Observatorium Davos, World Radiation Center.
  1. Krivova NA, Solanki SK, Wenzler T (2009) ACRIM-Gap and total solar irradiance revisited: is there a secular trend between 1986 and 1996? Geophys Res Lett 36: L20101.
  1. Avdyushin SI, Danilov AD (2000) The Sun, weather, and climate: a present-day view of the problem (Review). Geomagn Aeron 40: 545-555.
  1. Lean JL (2000) Short term, direct indices of solar variability. Space Sci Rev 94: 39-51.
  1. Solanki SK, Krivova NA (2004) Solar irradiance variations: from current measurements to long-term estimates. Solar Phys 224: 197-208.
  1. Shapiro AI, Schmutz W, Rozanov E, Schoell M, Haberreiter M et al. (2011) A new approach to the long-term reconstruction of the solar irradiance leads to large historical solar forcing. Astron Astrophys 529: A67.
  1. 27 (2012) Sun Spot Data. SIDC- Solar Influences Data Analysis Center.
  1. Trenberth KE, Fasullo JT, Kiehl J (2009) Earth’s global energy budget. Bull Am Meteor Soc 90: 311-323.
  1. Abdussamatov KHI (2012) Bicentennial decrease of the total solar irradiance leads to unbalanced thermal budget of the Earth and the Little Ice Age. Applied Physics Research 4: 178-184.
  1. Abdussamatov KHI, Bogoyavlenskii AI, Khankov SI, Lapovok YV (2010) Modeling of the Earth’s planetary heat balance with electrical circuit analogy. J Electromagn Anal Appl 2: 133-138.
  1. Abdussamatov KHI (2012) Bicentennial decrease of the solar constant leads to the Earth’s unbalanced heat budget and deep climate cooling. Kinematics and Physics of Celestial Bodies 28: 62-68.
  1. Penn MJ, Livingston W (2010) Long-term evolution of sunspot magnetic fields. IAU Symposium No. 273.
  1. Penn MJ, Livingston W (2011) Long-term evolution of sunspot magnetic fields. Proceedings of IAU Symposium No 273. Cambridge 6: 126-133.
  1. Climate change sanity. Climate change is primarily a natural phenomenon.
  1. Abdussamatov KHI (2010) The Sun dictates the climate. Fourth International Conference on Climate Change (ICCC-4) ppt-presentation, Chicago.
  1. Trimble V, Aschwanden MJ, Hansen CJ (2007) Astrophysics in 2006, Space Sci Rev 132: 1-182.
  1. Abdussamatov KHI (2006) The time of the end of the current solar cycle and the relationship between duration of 11-year cycles and secular cycle phase. Kin Phys Celest Bodies 22: 141-143.
  1. Wood RW (1909) Note on the theory of the greenhouse. Philosophical Magazine 17: 319-320.
  1. Kotlyakov VM (2012) The history of the Earth’s climate according to the deep drilling in Antarctica (Earth’s climate history revealed from the data of deep drilling in Antarctic. Nature 5: 3-9.
  1. Decadal forecast. Met Office.
  1. Scherrer SC, Wüthrich C, Croci-Maspoli M, Weingartner R, Appenzeller C (2013) Snow variability in the Swiss Alps 1864-2009. Int J Climatol.
  1. Ross J (2013) Slowing CO2 growth contradicts “surge”. The Australian, Nature Climate Change.
  1. Shepherd A, Ivins ER, Geruo A, Barletta VR, Bentley MJ et al (2012) A reconciled estimate of ice-sheet mass balance. Science 338: 1183-1189.
  1. The changing south polar cap of Mars, Malin Space Science System.
  1. Ravilious K (2007) Mars Melt Hints at Solar, Not Human, Cause for Warming, Scientist Says. National Geographic News.
  1. Delingpole J (2012) Man-made global warming: even the IPCC admits the jig is up. The Telegraph December 13th, 2012.




Klima-Vorhersagen auf der Grundlage der Realität

Ebenso an herausragender Stelle in dem Museum ist das Wrack des britischen Sklavenschiffes Henrietta Marie ausgestellt. Es sank in einem Hurrikan vor Key West im Jahre 1700, nachdem es 190 Afrikaner nach Jamaika gebracht hatte, die als Sklaven verkauft werden sollten.

Als Fishers Taucher das Wrack der Henrietta etwa 40 Fuß [ca. 12 m] unter der Wasseroberfläche freigelegt hatten, fanden sie – nicht nur Gebeine und andere schlimme Artefakte aus jener schrecklichen Zeit – sondern auch verkohlte Baumäste, Kiefernzapfen und andere Überbleibsel eines Waldbrandes vor 8400 Jahren! Die immer noch harzig riechenden Fragmente belegen, dass dieses Gebiet (wie alle anderen Küstengebiete auf der ganzen Welt) einst deutlich über dem Meeresspiegel lag, bevor die letzte Eiszeit zu Ende gegangen ist und schmelzende Gletscher die Ozeane auf ihr gegenwärtiges Niveau haben steigen lassen: 400 Fuß [ca. 120 m] höher als während des kalten Pleistozäns, als ein großer Teil des Meerwassers der Erde in Gletschern gebunden war.

Klimawandel war eindeutig „real“ während der gesamten Erd- und Menschheitsgeschichte. Die Frage lautet, wie genau und in welchem Ausmaß die heutigen menschlichen Aktivitäten lokal, regional oder global Klima und Wetter beeinflussen.

Unglücklicherweise fahren politisierte Klimawandel-Forscher mit Behauptungen fort, denen zufolge komplexe, mächtige und in Wechselwirkungen stehende natürliche Kräfte ersetzt wurden durch menschliche Emissionen fossiler Treibstoffe, vor allem Kohlendioxid; denen zufolge jedwede zukünftige Änderung katastrophal sein wird und denen zufolge die Menschheit Klima und Wetter kontrollieren kann mittels Kontrolle des Appetits der Menschheit auf Öl, Gas, Kohle und modernen Lebensstandards.

Falls man das Klima mag, kann man es behalten, suggerieren sie. Falls nicht, können wir ein besseres herstellen.

Da ist es keine Überraschung, dass Klimachaos-Wissenschaftler, die sich auf den Multi-Milliarden-Dollar Zufluss der Regierung verlassen haben, bestürzt sind hinsichtlich der Aussicht, dass Präsident Donald Trump ihre Budgets entscheidend beschneiden oder deren CO2-zentrierte Forschung beenden wird. Verzweifelt ums Überleben kämpfend ersetzen sie den Terminus „Klimawandel“ durch die Begriffe „globaler Wandel“ [global change] oder „Wetter“ in ihren Anträgen auf Förderung. Und sie gehen weiterhin in die Offensive mit Op-Ed-Artikeln und Medien-Interviews.

„So könnte der bevorstehende Angriff auf die Wissenschaft aussehen“, lamentierte der Modellierer bei Penn State und Erzeuger des Hockeyschlägers Michael Mann in einer Kolumne der Washington Post, „ich fürchte das, was unter Trump passieren könnte. Das Schicksal des Planeten steht auf dem Spiel“. (Tatsächlich sind es die Millionen-Dollar-Zuwendungen an ihn, die auf dem Spiel stehen).

Ein „skeptischer“ Wissenschaftler hat sich mit dem Gedanken angefreundet, dass ein großer grönländischer Eisschild wegen des Klimawandels schrumpfen könnte. Dies verkündete die Post groß auf ihrer Titelseite. Vielleicht ist das so. Aber ist es vom Menschen verursachte Erwärmung? Deutet dies auf einen planetaren Kataklysmus, selbst wenn das Innere von Grönland und auch die Antarktis derzeit einen Rekord-Eiszuwachs zeigen? Oder schwächen warme Ozean-Strömungen einen Eisschild so stark, weil er auf Ozeanwasser schwimmt und nicht auf dem Festland liegt?

Das fundamentale Problem bleibt bestehen. Falls es sich um Substandard-Wissenschaft und Modellierungen unter der Terminologie der Obama-Ära handelt, wird es auch im Jargon von Überlebenskünstlern Substandard sein. Die Auffassung, dass anthropogenes Kohlendioxid jetzt Klima und Wetter steuert – und wir können Klima und Wetter vorhersagen, indem wir ausschließlich auf das Pflanzen düngende CO2 und andere „Treibhausgase“ schauen – ist jetzt genauso absurd wie zuvor.

Deren Prophezeiungen werden genauso gegenstandslos und unwissenschaftlich sein wie im Voraus Gewinner der Weltmeisterschaft zu modellieren, indem man ausschließlich berechnet, wer in beiden Mannschaften Linksaußen spielt*.

[*Im Original wird hier der Super Bowl für diesen Vergleich angeführt, aber weil die komplizierten Regeln des American Football den Lesern hierzulande nicht so geläufig sind, habe ich zu einem Äquivalent-Vergleich gegriffen. Anm. d. Übers.]

Wenn Klimarealisten in der EPA und anderen staatlichen Agenturen die Zügel übernehmen, sollte die Trump-Regierung sicherstellen, dass Steuergelder nicht weiter für eine noch alarmistischere Wissenschaft verschwendet werden sollten, die nur bemüht wird, um den Verschluss weiterer fossiler Treibstoffe zu rechtfertigen sowie die Ausweitung erneuerbarer Energie und Programme zur „Kohlenstoff-Abscheidung“. Dies reduziert die Lebensstandards in den USA und gibt armen Ländern vor, welcher Lebensstandard ihnen „gestattet“ ist.

Zuverlässige Vorhersagen so weit wie möglich im Voraus wären für die Menschheit eindeutig vorteilhaft. Damit dies jedoch möglich wird, müssen Forscher sämtliche natürlichen und menschliche Faktoren untersuchen und nicht bloß der vermeintlichen Konsenslinie folgen, der zufolge Kohlendioxid jetzt den Klimawandel dirigiert.

Das bedeutet, dass Zuwendungen der Regierung nicht mehr bevorzugt an Forscher fließen dürfen, die danach trachten, den CO2-Zentrismus weiter zu festigen, sondern vielmehr an all jene, die sich einer breiter gefassten, soliden und leidenschaftlicher Forschung verpflichtet fühlen, die sowohl natürliche al auch anthropogene Faktoren untersucht. Empfänger von Zuwendungen müssen auch zustimmen, sich harten Diskussionen und Debatten zu stellen, um ihre Daten, Verfahren, Analysen und Schlussfolgerungen zu posten, zu erklären und zu verteidigen.

Sie müssen weit mehr Aufmerksamkeit der Verbesserung unseres Verständnisses aller Kräfte widmen, die Klimafluktuationen antreiben, welche Rolle sie spielen sowie die komplexen Wechselwirkungen zwischen ihnen. Unter den wichtigen Faktoren sind zyklische Variationen der Sonnenenergie, kosmische Strahlen, Winde in der oberen Erdatmosphäre sowie Zirkulationsänderungen im Zeitmaßstab von Jahrzehnten und Jahrhunderten in der Tiefsee, welche sehr schwierig zu messen sind und von denen man noch nicht genug weiß, um sie in Klimamodellen vorherzusagen oder auch nur realistisch darstellen zu können.

Ein weiterer wichtiger Faktor sind anomale Warmwassergebiete, die sich von Zeit zu Zeit im Pazifischen Ozean zeigen und von Winden und Strömungen nordwärts zur Arktis getrieben werden, was Auswirkungen auf Temperatur und Niederschlag in den USA, Kanada, Europa und Asien hat. Der Prozess der Wolkenbildung ist ebenfalls wichtig, weil Wolken helfen, planetare Wärme zurückzuhalten, die Sonnenwärme reflektieren und kühlenden Niederschlag bringen.

Viele Wissenschaftler haben versucht, all diese Faktoren in Klimadiskussionen einzubringen. Allerdings hat die hoch politisierte Natur der speziell auf bestimmte Bereiche konzentrierten Förderung seitens der USA und des IPCC, nämlich die Konzentration auf CO2, dafür gesorgt, die Rolle dieser natürlichen Faktoren abzutun, auszulassen oder zu ignorieren.

Die politische Lage bedeutete auch, dass die meiste Forschung und Modellierung sich auf Kohlendioxid und andere vermeintliche menschliche Beiträge zum Klimawandel konzentriert hat. Politik, unzulängliche Daten und fehlendes Wissen führen ebenfalls dazu, dass Modelle unrealistische physikalische Theorien reflektieren, übermäßig vereinfachte und unzureichende numerische Verfahren verwenden und daran scheitern, Zirkulationszyklen in der Tiefsee sowie die Vielfalt und Komplexität der natürlichen Kräfte nebst deren konstantem, komplizierten Zusammenspiel bei der Steuerung von Klimavariationen zu erfassen.

Schnellere und stärkere Computer machen nichts weiter als irgendwelche „Garbage-in-Garbage-Out“-Berechnungen, Analysen und Prophezeiungen, die viel schneller erfolgen – schneller falsche Vorhersagen ausspucken … und politische Empfehlungen geben.

Der Wunsch nach Sicherstellung der Förderung seitens Obamas Vergabe-Agenturen zementierte auch eine Tendenz, El-Nino-Wärmespitzen heranzuziehen und Rosinenpickerei bzgl. des Endes von Abkühlungszyklen zu betreiben als Startpunkt für Trendlinien, die vermeintlich „beweisen“, dass fossile Treibstoffe „beispiellose“ Temperaturspitzen und planetarische Kalamitäten verursachen.

Und schließlich, die Zehner-Milliarden Dollar, die während der letzten Jahre jährlich für die „Lasst-Es-Im-Boden“-Kampagnen, für nationale und internationale Vorschriftengeber sowie Unternehmen erneuerbarer Energien ausgegeben worden waren, haben diesen enorme Anreize verschafft, die Pseudowissenschaft à la IPCC/EPA zu unterstützen – sowie Klimarealisten zu diffamieren und zum Schweigen zu bringen, welche der Vorgabe des „vom Menschen verursachten katastrophalen Klimawandels“ nicht folgen.

Die Trump-Regierung sowie der 115. Kongress haben die einmalige Gelegenheit, diese Dynamik zu durchbrechen und sicherzustellen, dass zukünftige Forschungen nützliche Informationen erbringen, ein besseres Verständnis des komplexen Klimasystems der Erde sowie Vorhersagen, die zunehmend genau sind. Außerdem sollten sie:

Die Rolle gründlich überdenken, sie zu reduzieren (oder gar zu eliminieren), welche Klimamodell-„Projektionen“ (Prophezeiungen) bei der Einflussnahme auf die Politik, auf Gesetze und Vorschriften spielen – bis die Fähigkeiten der Modellierungen erheblich und vorzeigbar verbessert sind und auf einer Linie liegen mit den zuvor gemachten Beobachtungen.

Den Clean Air Act überarbeiten, um die Übermacht der EPA bei der Ausgabe von Vorschriften bzgl. CO2 zu brechen – oder die EPA zu zwingen, seine „Endangerment“-Finding neu zu bewerten sowie dafür neue Informationen und Kommentare heranzuziehen.

Sie sollte die Finanzierung der Klimawissenschaft deutlich reduzieren sowie die Zuwendungen für IPCC und EPA drastisch kürzen. Die Förderung sollte breiter angelegt werden, nicht monopolistisch, besonders wenn das Monopoly unvermeidlich politisiert ist.

Das ist kein „Angriff auf die Wissenschaft“. Es ist die Wiederherstellung dessen, was reale Wissenschaft einmal war und sein sollte.

Link: https://www.cfact.org/2017/01/08/reality-based-climate-forecasting/

Übersetzt von Chris Frey EIKE




Kurze Antworten auf harte Fragen zum Klimawandel – von einem Anhänger des AGW

Die von mir hier recherchierten Informations-Links sind möglichst neueren Datums. Müssen aber nicht notwendigerweise der beste Beitrag zur Behandlung eines Themas sein – aber wie bei Eike üblich, finden sie auch Quellenangaben. – Ende der eingefügten Einleitung, der Übersetzer.]

            ### Fortführung des Artikels der New York Times###

So haben wir eine Liste kurzer Antworten auf häufig gestellte Fragen zum Klimawandel zusammengestellt. Dies sollte Ihnen einen Einstieg in das Verständnis des Problems geben.

  1. Um wieviel heizt sich der Planet auf?

0,8° C ist tatsächlich eine signifikante Menge.

Zum Oktober 2015 hatte sich die Erde seit 1880 um etwa 0,8°C erwärmt, damals begannen weltweit Aufzeichnungen. Diese Daten enthalten auch die Oberfläche des Ozeans. Über Land ist die Erwärmung größer und noch größer in der Arktis und in Teilen der Antarktis.

Die Zahl klingt zwar niedrig, aber im Durchschnitt über der Oberfläche eines ganzen Planeten, ist sie tatsächlich hoch, was erklärt, warum ein Großteil des Landeises der Erde zu schmelzen beginnt und die Ozeane in einem beschleunigenden Tempo steigen. Die Hitze, die sich in der Erde wegen der menschlichen Emissionen ansammelt, ist ungefähr gleich der Hitze, die von 400.000 explodierenden Hiroshima Atombomben über dem Planeten jeden Tag freigegeben würden.

Wissenschaftler glauben, die meiste und wahrscheinlich alle Erwärmung seit 1950 wurde durch die menschliche Freisetzung von Treibhausgasen verursacht. Wenn Emissionen ungebremst bleiben, sagen sie, könnte die globale Erwärmung letztlich 4 °C überschreiten, die den Planeten verwandeln und seine Fähigkeit untergraben würde, eine große menschliche Bevölkerung zu stützen.

Eike Information: Was wurde gemessen?

 

  1. Wie viel Probleme haben wir?

Für künftige Generationen, große Probleme.

Auf lange Sicht sind die Risiken viel größer als in den nächsten Jahrzehnten, aber die Emissionen, die diese Risiken schaffen, passieren jetzt. In den kommenden 25 oder 30 Jahren, sagen Wissenschaftler, wird das Klima wird sich dem von heute wahrscheinlich ähneln, obwohl es allmählich immer wärmer wird. Der Niederschlag wird in vielen Teilen der Welt zunehmen, aber die Zeiten zwischen den Regenfällen werden höchstwahrscheinlich wärmer und daher trockener. Die Anzahl der Hurrikane und Taifune kann tatsächlich fallen, aber diejenigen, die auftreten, werden ihre Energie von einer heißeren Ozeanoberfläche beziehen und können daher im Durchschnitt stärker als in der Vergangenheit sein. Küstenüberschwemmungen werden häufiger und schädlicher.

Längerfristig, wenn die Emissionen weiterhin ungebremst steigen, sind die Risiken tiefgreifend. Wissenschaftler fürchten die Klimaeffekte so sehr, dass sie Regierungen destabilisieren können, Wellen von Flüchtlingen hervorbringen, das sechste Massenaussterben von Pflanzen und Tieren in der Erdgeschichte auslösen und die polaren Eiskappen schmelzen lassen, wodurch die Meere hoch genug ansteigen, um die meisten Küstenstädte der Welt zu überfluten.

All dies könnte hunderte oder sogar tausende von Jahren dauern, bis es sich einstellt, was genügend Zeit für die Zivilisation zur Verfügung stellt, um sich anzupassen, aber Experten können nicht ausschließen, das plötzliche Veränderungen, wie ein Zusammenbruch der Landwirtschaft, die Gesellschaft ins viel schneller ins Chaos werfen würde. Die Bemühungen um eine Begrenzung der Emissionen würden diese Risiken verringern oder die Auswirkungen zumindest verlangsamen, doch ist es bereits zu spät, die Risiken vollständig zu beseitigen.

Eike Information: Folgen des Klimawandels in den USAErklärung der Bundesrepublik zum KlimawandelUnbequeme Fakten über die Globale Erwärmung

 

  1. Gibt es etwas, das ich tun kann?

Fliegen Sie weniger, fahren Sie weniger, verschwenden Sie weniger.

Sie können Ihren eigenen Kohlenstoff-Fußabdruck mit vielen einfachen Möglichkeiten reduzieren und die meisten von ihnen sparen Geld. Sie können Lecks in der Dämmung Ihres Hause beseitigen, um Energie zu sparen, installieren Sie einen Smart-Thermostat, nutzen Sie effizientere Glühbirnen, schalten Sie die Lichter in jedem Raum aus, wo Sie sich nicht befinden, fahren weniger Meilen durch die Konsolidierung von Reisen oder nehmen sie öffentliche Verkehrsmittel, werfen Sie weniger Nahrung weg und essen Sie weniger Fleisch.

Vielleicht die größte Einzelaktion, die Einzelpersonen selbst tun können, ist, weniger Flugzeugreisen zu unternehmen; nur ein oder zwei Flüge weniger pro Jahr können so viel Emissionen sparen wie alle anderen Aktionen zusammen. Wenn Sie an der Spitze sein wollen, können Sie sich ein Elektro-oder Hybrid-Auto kaufen, Sonnenkollektoren auf das Dach setzen oder beides.

Wenn Sie Ihre Emissionen kompensieren wollen, können Sie Zertifikate kaufen, mit dem Geld werden Projekte gefördert, die Wälder zu schützen, Treibhausgase zu erfassen und so weiter. Einige Fluggesellschaften verkaufen diese, um Emissionen aus ihren Flügen auszugleichen und nach einigen Skandalen in den Anfangstagen begannen sie, die Projekte genau zu prüfen, so dass die Offsets jetzt mit gutem Gewissen gekauft werden können. Sie können auch Offset-Zertifikate auf einem privaten Marktplatz erwerben, von Unternehmen wie TerraPass in San Francisco, die den strengen Regeln des Bundesstaates Kalifornien unterliegen. Einige Leute vergeben diese sogar als Urlaubsgeschenke. Noch eine weitere Möglichkeit: In Bundesstaaten, die es Ihnen erlauben, Ihren eigenen Elektrizitätsversorger zu wählen, können Sie häufig wählen und grünen Strom kaufen; Sie zahlen etwas mehr, das Geld geht in einen Fonds, der Projekte wie Windparks finanzieren hilft.

Letztendlich glauben die Experten jedoch nicht, dass die notwendige Transformation im Energiesystem ohne starke staatliche und nationale Vorschriften erfolgen kann. So fordern Sie und üben Ihre Rechte als Bürger aus, so viel wie alles was Sie noch tun können.

Eike Information: Wärmedämmung und grüne Bürokratie

 

  1. Was ist das optimistische Szenario?

Mehrere Dinge müssen auf den Weg gebracht werden.

Im besten Fall, den Wissenschaftler sich vorstellen können, passieren mehrere Dinge: Die Erde erweist sich als weniger empfindlich gegenüber Treibhausgase als derzeit angenommen; Pflanzen und Tiere passen sich auf die bereits unvermeidlichen Veränderungen an; Die menschliche Gesellschaft entwickelt viel mehr politischen Willen, um die Emissionen unter Kontrolle zu bringen; Und es entstehen bedeutende technologische Durchbrüche, die der Gesellschaft helfen, Emissionen zu begrenzen und sich dem Klimawandel anzupassen.

Die beiden von Menschen beeinflussten Variablen sind natürlich nicht völlig unabhängig voneinander: Technologische Durchbrüche, die saubere Energie billiger machen als fossile Energieträger, würden es auch leichter machen, den politischen Willen für ein schnelles Handeln zu entwickeln.

Wissenschaftler sagen, die Chancen, dass alle diese Dinge auf den Weg gebracht werden, sind nicht sehr hoch, leider. Die Erde könnte genauso leicht empfindlicher auf Treibhausgase reagieren als weniger. Die globale Erwärmung scheint in Teilen der natürlichen Welt bereits Chaos zu verursachen und das scheint es schlechter zu machen, nicht besser. Nach Ansicht der Experten, einfach auf ein rosiges Szenario ohne echten Plan zu setzen, wäre gefährlich. Sie glauben, die einzige Möglichkeit, die Risiken zu begrenzen, ist die Begrenzung der Emissionen.

Eike Information: Klimasensitivität und Erwärmung; CO2 Klimasensitivität

 

  1. Hilft verringerter Verzehr von Fleisch dem Klima?

Ja, vor allem Rindfleisch.

Landwirtschaft aller Arten produziert Treibhausgase, die den Planeten wärmen, aber die Fleischproduktion ist besonders schädlich – und Rindfleisch ist die umweltschädlichste Form von Fleisch. Einige Methoden der Viehproduktion benötigen viel Land und tragen zur Zerstörung der Wälder bei. Typischerweise werden die Bäume angebrannt, wodurch Kohlendioxid in die Atmosphäre freigesetzt wird. Andere Methoden erfordern riesige Mengen an Wasser und Dünger, damit Nahrung für die Kühe wächst.

Die Kühe selbst produzieren Emissionen von Methan, ein starkes Treibhausgas, das kurzfristige Erwärmung verursacht. Der Fleischverbrauch steigt weltweit, wenn die Bevölkerung wächst und die wirtschaftliche Entwicklung macht die Menschen reicher und sie können sich leichter Fleisch leisten.

Dieses ist beunruhigend: Studien haben gefunden, dass, wenn die ganze Welt anfangen würde, Rindfleisch in der Menge zu essen, wie die Amerikaner es machen, produziert mit den Methoden, die normalerweise in den Vereinigten Staaten benutzt werden, das alleine könnte alle Wahrscheinlichkeit löschen, unter der international vereinbarten [Temperatur-] Begrenzung zu bleiben. Die Produktion von Schweinefleisch schafft etwas geringere Emissionen als Rindfleischproduktion und Huhn ist noch besser. So verringern Sie Ihren Fleischverbrauch oder schalten Sie um von Rindfleisch und Schweinefleisch zu Huhn in Ihrer Diät, beides sind Bewegungen in die richtige Richtung. Natürlich, wie es mit jeder Art von Verhaltensänderungen ist, um dem Klima zu nutzen, wird dies nur einen Unterschied machen, wenn viele andere Menschen es auch tun, auch die gesamte Nachfrage nach Fleischprodukten verringern.

Eike Information: Hendricks nimmt Kühe ins Visier

 

  1. Was ist das Worst-Case-Szenario?

Da sind viele.

Das ist eigentlich schwer zu sagen, das ist ein Grund, warum die Wissenschaftler drängen, dass die Emissionen beschnitten werden; sie wollen die Möglichkeit eines schlimmsten Falles einschränken. Vielleicht ist die größte Angst ein Zusammenbruch der Nahrungsmittelproduktion, begleitet von eskalierenden Preisen und verhungerten Massen. Selbst wenn das Emissionswachstum fließend ist, ist unklar, wie wahrscheinlich es sein würde, das die Landwirte in der Lage sind, ihre Kulturen und ihre landwirtschaftlichen Techniken zu verbessern, um sich an klimatische Veränderungen anzupassen. Eine andere Möglichkeit wäre ein Zerfall der Polareisschichten, was zu schnell ansteigenden Meeren führt, die die Menschen dazu zwingen würden, viele der großen Städte der Welt aufzugeben und zum Verlust von Eigentum und anderen Vermögenswerten in Höhe von Billionen von Dollars führen würden. Wissenschaftler sorgen sich auch um andere Joker-Card-Szenarien wie die vorhersehbaren Zyklen der asiatischen Monsuns, die weniger zuverlässig werden. Milliarden von Menschen hängen am Monsun, um Wasser für Getreide zu bekommen, so dass jede Störung katastrophal sein könnte.

Eike Information: IPCC und Szenarien für Alpträume

 

  1. Wird ein technischer Durchbruch uns helfen?

Auch Bill Gates sagt, zählt nicht darauf, es sei denn, wir haben das Geld.

Da sich mehr Unternehmen, Regierungen und Forscher dem Problem widmen, steigen die Chancen für große technologische Fortschritte. Aber auch viele Experten, die optimistisch über technologische Lösungen sind, warnen, dass die aktuellen Anstrengungen nicht ausreichen. Zum Beispiel sind die Ausgaben für die Grundlagenforschung nur ein Viertel bis ein Drittel des Niveaus, das mehrere eingehende Berichte empfohlen haben. Und die öffentlichen Ausgaben für Agrarforschung stagnieren, obwohl der Klimawandel wachsende Risiken für die Nahrungsmittelversorgung aufwirft. Leute wie Bill Gates haben argumentiert, dass Daumen drücken und auf technologische Wunder hoffen keine Strategie ist – wir müssen das Geld ausgeben, damit diese Dinge [für die Vermeidung von Emissionen] eher passieren.

Eike Information: Ursachenforschung; Gefälschte Klimastudien

 

  1. Um wieviel werden die Meere steigen?

Die eigentliche Frage ist nicht, wie hoch, aber wie schnell.

Der Ozean steigt mit einer Geschwindigkeit von etwa einem 30 cm pro Jahrhundert. Das verursacht schwere Effekte auf Küsten, zwingt Regierungen und Eigentumseigentümer, Zehn Milliarden von Dollar auszugeben, die Erosion bekämpfen. Aber wenn dieser Anstieg so weiter geht, würde es wahrscheinlich überschaubar sein, sagen Experten.

Das Risiko ist, dass die Rate deutlich beschleunigt wird. Wenn die Emissionen ungebremst bleiben, könnte die Temperatur an der Erdoberfläche bald einer früheren Epoche ähneln, die das Pliozän genannt wird, als eine Menge Eis geschmolzen und der Ozean um etwa 24 m im Vergleich zu heute anstieg. Eine aktuelle Studie ergab, dass bei Verbrennung aller im Boden befindlichen fossilen Brennstoffe die polaren Eisschilde vollständig schmelzen würden und den Meeresspiegel um mehr als 160 Meter ansteigen lässt über einen unbekannten Zeitraum.

Nach all dem gesagten, ist das entscheidende Problem wahrscheinlich nicht, um wie viel die Ozeane steigen werden, aber wie schnell. Und an diesem Punkt, sind die Wissenschaftler ziemlich unsicher. Ihre besten Informationen stammen aus dem Studium der Erdgeschichte und es deutet darauf hin, dass die Anstiegsrate gelegentlich 30cm pro Jahrzehnt sein kann, was wahrscheinlich als das Worst-Case-Szenario gedacht werden kann. Sogar ein Anstieg von nur der Hälfte, 15 cm pro Jahrzehnt, würde einen schnellen Rückzug von den Küsten erzwingen. Und, wie einige Experten meinen, würde die menschliche Gesellschaft in die Krise werfen. Auch wenn der Aufstieg viel langsamer ist, werden viele der großen Städte der Welt schließlich überschwemmt. Studien zeigen, dass große Kürzungen in den Emissionen den Aufstieg verlangsamen könnten und entscheidende Zeit für die Gesellschaft bringen, sich an eine veränderte Küstenlinie anzupassen.

Eike Information: Die Sintflut fällt aus

 

  1. Sind die Vorhersagen zuverlässig?

Sie sind nicht perfekt, aber sie basieren auf solider Wissenschaft.

Die Idee, dass die Erde empfindlich gegenüber Treibhausgasen ist, wird durch viele Zeilen wissenschaftlicher Beweise bestätigt. Die Grundphysik, die vermuten lässt, dass eine Zunahme von Kohlendioxid mehr Wärme erzeugt, wurde im 19. Jahrhundert entdeckt und in Tausenden von Laborexperimenten bestätigt.

Natürlich enthält die Klimaforschung Unsicherheiten. Die größte ist der Grad, wie die globale Erwärmung Rückkopplungsschleifen auslöst, wie ein Schmelzen von Meereis, das die Oberfläche verdunkelt und mehr Wärme absorbieren lässt, was mehr Eis schmelzen lässt und so weiter. Es ist nicht klar, wie sehr die Rückkopplungen die Erwärmung verstärken werden; Einige könnten sie sogar teilweise ausgleichen. Diese Unsicherheit bedeutet, dass Computer-Prognosen nur eine Reihe von künftigen Klima-Möglichkeiten abbilden können, nicht jedoch absolute Vorhersagen.

Aber auch wenn diese Computer-Prognosen nicht eintreffen, eine riesige Menge an Beweisen deutet darauf hin, dass die Wissenschaftler die grundlegende Geschichte richtig erkannt haben. Der wichtigste Beweis stammt aus der Untersuchung der vergangenen Klimabedingungen, einem Gebiet, das als Paläoklimaforschung bekannt ist. Die Menge an Kohlendioxid in der Luft hat sich in der Vergangenheit natürlich verändert und jedes Mal, wenn sie steigt, wärmt sich die Erde auf, Eis schmilzt und der Ozean steigt. Hundert Meilen landeinwärts von der heutigen Ostküste, können Muscheln an alten Stränden, die drei Millionen Jahre alt sind, ausgegraben werden, ein Augenzwinkern in der geologischen Zeit. Diese vergangenen Bedingungen sind nicht ein perfekter Leitfaden für die Zukunft, denn Menschen pumpen Kohlendioxid weit schneller in die Luft als die Natur jemals getan hat.

Eike Information: Kein Konsens unter Wissenschaftler

 

  1. Warum stellen Menschen den Klimawandel in Frage?

Hinweis: Ideologie.

Die meisten Angriffe auf die Klimaforschung kommen von Libertären und anderen politischen Konservativen, die die Politik nicht mögen, die vorgeschlagen wurde, um die globale Erwärmung zu bekämpfen. Anstatt über diese Politik zu verhandeln und zu versuchen, sie stärker den Grundsätzen des freien Marktes zu unterwerfen, haben sie den Ansatz genommen, sie zu blockieren, indem sie versuchen, die Wissenschaft zu untergraben.

Diese ideologische Position wurde durch Geld von fossilen Brennstoffen gestützt, das bezahlt wurde, um Organisationen zu schaffen, Konferenzen zu unterstützen und dergleichen mehr. Die wissenschaftlichen Argumente, die von diesen Gruppen gemacht werden, beinhalten in der Regel Cherry-Picking-Daten, wie die Fokussierung auf kurzfristige Spitzen in der Temperatur oder im Meereis, während die langfristigen Trends ignoriert werden.

Die extremste Version der Klima-Verleugnung ist zu behaupten, dass die Wissenschaftler weltweit mit Falschmeldungen beschäftigt sind, um die Öffentlichkeit zu täuschen, damit die Regierung eine größere Kontrolle über das Leben der Menschen gewinnen kann. Wie die Argumente mehr und mehr gekünstelt geworden sind, haben viele Öl- und Kohleunternehmen begonnen, sich öffentlich vom der Klimaleugnung zu distanzieren, doch einige helfen immer noch, die Kampagnen der Politiker, die solche Ansichten vertreten, zu finanzieren.

 

Eike Information: Klimaalarmisten in aller Welt; Skeptiker wehren sich

 

  1. Ist verrücktes Wetter an den Klimawandel gebunden?

In einigen Fällen ja.

Wissenschaftler haben starke Beweise dafür veröffentlicht, dass das wärmende Klima Hitzewellen häufiger und intensiver macht. Es verursacht auch schwerere Regenfälle und Küstenüberschwemmungen werden immer schlimmer, da die Ozeane aufgrund der menschlichen Emissionen steigen. Die globale Erwärmung hat Dürren in Regionen wie dem Nahen Osten intensiviert, und es kann die Dürre in Kalifornien verstärkt haben.

In vielen anderen Fällen ist jedoch die Verknüpfung zur globalen Erwärmung für bestimmte Trends ungewiss oder bestritten. Das ist zum Teil ein Mangel an guten historischen Wetterdaten, aber es ist auch wissenschaftlich unklar, wie bestimmte Arten von Ereignissen durch das sich verändernde Klima beeinflusst werden können.

Ein weiterer Faktor: Während sich das Klima verändert, ändern sich die Wahrnehmungen der Menschen möglicherweise schneller. Das Internet hat uns alle Wetterkatastrophen in fernen Orten mehr bewusst gemacht. Auf soziale Medien haben die Menschen die Tendenz, praktisch jede Katastrophe auf den Klimawandel zurückzuführen, aber in vielen Fällen gibt es keine wissenschaftliche Unterstützung dafür.

 

Eike Information: Wetterlagen; Normales Wetter kann nicht simuliert werden

 

  1. Profitiert jemand von der globalen Erwärmung?

In gewisser Weise ja.

Länder mit riesigen, gefrorenen Hinterländern, darunter Kanada und Russland, könnten einige wirtschaftliche Vorteile sehen, da die globale Erwärmung die Landwirtschaft, den Bergbau und ähnliches an diesen Orten möglich macht. Es ist vielleicht kein Zufall, dass die Russen immer noch zögern, ambitionierte Klimaverpflichtungen zu machen und Präsident Vladimir V. Putin hat die Wissenschaft des Klimawandels öffentlich in Frage gestellt.

Allerdings könnten diese beiden Länder enorme Schäden an ihren natürlichen Ressourcen erleiden; Eskalierende Brände in Russland töten bereits Millionen von Hektar Wald pro Jahr. Darüber hinaus glauben einige Experten, dass Länder, die sich als wahrscheinliche Gewinner aus der globalen Erwärmung sehen, dahin kommen können, die Sache anders zu sehen, sobald sie von Millionen von Flüchtlingen aus weniger glücklichen Ländern überschwemmt werden.

Eike Information: Bedrohung der Ernten- IPCC- Was steckt dahinter

 

  1. Gibt es Grund zur Hoffnung?

Wenn Sie dies mit 50 Freunden teilen, vielleicht.

Wissenschaftler haben seit den 1980er Jahren gewarnt, dass starke Strategien erforderlich sind, um Emissionen zu begrenzen. Diese Warnungen wurden ignoriert und die Treibhausgase in der Atmosphäre haben sich bis zu potenziell gefährlichen Anteilen entwickelt. Also ist es höchste Zeit.

Nach 20 Jahren weitgehend fruchtloser Diplomatie beginnen die Regierungen der Welt endlich, das Problem ernst zu nehmen. Ein Deal, der im Dezember in Paris erreicht wurde, verpflichtet fast jedes Land zu einer Art Aktion. Religiöse Führer wie Papst Francis sprechen sich dafür aus. Schadstoffarme Technologien wie Elektroautos werden verbessert. Maßgebliche Korporationen machen mutige Versprechen, auf erneuerbare Energie umzustellen und die Waldzerstörung zu stoppen. Auf der ganzen Welt versprechen viele Staaten und Städte, weit über die Ziele ihrer nationalen Regierungen hinauszugehen.

Was in all dem noch weitgehend fehlt, sind die Stimmen der einfachen Bürger. Denn Politiker haben es schwer, über die nächste Wahl hinaus zu denken, sie neigen dazu, schwierige Probleme nur dann anzugehen, wenn die Öffentlichkeit aufsteht und sie fordert.

Eike Information: Auf dem Weg in die Weltregierung

 

  1. Wie beeinflusst die Landwirtschaft den Klimawandel?

Es ist ein großer Beitrag, aber es gibt Anzeichen für Fortschritt.

Die Umweltbelastungen aus der globalen Landwirtschaft sind in der Tat enorm.

Die Nachfrage nach Nahrung steigt, zum großen Teil wegen des Bevölkerungswachstums und steigender Einkommen, dass Millionen von ehemals niedrigen Einkommensschichten die Mittel geben, um reichlicher zu essen. Die globale Nachfrage nach Rindfleisch und Tierfutter beispielsweise hat die Landwirte dazu veranlasst, riesige Gebiete des Amazonas-Regenwaldes zu reduzieren.

Anstrengungen werden unternommen, um die Probleme anzugehen. Der größte Erfolg ist vermutlich in Brasilien gewesen, das eine strenge Aufsicht verabschiedet hat und es geschafft hat, die Abholzung im Amazonas um 80% in einem Jahrzehnt zu beschneiden. Aber die Gewinne dort sind fragile und schwere Probleme gibt es weiterhin in anderen Teilen der Welt, wie die aggressive Waldrodung in Indonesien.

Zahlreiche Unternehmen und Organisationen, darunter bedeutende Hersteller von Konsumgütern, unterzeichneten eine Deklaration in New York im Jahr 2014, die sie verpflichtet, die Abholzung bis 2020 zu halbieren und bis 2030 vollständig abzuschaffen. Die Unternehmen, die den Vertrag unterzeichnet haben, kämpfen jetzt darum, wie sie auf dieses Versprechen einlösen können.

Viele Waldexperten bei den Pariser Klimagesprächen Ende 2015 betrachteten das Versprechen als ehrgeizig, aber möglich. Und sie sagten, es sei entscheidend, dass die Verbraucher den Druck auf Unternehmen aufrechterhalten, von denen sie Produkte kaufen, von der Seife bis zur Eiskrem.

Eike Information: Ernte und Klimawandel

 

  1. Steigen die Meere gleichmäßig über den Planeten?

Denken Sie an pummelig.

Viele Menschen stellen sich vor, dass der Ozean wie eine Badewanne ist, wo der Wasserspiegel gleichmäßig steht. In der Tat ist das Meer ziemlich pummelig – starke Winde und andere Faktoren können dazu führen, dass das Wasser sich an einigen Stellen anhäuft und an anderen niedriger ist.

Außerdem üben die riesigen Eisschilde in Grönland und der Antarktis einen Gravitationszug auf das Meer aus und ziehen Wasser zu ihnen. Werden sie schmelzen, wird der Meeresspiegel in ihrer Nähe fallen, während das Wasser auf entfernte Gebiete umverteilt wird.

Wie sich der aufsteigende Ozean auf bestimmte Teile der Welt auswirkt, wird daher davon abhängen, welches Eisschild am schnellsten schmilzt, wie sich die Winde und Strömungen verschieben und andere damit zusammenhängende Faktoren. Darüber hinaus werden einige Küstengebiete absinken, so dass sie ein doppeltes Pech haben, wenn der Meeresspiegel steigt.

Eike Information: Ungewöhnliche Zunahme von Eis und Schnee in Grönland; Panik Meldung: Arktisches Eisschild, Versauerung der Meere

 

  1. Geht es wirklich nur um Kohlenstoff?

Hier ist eine kurze Erläuterung.

Die Treibhausgase, die durch menschliche Aktivitäten freigesetzt werden, werden oft als „Kohlendioxidemissionen“ bezeichnet. Das ist, weil die beiden wichtigsten der Gase, Kohlendioxid und Methan, Kohlenstoff enthalten. Auch viele andere Gase fangen Wärme in der Nähe der Erdoberfläche und viele menschliche Aktivitäten verursachen die Freisetzung von solchen Gasen in die Atmosphäre. Nicht alle von ihnen enthalten tatsächlich Kohlenstoff, aber sie alle werden durch die gleiche Abkürzung bezeichnet.

Der mit Abstand größte Faktor, der die globale Erwärmung verursacht, ist die Verbrennung fossiler Brennstoffe für Strom und Verkehr. Dieser Prozess befördert den Kohlenstoff, der seit Millionen von Jahren unterirdisch gebunden ist und bewegt ihn in die Atmosphäre, als Kohlendioxid, wo es das Klima für viele Jahrhunderte in die Zukunft beeinflussen wird. Methan ist noch stärker beim Einfangen von Hitze als Kohlendioxid, aber es verschwindet schneller aus der Luft. Methan kommt von Sümpfen, vom Vermodern von Nahrungsmitteln in Deponien, von Vieh- und Milchviehhaltung und von Leckagen aus Erdgasquellen und Rohrleitungen.

Während die Emissionen fossiler Brennstoffe das Hauptproblem sind, ist ein weiterer wichtiger Schöpfer von Emissionen die Zerstörung von Wäldern, insbesondere in den Tropen. Milliarden Tonnen Kohlenstoff werden in Bäumen gelagert und wenn die Wälder gerodet sind, wird ein Großteil der Vegetation verbrannt und dieser Kohlenstoff als Kohlendioxid in die Luft geschickt.

Wenn Sie von Kohlenstoff Steuern, Kohlenstoffhandel und so weiter hören, sind diese einfach nur Kurzschrift Beschreibungen von Methoden zur Begrenzung der Treibhausgase Emissionen oder machen sie teurer, so dass die Menschen angespornt werden, Kraftstoff zu sparen.

 

Eike Information: COP21 Verpflichtung; Das UN Endspiel – um was es wirklich gehtCO2 Einfluss nicht nachweisbar

Gefunden auf New York Times vom 18.11.2015

Zusammengestellt und übersetzt von Andreas Demmig

http://www.nytimes.com/interactive/2015/11/28/science/what-is-climate-change.html




Bitte zahlen, Klimaschutz kostet

Immer undurchschaubarer: Deutsche Energiepolitik

Freuen Sie sich. Jetzt im neuen Jahr wird der Strom noch teurer als schon bisher. Warum freuen? Ist doch klar. Klimaschutz kostet, der Glaube daran auch. Oder wollen Sie das Klima auf der Erde etwa nicht schützen – mit Strom aus Wind, Sonne und „Biogas“? Na also, dann greifen sie jetzt gefälligst tiefer in die Tasche, ohne zu jammern und zu klagen. Das gilt natürlich nur für die Klimaschutz-Gläubigen, denn die meisten meiner Leser gehören nach meinem Eindruck nicht dazu. Sie nämlich wissen, was es mit dem „Klimaschutz“ und der „Energiewende“ wirklich auf sich hat. Immerhin mit 94 Beiträgen seit 2008 habe ich versucht, zu diesem Thema aufklären zu helfen. Wahre Klimaschutz-Gläubige lesen so etwas nicht, wenden sich ab, sind unbelehrbar. Motto: Verwirr mich nicht mit Tatsachen. Unbelehrbar bin auch ich. Darum mache ich mit dem Aufklären weiter. Für Klimaschutz-Gläubige ist das Folgende natürlich nichts; es wird sie im wahren Glauben nur stören, nicht beirren. Ihre politischen Seelsorger werden sich ob dieser Tumbheit behaglich zurücklehnen.

Der Staatseingriff läuft ab wie im Lehrbuch

Mit Jahresbeginn 2017 haben die Altparteien im Bundestag das „Erneuerbare-Energien-Gesetz“ (EEG) verändert. Vor allem soll die Subventionierung (Fördersätze) per Ausschreibung ermittelt werden. Das gaukelt innerhalb des massiven Staatseingriffs in den Markt für Strom durch die unsägliche „Energiewende“ etwas Wettbewerb vor. Immerhin etwas. Aber was bedeuten die Ausschreibung und die anderen Änderungen in der praktischen Auswirkung für die Bürger? Die allermeisten von ihnen werden den Ein- und Überblick jetzt erst recht verlieren. Denn alles, was bisher schon überaus kompliziert war, ist nun noch komplizierter geworden. Der Staatseingriff nämlich läuft ab wie in einem ordnungspolitischen Lehrbuch der Nationalökonomie, wie es einst Ludwig von Mises beschrieben hat, der große Lehrmeister der „Wiener Schule“ der liberalen Nationalökonomie, auch „Österreichische Schule“ genannt.

Dem ersten Eingriff folgen immer weitere

Der unweigerliche Ablauf staatlicher Eingriffe in den Markt ist kurzgefasst und allgemein formuliert dieser: Die erste Intervention löst bei Marktteilnehmern Widerstands- und Ausweichbewegungen aus. Damit die Intervention nicht ins Leere läuft, muss der Gesetzgeber ergänzende Regelungen beschließen, um diese Reaktionen zu unterbinden. Da die Wirklichkeit und das Geschehen an Märkten sehr komplex sind und Politiker den Einfallsreichtum der Marktteilnehmer für Gegenreaktionen meist unterschätzen, ist der Gesetzgeber zur Erkenntnis gezwungen, dass er abermals etwas nicht berücksichtigt hat, und er muss wiederum eingreifen. Es kommt zu übergreifenden Folgen auf vor- und nachgelagerten Märkten, auch auf dem Markt für Arbeit mit Folgen für die beschäftigten Menschen.

Ludwig von Mises darf sich bestätigt sehen – wieder einmal

Marktreaktionen und Politikreaktionen schaukeln sich hoch, die anfängliche Intervention macht weitere Eingriffe nötig, sie gewinnt zwangsläufig immer mehr an Dichte. Die Unternehmen werden mit einem bürokratischen Tüftelwerk überschüttet und in ihrer eigentlichen Arbeit behindert, für die Bürger wird das Geschehen mehr und mehr unüberschaubar, und die eigentlichen Ursachen verschwimmen im dunstigen Nirgendwo. Zum Zustand vor der ersten Intervention zurückzukehren, was das Beste wäre, scheitert schon an der Furcht vor den Folgen, die zunächst auch eine Rückkehr mit sich bringt. Schlimmer noch: Weitet sich der staatliche Interventionismus über immer mehr Bereiche aus, führt er letztlich nicht nur in eine ganz andere wirtschaftliche, sondern auch in eine ganz andere politische Gesellschaftsordnung: in den Sozialismus. Ludwig von Mises darf sich bestätigt sehen – wieder einmal, auch wenn es ihn in seinem Grab graust.

Was die EEG-Novelle in ihrem Kern bedeutet

Zurück zur EEG-Novelle vom 1. Januar 2017. In ihrem Kern bedeuten deren Änderungen kurzgefasst dies: Mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es munter weiter. Strom aus Windkraft ist für die Investoren nach wie vor hochattraktiv. Billiger wird der Strom durch die Ausschreibung nicht, er verteuert sich weiterhin. Das Regelwerk ufert noch mehr aus, die EEG-Bürokratie wird zum Moloch.

Für die Bürger noch undurchschaubarer

Im einzelnen: Die Energiewende-Politiker wollen sich von ihrer Verantwortung für die zu hohen, staatlich durch das EEG festgelegten Strompreise wegstehlen. Sie gaukeln innerhalb des massiven Staatseingriffs in den Markt etwas Wettbewerb vor, indem sie die Subventionierung („Fördersätze“) per Ausschreibung „durch den Markt“ ermitteln lassen: Wer sich mit der geringsten Subvention (Fördersatz, Einspeisevergütung) zufriedengibt, erhält für den Bau den Zuschlag, also die Baugenehmigung. Auch wird das ganze Regelwerk nun noch umfangreicher und für die Bürger noch undurchschaubarer. Letztlich läuft das darauf hinaus, dass in deren Visier (wegen der weiteren Stromverteuerung) mehr die Stromerzeuger geraten und weniger die wirklich verantwortlichen (und verantwortungslosen) Wendepolitiker.

Windkraftanlagen für die Betreiber nach wie vor sehr attraktiv

Aber mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es weiter, der Ausbau wird nur etwas abgebremst. Vorerst. Dagegen ist das Errichten zusätzlicher Photovoltaik- und Biogasanlagen, seit Gabriel die Vergütungen gekürzt hat, quasi tot. Bei den Windkraftanlagen gibt es zwar ebenfalls eine Deckelung, doch soll sie „flexibel“ gehandhabt werden, zum Beispiel in dem, was schönfärberisch „Bürgerwindparks“ genannt wird. Doch ist Strom aus Windkraft für die Investoren nach wie vor hochattraktiv, vor allem an küstennahen Standorten (vergleichsweise viel Wind). Die WKA-Bauer hier können also bei der Ausschreibung mit geringerem Subventionsbedarf (mit geringeren Fördersätzen) punkten.

Die Sonderregelung für Schwachwindgebiete

In Schwachwindgebieten dagegen ziehen Investoren den Kürzeren. An sich. Denn eben darum gibt es für sie eine Sonderregelung („Referenzertragsmodell“). Der Sinn: Je schwächer der Wind, desto höher die Subvention. Warum? Weil sonst im Binnenland keine WKA mehr gebaut würden. Das gilt vor allem für Baden-Württemberg, wo es die 10H-Regelung (noch) nicht gibt – anders als in Bayern und Sachsen, wo diese Regelung den Ausbau massiv beschränkt. Daher konzentrieren sich die WKA-Bauer jetzt besonders auf Baden-Württemberg, solange dort diese Regelung nicht ebenfalls eingeführt ist. Geplant und errichtet wird hier „auf Deubel komm’ raus“.

Was die 10H-Regelung besagt

Die 10H-Regelung besagt: WKA müssen zu Wohngebäuden einen Mindestabstand einhalten, der das Zehnfache ihrer (Flügel‑) Höhe ausmacht, eingeführt in Bayern 2014. Großer Protest der WKA-Profiteure mit ihren einschlägigen Politikern: Das mache WKA – oh Schreck lass nach – auf nur noch 0,05 Prozent der Landesfläche sinnvoll – rechtlich, technisch und wirtschaftlich; der Ausbau werde weitgehend gestoppt. Eben das aber war und ist der Sinn.

Mit jeder neuen Windkraftanlage steigt die Subventionssumme

Billiger wird der Strom durch die Ausschreibung nicht, denn: Je mehr WKA entstehen, desto größer wird die Subventionssumme, und die wird umgelegt auf die Stromverbraucher. Für sie also wird der Strom zwangsläufig immer teurer, und billigen Strom aus den herkömmlichen Kraftwerken gibt es dann (im Strom-Mix mit dem EE-Strom) immer weniger (wegen der Vorrangeinspeisung für EE-Strom). Und weil diese herkömmlichen Kraftwerke nur produzieren dürfen, wenn die EE-Anlagen den Strombedarf nicht voll zu decken vermögen (kein Wind, keine Sonne), wird ihr Strom ebenfalls teurer. Sie erhalten Ausgleichszahlungen dafür, dass sie ihre Werke in Dauerbereitschaft halten müssen, aber Strom nur gelegentlich liefern dürfen. Auch diese Ausgleichszahlungen werden den Stromverbrauchern im Strompreis aufgeladen.

Heute 25.000 Windkraftanlagen, 2050 weit über 60.000

Derzeit tragen EE-Anlagen rund 33 Prozent zur deutschen Stromerzeugung bei. Dieser Anteil soll bis 2050 auf 80 Prozent steigen. Derzeit stehen in Deutschland rund 25.000 WKA. Im Jahr 2050 wären es dann weit über 60.000. Doch gibt es Wettersituationen, wo alle WKA überhaupt keinen Strom erzeugen, unabhängig davon, wieviele Anlagen es sind. Denn 25.000 WKA liefern bei Windstille genauso wenig Strom wie 60.000, nämlich null. Das gleiche gilt für Photovoltaik-Anlagen mit ihrem Strom aus Sonnenschein. Es kommt auch vor, dass Wind und Sonne gleichzeitig nicht verfügbar sind. Daher muss die Erzeugungskapazität der herkömmlichen Kraftwerke stets so ausgelegt sein und beibehalten werden, dass sie ohne Wind und Sonne auch die zeitweise höchstbenötigte Strommenge liefern können.

Die Energiewende-Politik zwingt eine doppelte Stromerzeugungs-Infrastruktur auf

Das gilt besonders von 2022 an, wenn das letzte Kernkraftwerk stillgelegt wird und statt ihrer zusätzliche herkömmliche Kraftwerke benötigt werden. Diese Kapazität der mit fossilen Rohstoffen betriebenen Kraftwerke wird auch weiterhin bestehenbleiben müssen – gleichgültig, wieviel WKA und Solarstromanlagen auch immer sonst noch errichtet werden. Deutschland wird also ohne seine heutige fossile Kraftwerkskapazität nicht auskommen und sie im Stand-by-Betrieb weiterlaufen lassen müssen. Deshalb zwingt uns die Energiewende-Politik eine weiterhin doppelte Stromerzeugungs-Infrastruktur auf, als wenn wir uns die leisten könnten. Sonst wäre die Sicherheit unseres Stromnetzes dahin. Aber bei Starkwind und immer mehr WKA wird der Windstromüberschuss immer mehr zunehmen und damit auch dessen Kosten für die Verbraucher.

Woran die EEG-Novelle kein bisschen ändert

Erstens ist Strom aus „Erneuerbaren Energien“ (EE) – zutreffender: „alternative Energien“, denn Energie ist nicht erneuerbar, nur umwandelbar in andere Energieformen – technisch nicht sinnvoll (zu geringe Energie- und Leistungsdichte sowie nicht ständig nach Bedarf verfügbar), denn: Wind weht unregelmäßig oder auch gar nicht (in ganz Deutschland gibt es jeden Monat Tage, an denen tatsächlich kein Wind weht); nachts scheint üblicherweise überhaupt keine Sonne und tagsüber auch nicht immer; und Strom kann man in der nötigen Größenordnung ökonomisch sinnvoll nicht speichern. (Technisch zwar geht fast alles, es ist aber viel zu teuer und damit also wirtschaftlich Unsinn. Alle diesbezüglichen Versuche sind erfolglos geblieben.)

Zweitens ist EE-Strom wirtschaftlich unnötig teuer. Das ursprünglich einmal verkündete Ziel der Bezahlbarkeit hat sich ins Gegenteil verkehrt.

Drittens vermindert die Erzeugung von EE-Strom den Ausstoß von menschenverursachtem (anthropogenem) CO2 nicht.

Die Menschen werden an der Nase herumgeführt und lassen es mit sich geschehen

Lassen Sie sich also von den Energiewende-Politikern und den ihnen folgsamen, kritiklosen Medien nichts vormachen, nichts vorgaukeln. Deren Politik ist ein verantwortungsloses Abenteuer, das von der einst verlässlichen und preiswerten Stromerzeugung in eine überregulierte, unwirtschaftliche und für die privaten Stromverbraucher viel zu teure Stromerzeugung schon jetzt geführt hat. Dazu kommen die vielen Kollateralschäden, darunter die Zerstörung von Landschaften, von fliegendem Getier, von Küstengewässern, von Wohngebieten vieler Menschen, denen die Windkraftanlagen trotz Hunderter von Bürgerinitiativen vor die Nase gesetzt werden. Politiker, Medien und Profiteure führen die Menschen an der Nase herum, und die meisten der Getäuschten merken es noch immer nicht oder vermögen sich zur großen Auflehnung nicht aufzuraffen.

Dieser Artikel erschien zuerst auf dem Blog des Autors.




Wann wird der ,Stillstand‘ der globalen Temperatur wieder eintreten?

Man kann darüber streiten, ob die wirkliche Rate der Zunahme von Emissionen wirklich so gering wie 0,1 Milliarden Tonnen Kohlenstoff pro Jahr ist angesichts des Umstandes, dass China und jetzt auch Indien Kohlekraftwerke mit einer rekordhohen Rate ans Netz bringen. Aber die offizielle Vorgabe lautet, dass die Emissionen fast aufgehört haben zuzunehmen. Nichtsdestotrotz liegen die Emissionen noch weit über jedweden, vom IPCC angegebenen Stabilisierungs-Szenarien.

Im Business-as-usual-Szenario A prophezeite das IPCC im Jahre 1990, dass die Temperatur um 1,0 (0,7; 1,5)°C bis zum Jahre 2025 steigen würde, das ist äquivalent mit einer Rate von 2,8 (1,9; 4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt „Wie viel Vertrauen setzen wir in unsere Prophezeiungen?“ Das IPCC verwies dann auf einige Unsicherheiten (Wolken, Ozeane), kam aber zu dem Ergebnis:

Nichtsdestotrotz … setzen wir substantielles Vertrauen darin, dass die Modelle zumindest den allgemeinen Rahmen des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen den Ergebnissen gekoppelter Modelle, in die einfache Repräsentationen des Ozeans eingehen, und den Modellen, die kompliziertere Beschreibungen verwenden, und unser Wissen über derartige Differenzen gibt uns einiges Vertrauen in die Ergebnisse“.

Und doch ist die Rate der globalen Erwärmung seit 1990 – das wichtigste Element des „allgemeinen Rahmens des Klimawandels“, welches die Modelle prophezeien sollen – derzeit noch nicht einmal halb so hoch wie vom IPCC damals prophezeit.

Im Jahre 1990 sagte das IPCC:

Auf der Grundlage der derzeitigen Modelle prophezeien wir:

unter dem Business-as-Usual-Szenario des IPCC (Szenario A) der Emission von Treibhausgasen wird die Rate des globalen Temperaturanstiegs während des nächsten Jahrhunderts etwa 0,3°C pro Dekade betragen (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Dekade). Dies ist ein höherer Wert als während der letzten 10.000 Jahre beobachtet. Dies wird bis zum Jahr 2025 zu einer wahrscheinlichen Zunahme der globalen Temperatur von etwa 1°C über den jetzigen Wert und bis zum Ende des nächsten Jahrhunderts von 3°C führen. Der Anstieg wird aufgrund des Einflusses anderer Faktoren nicht stetig verlaufen“ (p. xii).

Später sagte das IPCC:

Die unten genannten Zahlen basieren auf hoch auflösenden Modellen und sind skaliert, um konsistent zu sein mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 (verglichen mit den präindustriellen Temperaturwerten). Für Werte, die konsistent sind mit anderen Schätzungen des globalen Temperaturanstiegs, sollten die Zahlen unten um 30% für die niedrige Schätzung reduziert bzw. um 50% erhöht werden für die hohe Schätzung“ (p. xxiv).

Im Jahre 1995 nannte das IPCC eine Prophezeiung der Erwärmungsraten, die man als Reaktion auf verschiedene Raten der Zunahme der CO2-Konzentration erwarten könne. Die auf der Grundlage der aktuellen Rate erfolgte Prophezeiung wird hervorgehoben:

Die tatsächliche Zunahme der CO2-Konzentration während der beiden Dekaden seit 1995 betrug 0,5% pro Jahr. Folglich sollte der zentrale Prophezeiung des IPCC aus dem Jahr 1995 zufolge eine Erwärmung um 0,36°C seitdem eingetreten sein, äquivalent zu einer Rate von 1,8°C pro Jahrhundert.

Im 3. IPCC-Zustandsbericht (2001) heißt es auf Seite 8 der ,Summary for Policymakers‘: „Für die Zeiträume 1990 bis 2025 bzw. 1990 bis 2050 beträgt die projizierte Erwärmung 0,4 bis 1,1°C bzw. 0,8°C bis 2,6°C“. Die mittlere Schätzung belief sich auf eine Erwärmung von 0,7°C während der 36 Jahre von 1990 bis 2025, äquivalent zu 1,9°C pro Jahrhundert.

Tabelle 1 fasst diese mittelfristigen prophezeiten globalen Erwärmungsraten aus den ersten drei Zustandsberichten zusammen:

Es stellte sich rasch heraus, dass die Prophezeiungen einer globalen Erwärmung nach dem Business-as-Usual-Szenario kindisch wilde Übertreibungen waren. Für diese Übertreibungen gibt es viele Gründe. Hier folgen ein paar dieser Gründe: Das IPCC übertrieb die Zunahme der CO2-Konzentration, die man als Reaktion auf eine gegebene Rate der Zunahme von Emissionen erwarten konnte; es übertrieb die Zunahme der Methan-Konzentration erheblich; es übertrieb den CO2-Antrieb erheblich; und es übertrieb den Einfluss starker positiver Temperatur-Rückkopplungen auf die Klimasensitivität überaus erheblich.

Wie war das aber nun mit den globalen Temperaturen in der realen Welt seit 1990? Die Antwort, aus dem linearen Regressionstrend kleinster Quadrate in den Satelliten-Datensätzen von UAH und RSS lautet, dass die Rate der globalen Erwärmung weniger als halb so hoch ist wie die mittlere Rate, welche vom IPCC 1990 prophezeit worden war, und sie lag sogar noch deutlich unter der Prophezeiung der Untergrenze der Bandbreite:

Der vom IPCC (1990) prophezeite Bereich der Vorhersage ist in Orange dargestellt und die Trendlinien in rot. Die tatsächlichen, in der realen Welt aufgetretenen Temperaturen sind dunkelblau und der Trend hellblau gezeigt.

So weit ich weiß, hat kein einziges Mainstream-Medium über diese fortgesetzte und substantielle Diskrepanz zwischen den nervösen Prophezeiungen und der Realität einerseits berichtet, obwohl die Regierungen auf der Grundlage der wilden Prophezeiungen seit Jahrzehnten Billionen aus dem Fenster werfen, und der unspektakulären Realität einer Erwärmungsrate andererseits, die nicht unterscheidbar ist von der internen natürlichen Variabilität.

Es ist lohnend, einen Blick auf die gesamte Satelliten-Aufzeichnung seit dem Jahr 1979 zu werfen. Zuerst auf RSS, deren unbequeme Daten weit weniger Erwärmung zeigen als prophezeit, und die kurz davor stehen, scharf nach oben überarbeitet zu werden, um die vordergründige Erwärmungsrate auf Parteilinie zu bringen:

Als Nächstes UAH, deren Datensatz üblicherweise eine höhere Erwärmungsrate zeigt als alle anderen Datensätze. Allerdings wurden im vorigen Jahr Adjustierungen vorgenommen, nachdem man entdeckt hatte, dass die Instrumentierung der Hütten die Platin-Widerstands-Thermometer erwärmt hatte. Jetzt zeigt UAH eine niedrigere Erwärmungsrate als alle anderen Datensätze:

Zieht man das Mittel der Datensätze von RSS und UAH heran zeigt sich, dass die langzeitliche Erwärmungsrate während des gesamten Zeitraumes von 39 Jahren seit 1979 bei lediglich 1,3°C pro Jahrhundert lag, was weniger als halb so groß ist wie die IPCC-Prophezeiung aus dem Jahr 1990:

Es ist für die vom IPCC so profitabel propagierte Theorie der hohen Klimasensitivität unabdingbar, dass die Rate der globalen Erwärmung nicht abnehmen sollte angesichts des Umstandes, dass sich die Treibhausgase in der Atmosphäre weiterhin akkumulieren, besonders wenn sie weiterhin mit einer Rate akkumulieren, die über der originalen Business-as-Usual-Prophezeiung des IPCC liegen.

Ein einfaches Verfahren zu testen, ob die Rate der globalen Erwärmung seit 1979 zugenommen hat ist es, den linearen Regressionstrend kleinster Quadrate der Daten mit einem jüngeren Startzeitpunkt zu berechnen. Ich habe das Jahr 1997 gewählt, weil dieser Zeitpunkt vor dem El Nino 1998 lag. Das Mittel der beiden Datensätze zeigt, dass die Erwärmung seit 1997 weniger als zwei Drittel eines Grades pro Jahrhundert betrug oder gerade halb so groß war wie die Erwärmungsrate im gesamten Zeitraum seit 1979.

Im Gegensatz zur Hoch-Sensitivitäts-Marke, welchem sich die internationale regierende Klasse weiterhin sklavisch unterwirft (mit der lobenswerten Ausnahme der demnächst ins Amt kommenden US-Regierung), beschleunigt sich die Rate der globalen Erwärmung eben nicht. Sie nimmt vielmehr ab.

Man muss aber einige Vorsicht walten lassen. Zur Jahrtausendwende beendete die Pazifische Dekadische Oszillation, ein etwa 60 Jahre dauernder Zyklus im Ozean, der sich typischerweise durch 30 Jahre Erwärmung, gefolgt von 30 Jahren der Abkühlung manifestiert, eine ungewöhnlich steile positive (Erwärmungs-)Phase und trat in seine negative (Abkühlungs-)Phase ein. Es ist daher möglich, dass ein gewisser Beitrag anthropogener Emissionen sich diesem natürlichen Zyklus überlagert, was den falschen Eindruck einer sehr rapiden Erwärmung von 1976 bis 2000 vermittelt und keinerlei Erwärmung mehr seitdem.

Was jedoch inzwischen unbestreitbar ist: der Beitrag anthropogener Einflüsse auf die globale Temperatur ist beträchtlich geringer als ursprünglich prophezeit. Woher ich das weiß? Weil das IPCC selbst erkannt hat, dass es auch noch den letzten Rest Glaubwürdigkeit, den es noch hat, verspielen würde, wenn es weiterhin absurd übertriebene Mittelfrist-Prophezeiungen ausstößt. Es hat diese fast halbiert:

Wie jede Meinungsumfrage zeigt (und wie es sich auch bei Brexit und Trump zeigte), folgen die Menschen nicht mehr der Parteilinie. Der einzige Weg für sie, die sterbende Klimapanik am Leben zu halten besteht darin, ihre langfristigen Prophezeiungen unverändert beizubehalten und sich auf ihre Speichellecker in den Mainstream-Medien zu verlassen, die entweder nichts über die steigende Diskrepanz zwischen den mittelfristigen Prophezeiungen des IPCC und der beobachteten Realität berichten oder die Halbierung dieser Prophezeiungen seitens des IPCC nicht erwähnen [In der Tat, in der sich ach so seriös gerierenden „Süddeutschen Zeitung“ herrschte dazu bisher nur dröhnendes Schweigen! Anm. d. Übers.].

Mark Boslough, einer der wenigen noch verbleibenden Klima-Extremisten, der noch nicht in der Versenkung verschwunden ist, hat auf verblüffende Weise die zunehmende Verzweiflung der Partei kundgetan, indem er jedem 25.000 Dollar bietet, der darauf wettet, dass der GISS-Temperaturdatensatz für das Jahr 2017 höher ist als der von 2016. Es könnte in diesem Jahr zu einer La Nina kommen, so dass man die Wette annehmen könnte – das heißt, falls man dem GISS vertrauen kann, einen ehrlichen Datensatz der globalen Temperatur zu erstellen.

Es ist nicht meine Sache, etwas gegen Dr. Schmidt [vom GISS] zu sagen. Darum sage ich nichts außer dass ich diese Wette gerne annehmen würde, falls sie entweder auf der Grundlage des HadCRUT4-Datensatzes beruht, nachdem der Extremist Jones das Feld verlassen hat, oder auf dem Mittel der Datensätze von RSS und UAH, sogar noch nachdem Dr. Mears den RSS-Datensatz manipuliert hatte, um diesen auf eine Linie mit der Manipulation terrestrischer Datensätze zu bringen. Aber ich werde keine Entscheidung treffen auf der Grundlage jedweder Klimainformation der NASA, bis Mr. Trump diese Ganoven reformiert hat.

Link: https://wattsupwiththat.com/2017/01/07/when-will-the-pause-in-global-temperature-return/

Übersetzt von Chris Frey EIKE




GWPF-Rundbrief vom 5. Januar 2017 – Klima

Satellitendaten: 2016 statistisch nicht wärmer als 1998

Die starke Abkühlung im Dezember führt dazu, dass sich das Jahr 2016 hinsichtlich der Temperatur nicht vom Jahr 1998 unterscheidet. Dr Roy Spencer, 3. Januar 2017

Rapide Abkühlung des Nordatlantiks

Zwar hat es verständlicherweise kaum die Aufmerksamkeit der Medien erregt – wenn überhaupt welche – aber seit Mitte des vorigen Jahrzehnts hat sich der Nordatlantik rapide abgekühlt – also seit nunmehr über 10 Jahren. Je länger der Abkühlungstrend dauert – und Wissenschaftler projizieren weitere Abkühlung während der nächsten Jahrzehnte – um so schwieriger wird es, diesen Vorgang zu ignorieren. Schließlich ist der Nordatlantische Ozean ein zentraler Trend-Setter für hemisphärische und möglicherweise sogar globale Klimaänderungen. – Kenneth Richard, NoTricksZone, 5. Januar 2017

Hottest Year Evah”: A Reality Check

Vermeintlich war das Jahr 2016 ein hervorragendes Jahr bzgl. globaler Erwärmung. Und was hat es gebracht? Das Arktische Meereis liegt zum Jahresende auf dem Niveau der letzten Jahre. Die Ausdehnung der schneebedeckten Flächen auf der Nordhemisphäre erreichte den zweithöchsten Wert im Herbst 2016 [seit Beginn von Satelliten-Aufzeichnungen]. Das Grönland-Eis ist mit einer phänomenalen Rate gewachsen. Die Hurrikan-Aktivität der letzten 12 Monate war normal. Die Tornado-Saison in den USA war eine der ruhigsten jemals. Buschbrände in den USA lagen unter dem 10-jährigen Mittel. Regen in Australien widerlegt weiterhin die Dürre-Untergangspropheten… Klingt für mich sehr nach irgendeinem anderen Jahr! – Paul Homewood, Not A Lot Of People Know That, 1. Januar 2017

Stephen Moore: Der größte Verlierer des Jahres 2016: die grüne Blase von Big Green

Falls man ein Klima-Alarmist ist und voller Hass auf fossile Treibstoffe, dürften jetzt vier oder vielleicht sogar acht schlimme Jahre vor einem liegen. Amerika ging an die Wahlurnen und hat umweltlichen Extremismus zurückgewiesen, neben anderen Dingen. Der größte Verlierer der Wahlnacht war die Big-Green-Bewegung in Amerika, die sich der Anti-Wohlstands-Kampagne verschrieben haben, der zufolge wir die USA deindustrialisieren müssen, um den Planeten vor dem Aussterben zu bewahren und wir Abermillionen unserer Mitbürger um Lohn und Brot bringen müssen. Die Wähler senkten den Daumen bzgl. der Klimawandel-Lobby, und das völlig zu Recht! – Stephen Moore,  The Washington Times, 1. Januar 2017

Übersetzt von Chris Frey EIKE




Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlast­fähigkeit

[3] Offshore ersetzt Steinkohlekraftwerke und ist grundlastfähig
Maximal zwei bis drei Tage im Jahr weht auf der Nordsee kein Wind. Gleichzeitig kommt es aufgrund der großen Anzahl dezentraler Einspeiser zu Ausgleichseffekten: Jede Stunde im Jahr wird durch erneuerbare Energieerzeuger in Deutschland Strom produziert.
Münchner Stadtwerke: [5] Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München:
… Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und
ist sogar grundlastfähig.

Die Wind-Einspeisedaten von 15 Ländern

Bild 1 zeigt die Ganglinien von 15 Staaten (obere Leiste) über zwei Jahre. Da die Windenergieerzeugung von Deutschland parallel in hellblau dargestellt ist, zeigt sich über-deutlich, dass selbst über die Fläche der 15 Staaten keinerlei Grundlast-Ausgleich erfolgt.

Bild 1 Windenergie-Einspeisung von 15 Euro-Staaten (dunkelblau) im Vergleich mit Deutschland (hellblau) im Jahr 2015 -2016. Quelle: [1]
Den Verlauf der gesamten Ökostrom-Einspeisung dieser zwei Jahre für Deutschland zeigt Bild 2. Die einzige, erwähnenswerte „Grundlast“ erzeugen Biomasse-Strom und Wasserkraft – welche beide aber in Deutschland nicht mehr ausbaufähig sind.

Bild 2 Verlauf der Öksotrom-Einspeisung Deutschland der Jahre 2015 – 2016. Quelle: Agora

Immer neu muss man darauf hinweisen: Die fehlende Energie bis zur Bedarfslinie müssen konventionelle Kraftwerke liefern. Diese „verstopfen“ nicht die Netze, wie es von NGOs und GRÜNEN Ministern verkündet wird, sondern sie retten diese täglich neu vor dem sicheren Blackout.

Es hindert aber zum Beispiel Greenpeace nicht, absoluten Schachsinn zu publizieren, den dann unsere Medien und GRÜNE Umwelt(Landes-)Minister dankend aufnahmen.
WELT N24, 31.05.2016 : Kohlekraftwerke „verstopfen“ Stromnetze
An teuren Engpässen im Stromnetz sind Greenpeace zufolge vor allem unflexible Atom- und Kohlekraftwerke schuld. Auch wenn viel Wind- und Sonnenenergie erzeugt werde, drosselten sie ihre Leistung kaum, heißt es in einer von der Umweltschutzorganisation in Auftrag gegebenen Studie, die am Dienstag veröffentlicht wurde.
Nach Angaben der schleswig-holsteinischen Landesregierung werden rund acht Prozent des gesamten Ökostroms in dem Land nach diesem Muster «abgeregelt», das ist Greenpeace zufolge ein Spitzenwert.
… Der Kieler Energieminister Robert Habeck (Grüne) sagte der Deutschen Presse-Agentur: «Wir haben ja nicht zu viel Erneuerbaren Strom, sondern Koh
le- und Atomkraftwerke, die das Netz verstopfen. Wenn die aus den Netzen verschwinden würden, hätten wir ordentlich Platz.»

Dass das, was dieser Minister Habeck (Studium der Philosophie, Philologie und Germanistik) vermittelt, ebenfalls nur zeigt, dass keinerlei fachlichen Kenntnisse über Energiesysteme vorliegen und welche Folgen dies hat und noch haben wird, zeigte sich wieder demonstrativ über Weihnachten:
EIKE 31.12.2016: [5] Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
Der Ganglinienverlauf über zwei Monate (Bild 3) bestätigt es nochmals im Detail. Bei Windkraft ist keinerlei Grundlast in Sicht, überdeutlich ist die großflächige synchronität der Windeinspeisung auch in der Detailauflösung zu erkennen.

Bild 3 Windenergie-Einspeisung von 15 Euro-Staaten (dunkelblau) im Vergleich mit Deutschland (hellblau) für die Monate November und Dezember 2016. Quelle: [1]
Welcher Abstand zum Bedarf besteht, zeigt nochmals Bild 4. Und dabei sprechen Greenpeace und ein GRÜNER Minister von „Verstopfung“ durch die konventionellen Kraftwerke.

Bild 4 Verlauf der Öksotrom-Einspeisung Deutschland im Novermber – Dezember 2016. Quelle: Agora

 Was wollen uns diese Ganglinien sagen?

Neben dem, dass man eine auch nur minimalste Grundlastfähigkeit der Windkraft selbst im EU-weiten Rahmen „vergessen“ kann, zeigt es überdeutlich die Speicherproblematik. So lange Speicher nicht im Größtmaßstab zur Verfügung stehen und dazu auch noch bezahlbar bleiben – was noch, wenn es überhaupt möglich wird, Jahrzehnte dauert – ist und bleibt der Ausbau der Ökoenergie ein Desaster.
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Für die, welche davon profitieren, ist das kein Problem

Verbands-Interessenvertreter schaffen es problem- und hemmungslos, einfach einen aller Physik und kommerziellen Möglichkeiten Hohn sprechenden Wunschkatalog zusammenzustellen und dann den staunenden Medien zu erzählen, mit „etwas technologischem Fortschritt“ und „verlässlichem Grundrauschen“ lässt sich doch jede EEG-Zukunft lösen. Lässt sich nicht, aber bis es auffällt, sind die eigenen Taschen ja gefüllt.
[4] Björn Klusmann, Geschäftsführer des Bundesverbands Erneuerbare Energie BEE:
„Wir haben enorme Potenziale in der Windenergie insbesondere an Land, wir haben noch enorme Potenziale in der Fotovoltaik, und wir haben auch noch enorme Potenziale in der Bioenergie, der Wasserkraft und der Geothermie. Alle fünf Erneuerbaren werden weiter wachsen. Die Windenergie wird das große Stromvolumen liefern zu sehr günstigen Konditionen, die Fotovoltaik wird die Lastspitzen zur Mittagszeit abdecken, die Bioenergie wird die Schwankungen der anderen beiden ausgleichen. Und Geothermie und Wasserkraft sind sozusagen ein verlässliches Grundrauschen, das dann noch dazu kommt.“
Auch Claudia Kemfert hält den Ausstieg aus der Kernkraft für realistisch, obwohl sie nicht ganz so optimistisch ist wie Umweltverbände und der BEE. Die Grundlastversorgung und auch die Preisentwicklung sind für sie kaum ein Problem.
„Die erneuerbaren Energien sind auch grundlastfähig. Biomassekraftwerke sind grundlastfähig, die können Sie auch immer einsetzen. Sie können natürlich auch die Erneuerbaren Energien so gut miteinander verbinden und speichern, dass Sie dann auch eine Grundlast haben. Da ist natürlich noch technologischer Fortschritt notwendig, aber das ist auch möglich, und da wird es ja auch hingehen.“

Wo kommt die Grundlast nach dem Zwangs-Abschalten der Kraftwerke dann her?

Die hat in Zukunft der Stromkunde selbst zu bevorraten, indem er gezwungen wird, sich Speicher anzulegen. Natürlich wird ihm das „zu seinem Vorteil“ vermittelt.
[4] So beschreibt Ralph Kampwirth das ehrgeizige Ziel des Stromlieferanten Lichtblick, seinen Beitrag dazu zu leisten:
„Wir wollen ja mit 100.000 Zuhause-Kraftwerken Deutschlands größtes Gaskraftwerk aufbauen.“
Noch klingt das utopisch, denn zunächst ist Lichtblick nur in Hamburg mit dem Projekt an den Start gegangen. Knapp 10 Anlagen werden jede Woche installiert, weitere Ballungsräume wie das Ruhrgebiet oder Berlin sollen für den Vertrieb erschlossen werden. Da, wo es läuft, gibt es zumindest zufriedene Gesichter. Denn Uwe Thormählen freut sich nicht nur über seine Kostenersparnisse:
„Wir wollten ja auch etwas für die Umwelt tun, wir haben auch eine Fotovoltaikanlage auf dem Dach, und jetzt haben wir noch diese Geschichte und erzeugen Strom im Keller, und wenn sich mehrere Leute dafür entscheiden würden, dann hätten wir tatsächlich wohl in Deutschland die Möglichkeit, die Großkraftwerke nach und nach zu ersetzen.“

Den Verkauf der erforderlichen Ausrüstung und vor allem der lukrativen, späteren DV-technischen Versorgung sehen die Versorger – auch die kommunalen – als ihr großes Zukunfts-Modell:
EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
SolarServer: Am 20.10.2016 erhielten die Caterva GmbH (Pullach bei München) und die N-ERGIE Aktiengesellschaft (Nürnberg) für ihr Projekt „SWARM“ den Bayerischen Energiepreis in der Kategorie „Energieverteilung und -speicherung“.
SWARM zeige, dass Photovoltaik-Stromspeicher für Eigenheime sowohl Privathaushalten dienen als auch höchst wirkungsvoll zur Stabilisierung des Stromnetzes beitragen können, so die Begründung der Jury.
Was hinter diesem gelobten Abzocker-Modell steckt, wurde bereits beschrieben:
EIKE 6.6.2015: Schlaraffenland im EEG-Paradies – Wie man die Verbraucher gegeneinander ausspielen und dann austricksen kann

Deshalb haben die Versorger auch nicht das Geringste Interesse daran, dass Strom billiger wird

Und es hat sogar seine Berechtigung. Umso teurer der Haushaltsstrom wird, umso Kosten-sparender wird der Eigenverbrauch. Niemand im Versorger- und Netzbereich hat deshalb noch irgend ein Interesse daran, Strom billig zu machen. Ausschließlich teurer Haushaltsstrom sichert die neuen Geschäftsmodelle.
Klar, dreht kein Versorger an der Preisschraube – die meisten haben ja einen kommunalen Bürger-Auftrag und kümmern sich auch darum, wie es jüngst ein Aufruf: Die Stromkunden sollen sich bitte in Berlin bei Frau Merkel beschweren; jüngst zeigte:
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar.
Man wehrt sich nur nicht dagegen, dass zum Beispiel die CO2-Zertifikate von der Politik – unterstützt von deren Beratern – teuer gemacht werden:
Zeitschrift Ökologie Politik, Februar 2012: Interview mit Prof. Dr. Claudia Kemfert „Ein CO2-Preis von 60 Euro pro Tonne ist nötig!“
Alleine damit wird der konventionelle Strom schon so hochpreissig, dass der Ökostrom „billig“ erscheint und das Abschalten der verbliebenen Kraftwerke mit kommerziellem Zwang begründet werden kann.

Wer sich keinen Speicher in den Keller legen will oder kann – wird in naher Zukunft erleben, dass der Staat zwar über einen Rundfunk-Staatsvertrag für die Unterhaltung des Bürgers zu sorgen hat, dies aber nicht für die Stromversorgung gilt.
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!

Und wenn etwas daran schief geht? Es gibt keine Parteien-, oder Politikerhaftung (gilt auch für die Berater). Jede der letzten Generationen durfte bisher etwas aus Trümmern neu aufbauen …. Visionäre haben wir dafür zuhauf:
[6] Publik Forum Edition, Oberursel 2009. Hans-Peter Gensichen: Armut wird uns retten Geteilter Wohlstand in einer Gesellschaft des Weniger: These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Quellen

[1] Rolf Schuster, Datensatz der Ganglinien Wind für 15 Länder

[2] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

[3] PROJEKT Firmengruppe, Homepage

[4] Deutschlandfunk: „Grundlast ist altes Denken!

[5] EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
http://www.eike-klima-energie.eu/2016/12/31/die-zahltage-des-eeg-beginnen-ihren-vorhergesagten-lauf/

[6] EIKE 18.04.2016: Kirche und Klimawandel




Judith Curry – berühmte skeptische Klimaforscherin gibt auf!

Mit dem 1. Januar bin ich von meiner Stellung an meiner Fakultät bei Georgia Tech zurückgetreten.

Bevor ich zu einer ganzen Reihe von Themen Stellung nehme, möchte ich eine Frage beantworten, die sich der geneigte Leser stellen könnte: Ich beabsichtige nicht, der Trump-Regierung beizutreten (ha ha).

De jure ist mein Rücktritt ein Eintritt in den Ruhestand, bin ich doch im Georgia State Teachers Retirement System, und ich muss mich von Georgia Tech in den Ruhestand verabschieden, um meine Pension zu erhalten (obwohl ich noch ein paar Jahre vor mir habe bis zu meinem 65. Geburtstag). Ich habe um den Status als Emeritus ersucht.

Ich habe mich also von Georgia Tech zurückgezogen und habe nicht die Absicht, nach einer anderen akademischen oder administrativen Stellung an einer Universität oder in einer Regierungs-Agentur zu suchen. Allerdings werde ich mich mit Sicherheit nicht aus meiner beruflichen Tätigkeit zurückziehen.

Warum habe ich meine Stellung an der Fakultät aufgegeben?

Ich ziehe mich zurück nach 186 veröffentlichten Artikeln in Journalen und zwei Büchern. Vordergründig, weil ich mich anderen Dingen zuwenden möchte und ich mein Universitätsgehalt nicht mehr brauche. Für Georgia Tech ergibt sich dadurch die Gelegenheit, jemanden anders einzustellen. (siehe hier).

Die tieferen Gründe liegen jedoch in meiner Verdrossenheit mit Universitäten, dem akademischen Fachbereich der Klimawissenschaft und Wissenschaftlern.

Falsche Hosen

Seit meinem 5. Lebensjahr war ich in der Schule. Bis vor ein paar Jahren betrachtete ich eine Stellung an der Fakultät einer großen Universität als einen Traumjob, und ich konnte mir nicht vorstellen, jemals etwas anderes zu machen.

Unabhängig von meiner eigenen persönlichen Laufbahn und den ,Schocks‘, die im Jahre 2005 mit unseren Studien zu Hurrikanen und der globalen Erwärmung begannen sowie den massiven Stacheln der Jahre 2009 und 2010 durch Klimagate, habe ich erkannt, dass sich Universitäten während der letzten 5 bis 10 Jahre substantiell verändert haben.

Zuerst dachte ich, die Änderungen, die ich an der Georgia Tech beobachtet hatte, seien die Folge einer Änderung der höher stehenden Regierung (Präsident, Dekan usw.). Es war hart, dem akademischen Nirwana unter der Leitung von Georgia Tech von Wayne Clough, Jean-Lou Chameau und Gary Schuster zu folgen. Aber dann begann ich zu erkennen, dass es an Akademien und Universitäten in der ganzen Nation [= den USA] zu substantiellen Änderungen kam. Mir flatterte vor Kurzem ein Artikel auf den Schreibtisch, in dem teilweise beschrieben wird, was falsch läuft: Universitäten werden zu ,künstlichen Nachtigallen‘ (hier).

Das Entlohnungssystem für Mitglieder der Universitäts-Fakultät wird zunehmend kontraproduktiv für gerade Studierende, sie in die Lage zu versetzen, in der realen Welt zu denken und zu handeln und die Grenzen des Wissens in bedeutsamer Weise zu verschieben (zumindest in bestimmten, für die Öffentlichkeit relevanten Bereichen wie Klimawandel). Dazu habe ich schon früher Stellung genommen, und ich möchte hier nicht darauf herumreiten.

Warum soll man nicht einmal versuchen, das System von innen heraus zu verändern? Nun, dies ist keine Schlacht, die ich schlagen möchte, unabhängig von jedweder realistischen Einschätzung, in der Lage zu sein, das schwerfällige Untier von innen heraus zu bewegen.

Oder vielleicht ist es ein Fall ,falscher Hosen‘, soweit es mich betrifft. Universitäten fühlen sich für mich nicht mehr als der ,real deal‘ an (Anmerkung: Diese Kritik zielt nicht auf Georgia Tech, welche besser ist als die meisten Anderen). Es ist an der Zeit für mich, den Elfenbeinturm zu verlassen.

Ein entscheidender Faktor war, dass ich nicht mehr weiß, wie ich die Studenten und Doktoranden durch die VERRÜCKTHEITEN im Bereich Klimawissenschaft steuern sollte. Forschung und andere berufliche Tätigkeiten zahlten sich nur dann aus, wenn sie in bestimmte Richtungen gebündelt waren, die von einem politisierten akademischen Establishment genehmigt worden sind – Finanzierung, Erleichterungen bei der Veröffentlichung von Studien, in angesehene Positionen aufzusteigen, Termine bei angesehenen Komitees und Gremien, berufliche Anerkennung usw.

Wie man junge Wissenschaftler durch all das navigieren soll, liegt hinter mir, und oftmals wird daraus eine Schlacht zwischen wissenschaftlicher Integrität einerseits und Karriere-Selbstmord andererseits (ich habe in dieser Hinsicht mit einer Anzahl skeptischer junger Wissenschaftler zusammengearbeitet).

Man lasse mich das in Beziehung stellen zu einem Austausch mit einer Doktorandin vor einem Monat. Sie wollte mich als eifrige Leserin meines Blogs sprechen. Sie arbeitet in einem Bereich, der mit Sicherheit für Klimawissenschaft relevant ist, aber sie will sich nicht als Klimawissenschaftlerin bezeichnen. Sie sagt, dass sie andauernd aus allen Richtungen gefragt wird zu Themen bzgl. globaler Erwärmung, und sie wusste nicht, was sie antworten sollte, da Themen wie Zuordnung usw. nicht die Themen sind, die sie als Wissenschaftlerin erkundet. MANN, eine Wissenschaftlerin, die den Unterschied kennt! Ich riet ihr, ihren Kopf gesenkt zu halten und mit der Forschung fortzufahren, von der sie glaubt, dass sie interessant und wichtig sei, und sich aus der Klimadebatte herauszuhalten, ES SEI DENN, sie entschließt sich, sich persönlich da hineinzustürzen und ihr intellektuell zu folgen. Persönliche Meinungen über die Wissenschaft und politische Meinungen über Politik, die irgendwie mit Ihrer Forschungs-Expertise zusammenhängen, sind genau das – persönliche und politische Meinungen. Derartige Meinungen als beitragend zu einem wissenschaftlichen Konsens zu verkaufen, ist viel schlimmer als ein Witz.

Mit einem Rückzug aus all dem habe ich mich daran erinnert, dass ich Angestellte der Fakultät war – im Prinzip konnte ich machen, was ich wollte. Die intellektuellen Dinge, die mich jetzt interessieren, sind:

Einschätzung der Klimawissenschaft auf eine Art und Weise, die für politische Entscheidungen relevant ist unter voller Berücksichtigung der Unsicherheiten,

Die Erkundung der Philosophie wissenschaftlicher Themen im Hinblick auf die Erkenntnisse von Klimamodellen, Nachdenken über unsichere, komplexe Zusammenhänge

Entscheidungen treffen im Angesicht tiefer Unsicherheit

Soziologie der Wissenschaft und Experimentieren mit sozialen Medien.

Als ich zum ersten Mal im Jahre 2010 diesen Weg beschritten habe, veröffentlichte ich Studien, die man durchaus als auf Wissenschaft angewandte Philosophie bezeichnen kann (z. B Unsicherheits-Monster). Dies schien der Weg zu sein hin zum Erhalt akademischer ,Legitimität‘ im Lichte meiner neuen Interessen, aber ehrlich gesagt wurde mir dieses Spiel bald langweilig. Warum sollte man sich die Mühe machen, Studien zu veröffentlichen, mit Interviewern zu kämpfen die (normalerweise) weniger von deinem Thema wissen als man selbst (um deren ideologische Verzerrung nicht zu erwähnen), für die Veröffentlichung eines Artikels einige Monate im Voraus zu zahlen, damit vielleicht 100 Personen ihn lesen? Ganz zu schweigen von den umfassenderen Dingen in Beziehung zur Universitäts-Bürokratie, Finanzierung seitens der Regierung usw.

Hat man sich einmal von der akademischen Denkweise gelöst, ist die Veröffentlichung im Internet viel sinnvoller, und die Begutachtung, denen man auf technologischen Blogs ausgesetzt ist, ist erheblich extensiver. Aber Begutachtung ist nicht wirklich der Punkt; der ist vielmehr, die Menschen dazu zu bringen, in neuen Wegen zu denken. Mit anderen Worten, Wissenschaft als Prozess und nicht als Sammlung verordneter ,Wahrheiten‘.

An diesem Punkt denke ich, dass ich mehr Menschen erreichen kann (einschließlich Studenten und junge Forscher) mittels sozialer Medien. Tue ich so, als hätte auf all das eine Antwort? Nein, aber ich hoffe, Studenten und Wissenschaftler dazu zu animieren, über ihren Tellerrand hinaus zu denken.

Die reale Welt

Daher ist mein Fall aus dem Elfenbeinturm, der 2005 begonnen hatte, jetzt abgeschlossen (man schaue auf meinen Vortrag 2006 vor der AGU agu_integrityofscience_curry].

Siehe Bild oben!

Was kommt als Nächstes?

Ich bin daran interessiert, neue und bessere Wege zu finden, um mit Wetter- und Klimadaten zu arbeiten, mit Informationen zur Wettervorhersage und zukünftigen Klima-Szenarien, um Entscheidungen in der realen Welt zu stützen, die den Umgang mit Risiken betreffen und die mit der Wetter- und Klimavariabilität assoziiert sind.

Mein Interesse daran wurde vor über einem Jahrzehnt geweckt, und Peter Webster und ich gründeten ein Unternehmen, nämlich das Climate Forecast Applications Network (CFAN), um genau das zu tun. Falls man noch nicht auf diese Website gestoßen ist, sollte man das nachholen – www.cfanclimate.net – habe ich doch meine gesamte Winterpause damit verbracht, die Website zu überarbeiten nach einigen guten Vorschlägen von Larry Kummer von der Fabius Maximus-Website.

CFAN begann als ein Start-Up-Unternehmen der Universität im Jahre 2006, und bis vor einigen Jahren hatte ich keine Vollzeit-Mitarbeiter. Jetzt arbeiten 7 Wissenschaftler mit Ph.D. bei uns (zusätzlich zu Peter und mir selbst), plus Software-Entwickler usw. Nach meinem Rückzug aus Georgia Tech haben wir unser Unternehmen in eine neue Phase gelenkt, um Produktentwicklungen für neue Vorhersagen zu erkunden und Hilfsmittel für Entscheidungen zu entwickeln, neue Märkte, neue Partnerschaften, neue Gebiete.

Bisher stammte das Einkommen von CFAN aus dem Bereich ,Wetter‘ (Tage bis Jahreszeiten) mit einigen Projekten zur Entwicklung zukünftiger Klima-Szenarien. (Über das derzeitige Projekt habe ich einen Beitrag geschrieben: Generating regional scenarios of climate change).

Ich finde all dies außerordentlich interessant, herausfordernd und lohnend. Nicht zu erwähnen den enormen Zeitverbrauch (CFAN muss mehr Geld verdienen, damit wir weitere Personen einstellen können, die mich und die anderen Manager entlasten, die allesamt auf zu vielen Hochzeiten tanzen). Ich erfahre gewaltig viel über Entscheidungsfindung, Management, Marketing, Verkäufe, Finanzen usw.

An diesem Punkt scheint es mir, dass der private Bereich ein ,ehrlicherer‘ Platz für einen Wissenschaftler ist, der in einem politisierten Bereich arbeitet, als an Universitäten oder in Laboren der Regierung – zumindest wenn man sein eigener Chef ist.

Soziale Medien

Wohin führen also all meine Bemühungen mit sozialen Medien (einschließlich Climate Etc.)? Der Rückzug von meiner Stellung in der Fakultät und die Übernahme eines mehr als Vollzeit-Jobs mit dem Betreiben von CFAN bedeutet unter dem Strich weniger Zeit zum Bloggen und nicht mehr (zumindest in naher Zukunft).

Ich bleibe sehr interessiert am wechselseitigen Austausch mit sozialen Medien. Allerdings habe ich im vorigen Jahr deutlich weniger Zeit damit verbracht, Originalmaterial für Climate etc. zu schreiben. Unabhängig davon, dass ich vielfach beschäftigt war, verbrachte ich mehr Zeit auf Twitter (mit deutlich geringerem Zeitaufwand).

Ich werde mit einem neuen Blog für CFAN anfangen, mich mehr auf Wetter und kurzfristige Klimathemen konzentrieren (und relevante Postings bei Climate etc. bringen).

Ich möchte auch versuchen, häufiger kürzere Beiträge für Climate Etc. zu schreiben, mit kurzen Auszügen und Kommentaren auf einige Artikel, über die ich getwittert habe. Ich werde mich auf Gastbeiträge stützen für genauere technische Betrachtungen. Ich beabsichtige also definitiv, den Blog am Leben zu halten, aber im Zusammenhang mit einem sehr ausgefüllten Stundenplan.

Wir müssen abwarten, wie sich das alles entwickelt, aber ich habe erkannt, dass ich das Recht zum Erkunden habe und zu tun, was ich will. Dies ist meine Definition von akademischer Freiheit (und nicht jemanden aufzufordern, dafür zu bezahlen).

Link: https://judithcurry.com/2017/01/03/jc-in-transition/

Übersetzt von Chris Frey EIKE




Der Weltuntergang kommt näher – “Green Tech” liegt 10-fach hinter den Pariser Klimavereinbarungen zurück

DURHAM, North Carolina – Die globale Ausbreitung der grünen Technologien muss erheblich beschleunigen werden, um zukünftige Rückschläge bei den Treibhausgasemissionen zu vermeiden, wie eine neue Studie der Duke University zeigt.

„Auf der Grundlage unserer Berechnungen werden wir die in der Pariser Vereinbarung festgelegten Klimaerwärmungsziele nicht erfüllen, wenn wir die Verbreitung sauberer Technologien nicht um eine Größenordnung oder etwa zehnmal schneller als in der Vergangenheit beschleunigen“ – nach Gabriele Manoli, ein ehemaliger wissenschaftlicher Mitarbeiter an der „Nicholas School of the Environment“ der Universität in Duke.

„Radikale neue Strategien zur Umsetzung technologischer Fortschritte auf globaler Ebene und in noch nie dagewesenen Sprüngen sind erforderlich, wenn die derzeitigen Emissionsziele erreicht werden sollen“.

Die Studie verwendete verzögerte Differentialgleichungen, um das Tempo zu berechnen, in dem sich die globalen Pro-Kopf-Emissionen von Kohlendioxid seit der zweiten industriellen Revolution – einer Periode der schnellen Industrialisierung am Ende des 19. Jahrhunderts und Anfang des 20. Jahrhunderts – erhöht haben. Die Forscher verglichen dann dieses Tempo mit der Geschwindigkeit der neuen Innovationen in kohlenstoffarmen Technologien.

Ergebnis aus dem Model zur Projektion künftiger Emissionen und die Geschwindigkeit der Innovation, die zur Erfüllung globaler Emissionsziele erforderlich ist. (Credit: Gabriele Manoli)

[Selbst bei 10-facher Beschleunigung der grünen Innovationen, wird im Model das politisch gesetzte  2-°C Ziel überschritten – Hier und hier finden Sie Informationen dazu; der Übersetzer]

Mit diesen historischen Entwicklungen und den Projektionen des künftigen globalen Bevölkerungswachstums konnten Manoli und seine Kollegen das voraussichtliche Tempo der künftigen Emissionssteigerungen abschätzen und auch die Geschwindigkeit bestimmen, mit der klimafreundliche technologische Innovationen und Umsetzungsmaßnahmen eintreten müssen, um die Erwärmung unter dem  2 ° C-Ziel von Paris zu halten.

„Es reicht nicht mehr, emissionsmindernde Technologien zu haben“, sagte er. „Wir müssen sie auf größere Bereiche anwenden und weltweit in noch nie dagewesenen Geschwindigkeiten verbreiten.“

Die Forscher veröffentlichten ihre Peer-Review-Ergebnisse 29. Dezember in dem Open-Access-Journal Earth’s Future.

Die Analyse zeigt, dass die pro-Kopf-CO2-Emissionen – in der Regel in großen Sprüngen – seit der zweiten industriellen Revolution alle 60 Jahre um rund 100 Prozent gestiegen sind. Dieses „punktierte Wachstum“ ist vor allem auf Grund der zeitlichen Verzögerungen bei der Ausbreitung von technologischen Fortschritten, die durch die Auswirkungen eines schnellen Bevölkerungswachstums verbunden sind, aufgetreten.

„Manchmal sind diese Verzögerungen technischer Natur, oder – wie die jüngste Geschichte zeigt – können sie auch durch politische oder wirtschaftliche Barrieren verursacht werden“, erklärte Manoli. „Was auch immer die Ursache, unsere Quantifizierung der historisch mit solchen Herausforderungen verbundenen Verzögerungen zeigt, dass eine zehnfache Beschleunigung in der Ausbreitung der grünen Technologien jetzt notwendig ist, um eine Verzögerung der „Doomsday Clock“ [des Weltuntergangs] zu erreichen.“

Manoli, ist jetzt ein wissenschaftlicher Mitarbeiter am Institut für Umwelttechnik der ETH Zürich, leitet die neue Studie mit Gabriel G. Katul, Theodore S. Coile Professor für Hydrologie und Mikrometeorologie und Marco Marani, Professor für Ökohydrologie. Katul und Marani sind Fakultätsmitglieder an der Duke’s Universität, Bereich „Nicholas School of the Environment“ mit sekundären Berufungen in der Abteilung für Bau-und Umweltingenieurwesen an Duke’s „ Pratt School of Engineering“.

###

Die Finanzierung für die Studie kam von der National Science Foundation (Zuschüsse EAR-1344703 und EAR-1530233), und aus dem Duke WISeNet-Programm, gesponsert von NSF Zuschüssen DGE-1068871.

ZITIERUNG: „Verzögerungsbedingte Rückschläge in den CO2-Emissionen und kritische Zeitskalen, um globale Erwärmungsziele zu erreichen“, Gabriele Manoli, Gabriel G. Katul, Marco Marani. Die Zukunft der Erde. Dez. 29, 2016. DOI: 10.1002 / eft2.2016EF000431

Erschienen auf WUWT am 03.01.2016

 

Ergänzung durch den Übersetzer Andreas Demmig:

Ich habe mal recherchiert, wie hoch die Zuschüsse für diese Arbeit waren:

EAR-1344703 und EAR-1530233                         $401.197 plus $255.946

DGE-1068871  ausbezahlter Betrag bis E 8/2017:         $3.126.326

Summiert sich auf: $ 3.783.470 ( < 3,8 Mio $)

https://wattsupwiththat.com/2017/01/03/study-doomsday-clock-is-ticking-green-tech-is-10x-behind-in-meeting-paris-climate-agreement/




GWPF-Rundbrief vom 3. 1. 2017 – Energie

US-Schiefer kann den OPEC-Deal innerhalb von Monaten brechen

Ein Problem, das anzugehen die OPEC lange zu vermeiden gehofft hatte, ist ausgebrochen. Wir reden natürlich von US-Schiefer, dem größten Einzel-Erzeugnis weltweit. Das Problem ist kurz gesagt eines der Bilanzbereinigung (zwischen jenen Unternehmen, die bankrott gegangen sind und die das bereits getan haben, so dass die meisten jetzt weit niedrigere Gesamt-Produktionskosten haben, um die viel geringeren Schulden und neu belebte Management-Abteilungen nicht zu erwähnen) ebenso wie eines der steigenden Effizienz der Bohrtechnologie. Während die Bohrunternehmer in den USA seit Mai etwa 200 weitere Plattformen hinzugefügt haben und Vorteile aus steigenden Preisen nach dem Beschluss der OPEC zum Kappen der Ölförderung ziehen, fragt man sich, was mit der US-Ölerzeugung passieren wird, wenn die Anzahl der Plattformen erst einmal auf sein jüngstes historisches Niveau zwischen 1800 und 2000 zurückgekommen ist. Eines wissen wir sicher: nach zwei Jahren, während derer sie das Rampenlicht vermieden hat, ist die Schiefer-Industrie bereit, mit einem Paukenschlag zurückzukehren. Reuters zufolge sind die „US-Bohrunternehmer in der Lage, die Ausgaben für Erkundung und Produktion im nächsten Jahr zu erhöhen, bringen doch sich erholende Ölpreise die Banken dazu, Kreditrahmen zum ersten Mal seit zwei Jahren wieder auszuweiten“. OilPrice, 29. Dezember 2016

Chinesische Kohleindustrie: Gewinn ist 2016 explodiert

China berichtete jüngst von steigenden Gewinnen der Kohleindustrie. Das chinesische National Bureau of Statistics nannte ein Wachstum um „157 Prozent während der ersten 11 Monate des Jahres 2016“, während Industriebereiche wie Öl und Gas, die ebenfalls Anteil an der Energieversorgung haben, in einem Zeitraum Verluste hinnehmen mussten. Der fortgesetzte Verbrauch von Kohle spiegelt den Anstieg der Anzahl von Kohlekraftwerken, die entweder im Bau oder bereits fertig gestellt sind – in China und Indien ebenso wie in afrikanischen und vielen europäischen Ländern. Es gibt Gründe, warum der Kohleverbrauch weiter steigen wird. China, Indien afrikanische und europäische Länder werden weiterhin Kohle verbrauchen – aus einem einfachen Grund: sie ist im Vergleich zu Erneuerbaren, Kernkraft oder sogar Erdgas billig. Sehr schmutzig, aber sehr billig, und genau das bringt die Chinesen und Andere dazu, so viel Kohle zu verbrauchen. – Todd Royal, OilPrice, 28. Dezember 2016

Schiefer-Industrie in UK dabei abzuheben

Drei separate Fracking-Projekte könnten in diesem Jahr Fahrt aufnehmen, kommt doch die UK-Schiefergas-Industrie den Industriebossen zufolge schließlich aus ihren Startlöchern nach Jahren der Verzögerung. Hydraulisches Brechen bei Kirby Misperton, North Yorkshire könnte innerhalb weniger Wochen beginnen, nachdem ein Richter kurz vor Weihnachten eine Klage von Umwelt-Campaignern und Anwohnern zurückgewiesen hatte, das Projekt aufzuhalten. An der Bohrstelle bei Moors in North Yorkshire könnte es innerhalb weniger Wochen losgehen. Zwei andere Betreiber – Cuadrilla resources und iGas – hoffen, mit ihren Operationen an Stellen in Lancashire und Nottinghamshiere noch in diesem Jahr beginnen zu können. – Robin Pagnamenta, The Times, 2. Januar 2017 [paywalled!]

Übersetzt von Chris Frey EIKE




In 2040 werden Wind und Sonne 4% der globalen Energie liefern

Hier einige Schlaglichter aus der Studie:

Möglicherweise müssen sie die aktuelle Uhrzeit bis zum jüngsten Gericht etwas näher an 12:00 Uhr stellen, wenn ExxonMobils Ausblick von 2017: Eine Prognose auf 2040 stimmen sollte. [Anspielung auf die Klimavereinbarungen von Paris in 2016].

Erdöl und Erdgas werden auch 2040 weiterhin 55% der Primärenergie der Welt liefern. Während Wind und Solar ihren meteorischen Anstieg auf 4% fortsetzen werden

… Ja, ich weiß, dass Meteore nicht klettern können.

Während die Wind- und Solarkapazität schnell ausgebaut wird, wird die Nutzanwendung nachhinken.

Auch wenn wir die konventionelle Stromerzeugung auf Null setzen, wird das mit Wind und Solar nicht viel besser …

Wind und Solar werden auch im Jahr 2040 nicht 85% des Stroms der Welt liefern. Allein Kohle wird noch doppelt so viel Strom erzeugen wie Wind und Sonne zusammen.

 

Was ist mit Elektrofahrautos (PEV powered electric vehicles)? Werden sie nicht die Welt vor dem Klimawandel retten?

Hybridautos werden 15% globalen Anteil  erreichen. Vollstromer werden sich schüchtern bei 5% bewegen.

Alle sarkastischen Bemerkungen waren absichtlich – David Middleton

Veröffentlich auf WUWT am 4.Januar 2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/04/wind-and-solar-to-provide-4-of-global-primary-energy-by-2040/