1

Schock: Globale Temperaturen durch US-Posttarife getrieben

Bild rechts: Quellen: globale Temperaturen vom NCDC, CO2-Niveau aus Law Dome und Mauna Loa, US-Posttarife nach <a href= „http://www.akdart.com/postrate.html„target=“_blank“>Andrew Dart</a>

Damals im Jahre 1885 kostete ein Brief 2 Cent. Wer hätte damals gedacht, dass mit dem Anstieg der Posttarife um 40 Cent während der folgenden 120 Jahre die globale Temperatur diesen Anstieg spiegeln würde, sowohl im Timing als auch mit der Steigung, um fast ein ganzes Grad?

 

Ominöserweise wird die US-Post das Porto im Mai 2009 um 2 Cent auf 44 Cent erhöhen. Das Postal Action Network (PAN) wurde bereits ins Leben gerufen und plant, eine Boykott-Kampagne zu starten hinsichtlich der neuen 44-Cent-Briefmarke mit dem Konterfei von Homer Simpson. Überarbeitete Postbedienstete sind enthusiastisch. Homer Simpson hat dem Vernehmen gesagt: „Gebt mir die Nummer für 911“.

Barbara Boxer, Mehrheitsführerin des Committee on Environment and Public Works beim US-Senat, hat augenblicklich eine Untersuchung angeordnet und angekündigt, dass sämtliche zukünftige Änderungen der Posttarife in den USA von der EPA genehmigt werden müssen. „Wir brauchen ein vollständiges Statement bzgl. der Auswirkung auf die Umwelt. Wir können einfach nicht globale Schäden zulassen, die wohl oder übel auf der Grundlage einiger willkürlicher Postausgaben beruhen. Kein anderer Service der Regierung muss ihr Budget ausgleichen, warum sollte also die US-Post das tun?“

Präsident Obama rief sofort eine Task Force bei der Federal Reserve Bank ins Leben, um 450 Milliarden Dollar als Kredit an die US-Post zu zahlen, um deren Tarife bis zum Jahr 3400 konstant zu halten.

Tuvalu hat darauf prompt verkündet, dass die Regierung die Posttarife ,Für den Fall der Fälle‘ um die Hälfte kürzen wolle. Sie fordern Spenden, um den Postbetrieb aufrecht zu erhalten, erwägen aber, diesbezüglich auf Brieftauben umzusteigen.

Der Zusammenhang ist völlig unklar. Prof. Chrichton-Boots von der Chicago Schools of Economics warnte, dass die US-Posttarife eine gute Proxy für Inflation sind, und dass es sehr gut auch die Inflation sein könnte, die wirklich hinter der jüngsten Änderung des Klimas steckt. Er räumte ein, dass es verwirrend ist, dass es offenbar globale Temperaturänderungen seit 3 bis 5 Milliarden Jahren gibt, bevor der US-Postservice eingeführt wurde oder es zur Inflation gekommen war. „Man würde eher glauben, dass das planetarische Klima stabil geblieben sei“. Aber Sozialforscher bei Harvard rufen nach Förderung archäologischer Grabungen, um Briefmarken aus dem Präkambrium zu finden. „Das ist eine Forschungslücke!“ Die US-Post ließ verlauten, dass ein solcher Fund sehr wichtig wäre, aber, falls irgendwelche Briefmarken gefunden würden, wäre es unmöglich, dies zu würdigen: „Weil zu jener Zeit die USA noch gar nicht existiert haben – weder als Regierung noch in der Theorie oder selbst als Landmasse“.

Ein Sprecher der US-Post wies darauf hin, dass die ,Forever’– Briefmarkenserie (welche 41 Cent kosten, aber ,immer gut sind, unabhängig von Preisanstiegen‘) anti-inflationär ist. Sie wurden im Jahre 2007 ausgegeben, was „das kältere Wetter seitdem“erklären könnte.*

Kritiker wiesen darauf hin, dass Korrelation nicht Kausalität ist und „dass man immer eine Verbindung zwischen irgendwelchen monoton steigenden Linien in einer Graphik erzeugen könne“. Das neu gegründete UN Intergovernmental Panel on Postal Changes nannte sie Leugner, während Jim Hansen von der NASA ankündigte, dass Beamte des Board of Governors of the U.S. Postal Service ins Gefängnis wandern sollten, sowohl von jetzt an als auch rückwirkend.

Die Russen (Pochta Rossii) verkündeten, dass man ab sofort das Briefporto von 10 Rubel auf 100 Rubel anheben werde, denn „in Sibirien ist es zu kalt“.

*(Ironisches Nebenbei: die Forever-Briefmarken könnten das erfolgreichste Investitionstool der US-Regierung der letzten Zeit sein, hat doch deren Wert seit 2007 um 14% zugenommen, während der Dow und alles andere 40% Verlust verbuchten. Damit wird bewiesen, dass die US Federal Reserve Bank die Energieparität der USA besser aufrecht erhalten könnte, wenn die Reservewährung der Welt von US-Dollar auf „Forever-Briefmarken“ umgestellt werden würde).

Link: http://joannenova.com.au/2009/05/shock-global-temperatures-driven-by-us-postal-charges/

Übersetzt von Chris Frey EIKE




Modellgläubigkeit ersetzt Wissenschaft

Grund für die Anhebung sei der mögliche höhere ökonomische Schaden durch die prognostizierte Klimaerwärmung.

Eine kürzlich von der US-Regierung durchgeführte Studie hatte auf der Basis von 3 ökonomischen Modellen(„Integrated Assessment Model“- IAM)  errechnet, dass der durch den zusätzlichen Ausstoß von CO2 in 2015 und den dadurch entstehenden Schaden in der Landwirtschaft wie im gesundheitlichen Bereich mit 37 US-Dollar abgedeckt werde.

An der Stanford School of Engineering wurden nun die 3 bekannten Modelle zur Berechnung des ökonomischen Nachteiles durch den erwarteten Klimawandel modifiziert.

Das neue Modell (Dynamic Integrated Climate-Economy (DICE) Model) schließt die kürzlich empirisch gefundenen Ergebnisse ein, wonach die Klimaerwärmung die ökonomische Entwicklung vor allem von ärmeren Länderen verlangsamen könnte, außerdem die IAMs die über einen längeren Zeitraum durch die CO2-Emissionen entstehenden Schäden nicht beschreiben könnten.

Kommentar:

Wissenschaftliche Prognostiker sind die Propheten unserer Zeit geworden. In Ermangelung des eigenen Sachverstandes verlassen sich Politiker auf die Expertisen von Wissenschaftlern, ohne dass es eine kontrollierende Instanz wie z. B. Universitäten für diese Expertisen gibt.

So bleibt es nicht aus- wie die Vergangenheit gezeigt hat-, dass unsachgemäße Gutachten nicht zuletzt mit einer Reihe von angsteinflößenden Aussagen entstehen, die eher dem Zeitgeist oder ihren Auftraggebern folgen als solider wissenschaftlicher Arbeit.

Hier sei an einige Beispiele erinnert:

•      Aussage Club of Rome 1972

•      Eiszeithysterie in den 70er Jahren

•      Waldsterben in den 80er Jahren

•      Klimaerwärmung durch CO2 seit den 80er Jahren

•      Wirtschaftswissenschaftliche Expertisen

Die Medien begleiten angsteinflößende Expertisen liebend gerne nach dem Motto: „Only bad news are good news“.

Die Aussagen solcher Expertisen fußen in der Regel auf komplizierten Modellen, deren Vorraussagen am Ende von der Wirklichkeit überholt werden.

Das gilt auch für die zahlreichen Klimamodelle, die den Einfluß von CO2 auf das Klima beschreiben. Denn es zeigt sich auch hier, dass die letzten 17 Jahre keine Temperaturzunahme trotz deutlich steigender CO2-Gehalte in der Atmosphäre aufweisen. Außerdem kann aus der Klimageschichte der Erde kein Einfluß von CO2 auf das Klima abgeleitet werden (im Übrigen lassen die thermodynamischen Gesetzmäßigkeiten einen Einfluß von CO2 auf das Klima nicht zu).

Modelle, in denen die Anzahl und Auswahl der Variablen und die genaue Quantifizierung der Parameter mit erheblichen Unsicherheiten behaftet sind, an einer komplexen Wirklichkeit zu messen, ist ein aussichtloses Unterfangen. So überrascht es nicht, dass die Klimamodelle die Vergangenheit nicht simulieren können, aber man glaubt, die Zukunft vorraussagen zu können- welch eine Absurdität.

Der Kybernetiker Norbert Wiener hat einmal gesagt:

„Das beste Modell einer Katze ist eine Katze“.

Wenn nun die Stanford School of Engineering glaubt, auf der Basis von nicht funktionierenden Klimamodellen eine ebenso wenig tragfähige ökonomische Modellierung zur Bewertung von CO2 aufsetzen zu müssen, so deutet das Vorgehen auf eine ausgeprägte romantische Modellgläubigkeit hin.

Wo bleiben die Instanzen, die eine Objektivität in dieses Treiben hineinbringen. Aus Deutschland werden sie wohl kaum kommen können, wäre es doch ein Aufstand gegen die „Political Correctness“. Wie sagte noch der Ex-Landesfinanzminister in Sachsen-Anhalt und heutiger Wirtschaftsprofessor in Magdeburg Karl-Heinz Paqué: „Wer sich öffentlich gegen die derzeitige Klimapolitik stellt, begeht politischen Selbstmord“.

Über den Autor:

Dr. Ing. Erhard Beppler (EIKE) studierte Eisenhüttenkunde an der TU Clausthal und promovierte auch dort. Jahrzehntelang war er in leitender Funktion bei der ThyssenKrupp AG im Bereich Forschung und Entwicklung für Prozesstechnik und Prozessabläufe sowie in nationalen und internationalen Gremien tätig. Er ist Autor des Sachbuches "Energiewende- Zweite industrielle Revolution oder Fiasko" das hier besprochen wurde.

weiterer Link zum Thema 




„Energiewende – teuer- uneffektiv- unsozial“ Aufkleber wieder verfügbar!

Unser Spendenkonto finden Sie hier. Oder über den Paypal Knopf rechts 




Hat die Digitalisierung der Mess-Stationen die Messmethode beeinflusst? Ist die Messmethodenänderung für die „menschengemachte Klimaerwärmung“ verantwortlich?

Er stellt fest: Die digitalisierte Methode in der neuen Wetterhütte brachte bei seiner Station über achteinhalb Jahre eine Erhöhung um 0,9K gegenüber der herkömmlichen Messung, siehe hier seine aktuellen Veröffentlichungen
http://www.augsburger-allgemeine.de/bayern/Meteorologe-findet-Diskussion-um-Klimaschutz-laecherlich-id32569342.html
und bei Hagers Seite: http://www.hager-meteo.de/aktuelle%20berichte.htm  und  http://www.hager-meteo.de/ 

Auch bei EIKE wurde am 13. Jan. ein Artikel darüber veröffentlicht.
http://www.eike-klima-energie.eu/news-cache/augsburger-meteorologe-findet-diskussion-um-klimaschutz-laecherlich/

In der Berliner Wetterkarte wurden die Ergebnisse ausführlich diskutiert: http://wkserv.met.fu-berlin.de/Beilagen/2013/Autom%20WSt_Hager.pdf

Damit stellt sich die Frage, ob dieses Ergebnis der 0,93K Erwärmung durch die Messmethodenänderung nur ein Einzelfall in Augsburg war oder ob das Ergebnis verallgemeinert werden kann. Hat die Umstellung der Messmethoden in den Jahren zwischen 1985 und 2000 generell zu einer gemessenen Klimaerwärmung geführt, die in der freien Natur so gar nicht stattgefunden hat?

Um diese Frage zu beantworten, unterteilen wir im Folgenden die DWD-Zeitreihen in drei Zeitabschnitte.

1) Temperaturmessung mit der alten Methode von 1900 bis 1985. 2) Die Zeit der Umstellung auf neue elektronische sowie automatische Temperaturmessungen von 1985 bis 2000 und 3) Die Zeit ab dem Jahre 2000 bis heute, alle 2000 Messstationen sind umgestellt.

Die folgenden Diagramme sind alle nach den Originaldaten des Deutschen Wetterdienstes in Offenbach erstellt. Aufgetragen sind immer die vom DWD aus vielen deutschen Stationen ermittelten Jahresdurchschnittswerte. Die Frage wäre also, können wir aus den Trends der DWD-Messungen irgendwelche Ungereimtheiten oder gar Parallelen zu den Angaben von Herrn Hager aus Augsburg erkennen?
Fakt ist, in Deutschland wurde um die Mitte der 80er Jahre mit der Digitalisierung und der Umstellung der alten Wetterhütten begonnen, sie dauerte etwa bis zur Jahrtausendwende.

Schauen wir uns als erstes die die deutschen Jahrestemperaturen von 1900 bis 1985 an, also die Zeit vor dem Digitalisierungsbeginn und der Messmethodenänderung.

Abb1.die Trendlinie ist nahezu ausgeglichen. Es gab somit in den ersten 85 Jahren des letzten Jahrhunderts, von 1900 bis 1985 fast keine Erwärmung.

Ergebnis 1: Von 1900 bis 1985 waren die Temperaturen in Deutschland sehr ausgeglichen, es gab zwar wärmere und kältere Jahre und Jahrzehnte. Doch genau diese Feststellung ist die Beschreibung für normales Temperaturverhalten. Auf 85 Jahre betrachtet, kaum Erwärmung trotz Industrialisierung und der damit verbundenen CO2- Zunahme. Die Trendlinie, zugleich fast der Mittelwert, liegt bei etwa 8,2C. Die Werte wurden alle mit der alten Messmethode und mit Glasthermometern ermittelt. Wir stellen aber auch fest: Der Anstieg des Treibhausgases Kohlendioxid zeigte 85 Jahre lang keinerlei Wirkung.

Wir sehen außerdem: Bei der Witterung ist nichts ist konstanter als der Wandel. Es gab wie 1934 sehr warme Jahre, aber schon kurz darauf mit 1940 das kälteste Jahr seit 1900. Über einen längeren Zeitraum gesehen, hat sich die Temperatur nicht verändert, obwohl der C02- Gehalt in diesen 85 Jahren selbstverständlich weiter gestiegen ist.

Betrachten wir nun den kurzen Zeitraum nach 1985 bis 2000, die Zeit der Umstellung der deutschen Wetterstationen auf automatisierte und elektronische Messverfahren. Wegen seiner geringen Dauer ist dieser freilich nur sehr eingeschränkt hinsichtlich des allgemeinen Temperaturtrends aussagefähig, trotzdem ist unstrittig, dass es in diesem Zeitraum in Mittel- und Westeuropa, beginnend mit dem Winter 1987/88, eine rasche Erwärmung („Klimasprung“) gab.

  • In diesem Zeitraum gegen Ende des letzten Jahrhunderts hat von 1985 bis 2000 die Hauptmasse der Digitalisierung der 2000 deutschen Messstationen stattgefunden. In der folgenden Abbildung wollen wir den Temperaturverlauf nur in diesen 15 Jahren vor der Jahrtausendwende näher erläutern. Das Ergebnis ist überraschend: Denn tatsächlich beginnt in Abb.2 die Trendlinie zu steigen. Laut der Trendlinie wird es in diesen 15 Jahren während der Umstellung der Stationen wärmer, genauso wie es Herr Hager in Augsburg aufgrund der Messmethodenumstellung als Ursache festgestellt hat. Ist es ein Zufall? Besteht ein Zusammenhang? Man könnte es meinen.


Abbildung 2: Die Jahrestemperaturen zeigen einen deutlichen Temperatursprung

Ergebnis 2: die Trendlinie der deutschen Werte steigt in diesen 15 Jahren der Digitalisierung und der Messmethodenänderung ebenfalls um gut 0,9 Grad wie in Augsburg. Ein Zufall?

Die Frage ist erlaubt. Wurde es in diesen 15 Jahren tatsächlich wärmer oder stimmt das Ergebnis mit Herrn Hagers Veröffentlichungen überein? Bestätigt es seine Aussagen? Die dritte Möglichkeit wäre natürlich nicht ein Entweder Oder, sondern beides könnte zutreffend sein. Dann wäre nur bei manchen Stationen schlampig gearbeitet worden und es hätte nur bei manchen Stationen keinen Abgleich gegeben, eine fehlerhafte Homogenisierung stattgefunden. Die Naturbeobachtungen aus dieser Zeit sprechen allerdings eindeutig für eine markante, reelle Erwärmung im betreffenden Zeitraum, denn nahezu alle phänologischen Phasen (Entwicklungsstadien der Pflanzen) haben sich besonders zwischen 1987 und 1990 enorm verfrüht. Ein weiterer, ernster Hinweis für einen tatsächlichen Temperaturanstieg ist die Anzahl der Schneedeckentage, welche in jenem Zeitraum deutlich abnahm (Datenquelle: PIK Potsdam):

Abb. 3: Ein ernster Hinweis auf einen reellen Temperaturanstieg in den letzten 15 Jahren des 20. Jahrhunderts ist beispielsweise die abnehmende Zahl der Tage mit einer Schneedecke von mindestens 1cm Höhe in diesem Zeitraum. Besonders die Winter 1987/88 bis 1989/90 waren extrem schneearm, weil ihre Niederschläge bei den hohen Temperaturen meist als Regen fielen. Nach dem Jahr 2000 wurden die Winter wieder schneereicher, und bei langzeitlicher Betrachtung (in Potsdam 1893 bis heute) ist fast kein Trend erkennbar.

Gegen eine Dominanz von Messfehlern beim Zustandekommen der Erwärmung des „Klimasprungs“ sprechen auch die vom DWD durchgeführten aktuellen Referenzmessungen. In der Arbeit Augter, Gisela (Hrsg.: Deutscher Wetterdienst): Vergleich der Referenzmessungen des Deutschen Wetterdienstes mit automatisch gewonnenen Messwerten. – 2., korr. Aufl. -Offenbach am Main: Selbstverlag des Deutschen Wetterdienstes, 2013.(Berichte des Deutschen Wetterdienstes ; 238), ISBN 978-3-88148-455-8, kommt der DWD zu folgendem Ergebnis: „Der Vergleich manuell gewonnener Referenzmesswerte mit den Werten, die automatisch ermittelt werden, hat ergeben, dass die Differenzen der Terminwerte in den meisten Fällen so gering sind, dass die Homogenität einer Messreihe beim Wechsel des Messverfahrens nicht gestört wird.“ Freilich räumt der DWD in dieser Veröffentlichung auch ein, dass es bei einzelnen Parallelmessungen Abweichungen (mittlere Differenzen) bis zu 0,35K gegeben hat, beispielsweise an der Station Lindenberg südöstlich von Berlin. Diese wenigen Einzelfälle beeinflussen freilich das Gesamtergebnis kaum.

Wir fragen aber auch ironisch, warum hat in diesen 15 Jahren der „C02-Treibhauseffekt“ plötzlich seine volle Wirkung entfalten dürfen, nachdem er zuvor 85 Jahre ohne jede Wirkung blieb? Wer hat dem „C02-Treibhauseffekt“ in diesen 15 Jahren den Turbo gezündet?
Und wie ging es nach 2000 weiter?

Nach 2000 waren alle Klimastationen des DWD digitalisiert, es kamen also keine mehr dazu, die quasi von heute auf morgen höhere Werte anzeigen konnten. Zunächst stellt man fest: Die Temperaturergebnisse sind auf dem erreichten höheren Niveau fortgeführt worden. Das zeigt die Abb. 4:

Abb. 4: Die Temperaturen nach 2000 steigen nicht weiter, sie fallen sogar ganz leicht. Die Trendlinie im neuen Jahrtausend liegt etwa um 1 Grad höher wie die Trendlinie von 1900 bis 1985, zwischen 9,4°C und 9,2°C.

Ergebnis 3: Nach dem Umstellungsende der etwa 2000 deutschen Stationen ist auch der Trendlinienanstieg beendet. Die Temperaturen sinken seit 2000 sogar wieder leicht. Und wo bleibt der „Treibhauseffekt“: Irgendjemand hat den „CO2-Treibhauseffekt“ wieder ausgeschaltet. Oder wirkt der ab dem Jahre 2000 abkühlend auf das Klima?

Wären die in Augsburg festgestellten 0,9 Grad Messfehlererwärmung auf ganz Deutschland übertragbar, dann würde der 2000er Jahres-Wert von 9,9 C nur 9 Grad betragen, also ähnlich wie die Jahrestemperaturen reihenweise vor 1985 schon waren.

Weiter ergäbe sich: Auch die 10,3°C von 2014 wären dann nur 9,4°C. Das Jahr 1934 wäre demnach mit 9,6°C das wärmste Jahr der Neuzeit gewesen. Mehrere Fragen seien an die Klimawissenschaft gestellt: Ist die weltweite, aber vor allem in Deutschland laut verkündete Klimaerwärmung tatsächlich menschengemacht? Hat diese menschengemachte Klimaerwärmung ausschließlich zwischen 1985 und dem Jahr 2000 stattgefunden? Brachte die Messmethodenänderung die Klimaerwärmung?

Die jetzigen, also nach dem Jahre 2000 mit der neuen Methode ermittelten Temperatur-Werte liegen alle um etwa ein Grad höher als vor 1985.

Aus den drei Diagrammen lässt sich aber nur ein Faktum gesichert ablesen. Das angebliche „Treibhausgas CO2“ ist nirgendwo beteiligt an diesem gemessenen Temperaturverhalten. Im ganzen Zeitraum sind CO2-Konzentrationen der Atmosphäre gestiegen, während die Jahrestemperaturen immer wieder Sprünge aufweisen.

Zusammenfassung: Von 1900 bis 2014 wurde es nach den Temperaturstatistiken des Deutschen Wetterdienstes um etwa 1 Grad wärmer. Erwärmungsgläubige sehen das als Beweis einer menschengemachten C02-Klimaerwärmung an.

Die Erwärmung erfolgte allerdings in drei Schüben

  1. Von 1900 bis 1985, also 85 Jahre lang fast gar keine Erwärmung

  2. Innerhalb von 15 Jahren von 1985 bis 2000 erfolgt die Erwärmung schlagartig von etwa einem Grad.

  3. Seit 2000, also seit 15 Jahren, stagniert die Erwärmung, die Trendlinie ist sogar leicht fallend.

Diese drei Schübe kommen besser zur Geltung, wenn man nur die drei Trendlinien der drei Zeitabschnitte aneinanderreiht.

Abb. 5: Die drei geglätteten Trendlinien der drei Zeitabschnitte von Abb. 1 bis Abb. 3 ergeben überhaupt keine homogene Erwärmung. Auffallend ist der starke Anstieg von 1985 bis zum Jahr 2000. In diesem recht kurzen Zeitraum fand fast die gesamte „Klimaerwärmung“ statt.

Zwischen Kohlendioxid und gemessener Temperaturerwärmung gibt es keinerlei Zusammenhang. Der Anstieg von knapp 0,03% auf jetzt 0,04% CO2 in den letzten 120 Jahren erfolgte leicht beschleunigt, während die Temperaturerhöhung nur sprunghaft zwischen 1985 bis 2000 stattfand.

Da alle vier Grafiken auf den Originaldaten des DWD in Offenbach basieren, ist ein Irrtum ausgeschlossen.

Während für die sprunghafte Erwärmung um 1990 mit hoher Wahrscheinlichkeit eine erhöhte Einstrahlung (Globalstrahlung) infolge der Luftreinhaltemaßnahmen und des Zusammenbruchs der Industrien der Mittel- und osteuropäischen Staaten sowie Zirkulationsänderungen in Betracht kommen (zeitweise mehr Westlagen im Winter, insgesamt mehr südliche Lagen im gesamten Jahr), wirkten langfristig außerdem auch folgende Ursachen erwärmend:

Änderungen der Landnutzung (Entwässerung, Intensivierung der Landwirtschaft) sowie ein zunehmender Bebauungs- und Versiegelungsgrad, einhergehend mit mehr Abwärme (Heizungen, Verkehr, Industrie); neuerdings auch Solar- und Windparks, die den kühlenden Wind bremsen und/oder die Albedo (das Rückstrahlungsvermögen) verringern. Es handelt sich um Wärmeinsel- Effekte im weitesten Sinne.

Zunehmende Sonnenaktivität im 20. Jahrhundert.

Stationsverlagerungen, geänderte Messtechnik und Beobachtungszeiten.

Ergebniszusammenfassung: Die in der Überschrift gestellte Frage, ob allein die Messmethode zu diesem Temperatursprung zwischen 1985 und 2000 geführt hat, beantworten wir mit Nein. Die Änderung der Messmethoden und die neuen Wetterhütten haben jedoch sicherlich einen Anteil an diesem Erwärmungssprung. Wie groß dieser Anteil ist, das können wir mit diesem Artikel und dem uns vorliegendem Datenmaterial nicht beantworten. Der Augsburger Stationsleiter schreibt selbst, die von ihm ermittelten 0,93K würden nur für Augsburg gelten und jede Station würde sich anders verhalten.

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Interview: Wie Monckton von Erwärmungs-Gläubigen zum Skeptiker wurde

Frage: Als Berater für Premierministerin Margaret Thatcher waren Sie eine treibende Kraft bei der Gründung des Hadley Centre for Forecasting durch sie, einem Klima-Forschungszentrum, das eines der einflussreichsten Klimamodelle hervorgebracht hat. Wann kamen Ihnen erstmals Zweifel an der Theorie der katastrophalen globalen Erwärmung, und wodurch wurde die Änderung Ihrer Ansichten ausgelöst?

Monckton: Ich war einer der ersten politischen Entscheidungsträger in UK, der die Bedenken der Wissenschaftler hinsichtlich des Einflusses von CO2-Emissionen auf die Temperatur zur Sprache gebracht hat. Im Jahre 1986 habe ich Margaret Thatchers Aufmerksamkeit auf das Problem gelenkt, genauso wie Sir Crispin Tickell. Kurz danach bei meinem Ausscheiden aus Downing Street No. 10 gab ich die wohl erste wissenschaftliche Erklärung des Treibhaus-Effektes im nationalen Fernsehen, und zwar in der Clive James Show.

Es war mein Nachfolger in der Downing Street George Guise, der 1988 die Rede schrieb, in der Margaret Thatcher vorhersagte, dass die globale Temperatur um 1°C alle zehn Jahre steigen würde, falls die CO2-Emissionen nicht deutlich reduziert werden. Ich hätte ihr von einer solchen Vorhersage abraten sollen. In jener Rede kündigte sie auch die Finanzierung dessen an, was später das Hadley Centre for Forecasting wurde.

Später allerdings erkannte Margaret, dass ihre Bedenken fehl am Platze waren. In ihrem Buch aus dem Jahr 2002 „Statecraft“ und daselbst auf einem Dutzend Seiten unter der Überschrift „Hot Air and Global Warming“ berichtet sie, wie sie darauf gekommen war, dass die Angstmache stark übertrieben war. Sie dachte, dass man wissenschaftliche Beweise sorgfältig beachtet, aber sie war immer skeptisch hinsichtlich des extremen Standpunktes des IPCC.

Im Jahre 1990 bekam sie Bedenken, als Antikapitalisten das Thema für rein politische Zwecke ausnutzten, und sie schrieb, dass die Klimaänderung „eine wunderbare Entschuldigung für weltweiten, supra-nationalen Sozialismus“ sei.

Meine eigene Meinung änderte sich im Jahre 2006, als ein Finanzinstitut in London mich aufforderte, mich mal mit der Klimafrage zu beschäftigen. Investoren, sagte der Direktor des Instituts, fragen sich, ob sie in „Erneuerbare“ investieren sollten.

Im Zuge dieser Untersuchung fand ich heraus, dass das Klimaproblem erheblich überbewertet worden ist. Ich berichtete, dass Regierungen wahrscheinlich Möglichkeiten der Besteuerung und von neuen Vorschriften finden würden, was für sie eine große Versuchung war und ist, und die Wissenschaft ignorieren würden. Der Direktor rief mich an und fragte, warum er meinem Bericht irgendwelche Aufmerksamkeit schenken sollte. Er hatte ein Dutzend Experten konsultiert, und ich war der Einzige, der ihm gesagt hätte, dass es keine Klimakrise gebe. Ich verwies auf meinen 40 Seiten starken Bericht. „Genau!“, sagte er, „daher folgen wir Ihnen und nicht den anderen 11. Sie haben Beweise geliefert, und zwar viele. Die anderen aber keinen einzigen“.

Eine Zusammenfassung meines Berichtes wurde 2006 im Sunday Telegraph veröffentlicht. Nachdem es zwei Stunden lang online zu lesen stand, brach die Website des Telegraph zusammen, als 127.000 Menschen weltweit versuchten, den Artikel anzuklicken.

Frage: Als einer der ausdauerndsten Kritiker der AGW-Theorie, welches Argument oder welche Umstände sind für sie der klarste Punkt zur Unterminierung von AGW?

Monckton: In der Wissenschaft ist es so: wenn eine Theorie nicht zu den Experimenten passt, ist sie falsch. Wir haben dieses Experiment nunmehr 25 Jahre lang durchgeführt, seit das IPCC seine ersten Prognosen im Jahre 1990 gemacht hat. Die Rate der globalen Erwärmung war seitdem nur halb so groß wie vom IPCC vorhergesagt. Dessen Vorhersagen passen nicht zu den Messungen.

Die Vorhersagen waren falsch, weil die Modellierer die falsche Gleichung benutzten, um imaginäre Verstärkungen der Temperatur-Rückkopplungen zu modellieren, von denen angenommen wurde, dass sie die geringe direkte Erwärmung durch unsere CO2-Emissionen verdreifachen würden. Man nehme die wissenschaftlich unhaltbare Verdreifachung weg, und nur eine geringe, harmlose und vorteilhafte Erwärmung wäre die Folge.

Selbst wenn die Vorhersagen korrekt gewesen wären, wäre es 10 bis 100 mal billiger, die globale Erwärmung geschehen zu lassen und sich an deren Konsequenzen anzupassen anstatt die Erwärmung zu vermeiden. Falls die ganze Welt einer Abschwächungspolitik gefolgt wäre, die so teuer ist wie in UK die Subventionen für Elektroautos, würden 75% des globalen BIP mit dem Anhalten der globalen Erwärmung verbraucht.

Frage: Wie ist Ihr Skeptizismus von der UK-Regierung aufgenommen worden, und wie beurteilen Sie den Erfolgt Ihrer Bemühungen zu hause und international?

Während der letzten acht Jahre war ich bemerkenswert selten in UK. Unsere instinktiv totalitäre Regierungsklasse hat den Haken des Unsinns der globalen Erwärmung geschluckt, samt Angelschnur und Pose. Die Kosten für Steuerzahler und der Preis bzgl. unserer Landschaft waren immens.

International jedoch war ich federführend bei der Überredung der Republikaner in den USA, gegen die betrügerische Wissenschaft hinter der globalen Erwärmung vorzugehen. Ich habe dem australischen Premierminister den Rücken gestärkt, die CO2-Steuer abzuschaffen, und ich habe den kanadischen Premierminister davon überzeugt, dass jeder Penny, der für die Beseitigung der nicht existenten globalen Erwärmung ausgegeben wird, ein verschwendeter Penny wäre.

Ich habe auch als Blitzableiter agiert, als ich hasserfüllte Attacken von Klimaextremisten von skeptischen Wissenschaftlern ferngehalten habe. Damit hatten sie den Rücken frei, um alternative Theorien bzgl. unseres Einflusses auf das Klima zu entwickeln. Für die Wissenschaft ist das besser.

Frage: Während Ihrer Jahre der Debatte um die globale Erwärmung und der Konfrontation mit dogmatischen Gläubigen an AGW, was war für Sie am enttäuschendsten?

Monckton: Die Politisierung der Wissenschaft seitens der Temperatur-Diktatoren; der beängstigend große Lärm des dreisten Unsinns durch einen Großteil von Akademikern und der Politik; der zombiehafte Eifer, mit dem jene, die von Klimawissenschaft keine Ahnung haben, behaupten, dass die Wissenschaft ,settled‘ ist; der Widerstand der Klimaextremisten, mit jemandem zu diskutieren, der sich in der Klimawissenschaft auskennt und die immer häufiger erhobenen Forderungen der Klimaextremisten, dass jene von uns, die skeptisch sind, wegen ,Verbrechen gegen die Menschlichkeit‘ angeklagt und verurteilt werden sollten.

Lord Christopher Monckton

Christopher Monckton, Third Viscount Monckton of Brenchley, is chief policy advisor to the Science… (read full bio)

Link: http://news.heartland.org/newspaper-article/2015/01/16/interview-moncktons-journey-warming-believer-influential-skeptic

Übersetzt von Chris Frey EIKE




Deja Vu auf dem World Economic Forum – Katastrophen Al (Gore) darf wieder Katastrophen predigen und die Erlösung gleich mitliefern.

Derzeit verbringen die Führer der Welt, oder die sich dafür halten, ihre Zeit beim World  Economic Forum, der pfiffigen PR Veranstaltung des  „Who is Who“ der Welt, organisiert vom genialen PR-Vermarkter und Wirtschaftsprofessor Klaus Schwab. Nicht nur der in Deutschland schmählich gescheiterte ehemalige FDP Chef und Wirtschaftsminister Rösler darf dort „liefern“, sondern auch der ebenso politisch gescheiterte ehemalige Vizepräsident der Vereinigten Staaten  Al Gore.

Video des Vortrags von Al Gore auf dem World Economic Forum 2015, mit Dank an Spürnase R. Hoffmann

Und der haut bei seinem Vortrag vor illustrem Publikum in bekannter Manier -und in Breitwand- immer wieder auf dieselbe Pauke. Dabei geht ihm nicht um die Wahrheit, es geht ihm allein ums Geschäft. Doch das verkauft er geschickt als Erlösung vom Übel. Jede Katastrophe weltweit, ist ihm gerade gut genug, um seine Mär von der vom anthropogenen CO2 induzierten Erwärmung zu unterstützen. Kein Wort vom nunmehr bereits 18 jährigen Stillstand der globalen Mitteltemperatur. Trotz steig steigender CO2 Konzentration. Kein Wort von der deutlichen Abnahme schwerer Stürme in den letzten Jahrzehnten.

Im Gegenteil alles wird furchtbar wärmer und immer schlimmer. Sämtliche Wetterextreme der letzten Jahre werden von ihm systematisch zu Klimaänderungen umdefiniert, garniert mit schrecklichen Bildern ertrinkender Menschen.

Die Luftverschmutzung in Beijing ist für ihn Folge des Klimawandels, alle Überschwemmungen sind Folgen des Klimawandels, Waldbrände sind Folgen des Klimawandels, kurz alle Katastrophen, alles Schlechte auf dieser Welt ist Folge des Klimawandels. Des menschgemachten versteht sich. Selbst die zigfach als grobe Fälschung (1) entlarvte Mannsche Hockeyschägerkurve zerrt er vom Müllhaufen der Geschichte um seine Behauptungen zu unterstützen.

Und er macht es gut. Denn das Publikum der Weltführer hängt offensichtlich gebannt an seinen Lippen.

Doch Gore wäre nicht Gore, gelernter Polit-Prediger der er ist, wenn er nicht nach all den gezeigten Katastrophen auch den Weg zur Erlösung aufzeigen würde:

Es ist die „grüne Wirtschaft“ angetrieben von „grüner Energie“ . Überall auf dieser Welt – so Gore in seinem Vortrag- siegen die „Erneuerbaren! – zumindest will er es uns so  glauben machen. Und zwar deswegen weil sie so gut sind und die Erlösung bringen.

Leider bestätigt sich auch hier wieder die zeitlose Wahrheit die der große Denker Ale­xis de To­qu­e­ville so formulierte:

„Das Pub­li­kum wird eher die ein­fa­che Lüge, als die kom­pli­zier­te Wahr­heit glau­ben“,

Und das gilt für die Führer dieser Welt ebenso wie für die Medienvertreter die uns all das täglich vermitteln.

Über sie sagte John Swinton damals  He­raus­ge­ber New York Ti­mes in sei­ner Ab­schieds­re­de 1880. Jhh. Details hier

„So et­was wie eine freie Pres­se gibt es nicht. Sie wis­sen es, und ich weiß es“, Und fuhr fort: „Nicht ei­ner un­ter Ih­nen wür­de sich trau­en, sei­ne ehr­li­che Mei­nung zu sa­gen. Die ei­gent­li­che Auf­ga­be des Jour­na­lis­ten bes­teht da­rin, die Wahr­heit zu zer­stö­ren, faust­di­cke Lü­gen zu er­zäh­len, die Din­ge zu ver­dre­hen und sich selbst, sein Land und sei­ne Ras­se für sein täg­li­ches Brot zu ver­kau­fen. Wir sind Werk­zeu­ge und Ma­ri­o­net­ten der Rei­chen, die hin­ter den Ku­lis­sen die Fä­den in der Hand hal­ten. Sie spie­len die Me­lo­die, nach der wir tan­zen. Un­se­re Ta­len­te, un­se­re Mög­lich­kei­ten und un­ser Le­ben be­fin­den sich in den Hän­den die­ser Leu­te. – Wir sind nichts wei­ter als in­tel­lek­tu­el­le Prosti­tu­ier­te.“

Hat sich bis heute irgendetwas daran geändert? Eher nicht, schauen Sie mal hier rein!

(1) Übernommen von Die kalte Sonne: Apropos “The Hockey Stick Illusion”.

Ein wichtiges Element der Hockeyschläger-Affäre waren Baumringe, die in kreativer Weise in fragwürdige Klimasignale umgesetzt wurden. Ein Forscherteam um Matthew Salzer von der University of Arizona hat nun eine weitere Bestätigung gefunden, dass die damals verwendeten Baumringdaten krass von der Temperaturentwicklung abwichen. Alles schön nachzulesen in WUWT,Climate Audit und JoNova basierend auf Salzer et al.. Hier die Kurzfassung der Arbeit aus den Enviromental Research Letters, die dort im November 2014 erschien:

Changing climate response in near-treeline bristlecone pine with elevation and aspect
In the White Mountains of California, eight bristlecone pine (Pinus longaeva) tree-ring width chronologies were developed from trees at upper treeline and just below upper treeline along North- and South-facing elevational transects from treeline to ~90 m below. There is evidence for a climate-response threshold between approximately 60–80 vertical m below treeline, above which trees have shown a positive growth-response to temperature and below which they do not. Chronologies from 80 m or more below treeline show a change in climate response and do not correlate strongly with temperature-sensitive chronologies developed from trees growing at upper treeline. Rather, they more closely resemble lower elevationprecipitation-sensitive chronologies. At the highest sites, trees on South-facing slopes grow faster than trees on North-facing slopes. High growth rates in the treeline South-facing trees have declined since the mid-1990s. This suggests the possibility that the climate-response of the highest South-facing trees may have changed and that temperature may no longer be the main limiting factor for growth on the South aspect. These results indicate that increasing warmth may lead to a divergence between tree growth and temperature at previously temperature-limited sites.

 




Über die Verzerrungen durch Auslassungen im NOAA-Bericht zum Klimastatus 2014

Die globalen Höhepunkte 2014 des NOAA-SOTC-Berichtes

Hinsichtlich der Temperaturen an der Erdoberfläche heißt es bzgl. der globalen Höhepunkte im NOAA-Klimastatusbericht (Fettdruck von mir):

Globale Höhepunkte:

Das Jahr 2014 war das wärmste Jahr bzgl. der globalen Temperatur über Land und Wasser seit Beginn von Aufzeichnungen im Jahre 1880. Die jährlich gemittelte Temperatur lag um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C. Dies markiert auch das 38. Jahr in Folge (seit 1977), dass die globale mittlere Temperatur über dem Mittelwert lag. Einschließlich 2014 liegen 9 der 10 wärmsten Jahre in der 135 Jahre langen Periode im 21.Jahrhundert. 1998 rangiert gegenwärtig an vierter Stelle der wärmsten Jahre jemals.

● Die globale mittlere Wassertemperatur der Ozeane erreichte ebenfalls einen rekordhohen Wert, der 0,57°C über dem Mittel des 20.Jahrhunderts von 16,1°C lag. Damit wurde der bisherige Rekord der Jahre 1998 und 2003 um 0,05°C gebrochen. Bemerkenswerterweise waren im gesamten Jahr 2014 ENSO-neutrale Bedingungen vorherrschend.

● Die globale mittlere Temperatur auf dem Festland lag um 1,00°C über dem Mittel des 20. Jahrhunderts von 8,5°C und erreichte damit den vierthöchsten jährlichen Wert jemals.

Natürlich waren diese globalen Höhepunkte das, was in den Mainstream-Medien und den Alarmisten-Blogs nachgeplappert wurde. Eine mögen sogar über globale Temperaturen und solche in regionalen Gebieten berichten. Nur wenige werden es wagen darüber hinauszugehen.

Verzerrung von Auslassung 1

Erst wenn die Leser bis zu der Tabelle im SOTC-Bericht herunterscrollen, nennt die NOAA Unsicherheiten. Siehe meine Abbildung 1. Der NOAA zufolge „lag die jährlich gemittelte Temperatur um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C“. Aber dann beschreibt die NOAA ihre globalen Temperaturanomalien mit „+0.69 ± 0.09°C“. Oh weh, wir entdecken, dass der neue Rekordwert von 0,04°C innerhalb der Unsicherheit von ± 0.09°C des Datensatzes liegt.

Abbildung 1

Noch weiter unten auf der Website stoßen wir auf die Links zu ergänzenden Informationen der NOAA:

Probabilities related to 2014’s historical ranking

Year-to-date temperature evolution

Global temperature trend maps

Various time series of annual temperature data

Der erste Link führt zur Website Calculating the Probability of Rankings for 2014. Dort schreiben sie nach einer initialen Diskussion (Fettdruck von mir):

Mittels eines Monte Carlo-Verfahrens (Arguez et al, 2013) betrachtete NCDC die bekannte Unsicherheit der globalen Festlands- und Ozeantemperatur bzgl. des Ranges der Temperatur 2014. Bezieht man die Unsicherheit ein und betrachtet man alle Jahre (1880 bis 2014) in der Zeitreihe als unabhängig, beträgt die Chance, dass das Jahr

das Wärmste jemals ist: 48%

eines der fünf wärmsten Jahre ist: 90,4%

eines der zehn wärmsten Jahre ist: 99,2%

eines der 20 wärmsten Jahre ist: 100,0%

wärmer als das Mittel des 20.Jahrhunderts ist: 100,0%

wärmer als das Mittel der Jahre 1981 bis 2010 ist: 100%.

NCDC folgt diesen Konventionen, um das Vertrauen in Verbindung mit den vorgenommenen Vermutungen zu kategorisieren im Hinblick auf die im Bericht genannte Rangfolge.

Meine Abbildung 2 zeigt die Tabelle der „Konventionen zur Kategorisierung“, die der Diskussion folgt, mit meinem Höhepunkt:

Abbildung 2

Das heißt, der NOAA zufolge liegt die Chance, dass 2014 das wärmste Jahr jemals war, bei 48,0%. Außerdem scheinen ihrer Tabelle zufolge die globalen Temperaturanomalien 2014 im Bereich „eher unwahrscheinlich als wahrscheinlich“ zu liegen.

Komischerweise hat die NOAA die wichtigste Aussage „eher unwahrscheinlich als wahrscheinlich“ auf der Startseite des Klimastatusberichtes weggelassen. Man muss auf die Links unter Supplemental Information klicken, um herauszufinden, dass 2014 „mehr unwahrscheinlich als wahrscheinlich“ das wärmste Jahr jemals war.

Daher hat die NOAA die „Globalen Höhepunkte“ ihres Klimastatusberichtes verzerrt dargestellt, weil man ,vergessen‘ hat, die Wahrscheinlichkeit oder eher die Unwahrscheinlichkeit der höchsten globalen Temperaturen jemals im Jahre 2014 anzumerken.

Verzerrung durch Auslassung 2

Das nächste Thema ist das El Niño-Ereignis im Jahr 2014.

Unter der Überschrift Globale Temperaturen auf der Startseite des SOTC-Berichtes der NOAA stellt man fest:

Dies ist das erste Mal seit 1990, dass der Wärme-Temperaturrekord gebrochen worden ist bei Abwesenheit von El Niño-Bedingungen zu irgendeiner des Jahres im zentralen und östlichen tropischen Pazifik, wie sie durch den CPC Oceanic Niño Index der NOAA definiert werden. Dieses Phänomen tendiert allgemein dazu, die Temperaturen weltweit zunehmen zu lassen. Doch blieben die Bedingungen während des ganzen Jahres diesmal neutral, und der global erreichte Wärmerekord wurde trotzdem erreicht.

Der ozeanische NINO-Index der NOAA basiert auf der NINO3.4-Region (5°S-5°N, 170°W-120°W) des äquatorialen Pazifiks. Siehe die Karte der NOAA mit den NINO-Regionen hier. Und einem Hovmoller-Diagramm der Wassertemperatur-Anomalien von der NOAA GODAS website zufolge bestanden El Niño-Bedingungen (Wassertemperatur-Anomalien gleich oder größer als +0,5°C) im äquatorialen Pazifik östlich und westlich der NINO3.4-Region fast das gesamte Jahr 2014 über.

Abbildung 3

Mit anderen Worten, die Daten der Wassertemperatur zeigen, dass während der meisten Monate im Jahr 2014 sehr wohl El Niño-Bedingungen vorlagen, aber eben nicht in der Region, die die NOAA als Definition eines El Niño festgelegt hatte. Unabhängig davon hat die Japan Meteorological Agency JMA angemerkt, dass seit Juni El Niño-Bedingungen herrschten (hier). Dies haben wir bereits im Rahmen der jüngsten ENSO-Aktualisierung diskutiert (hier) sowie in dem Beitrag mit dem Titel [übersetzt] „Der kleine El Niño, den es gegeben oder nicht gegeben haben könnte (abhängig von Agentur und Index)“ (hier).

Im Dezember 2014 lag die NINO.3-Wassertemperatur (SST) über dem Normalwert mit einer Abweichung von +0,9°C und über einem über fünf Monate gleitend geglätteten Mittelwert der mittleren NINO.3-SST-Abweichung von +0,5°C, und zwar fünf aufeinanderfolgende Monate lang, nämlich von Juni bis November (Tabelle und Abbildung 1). Die Wassertemperatur lag in den meisten Gebieten vom westlichen zum östlichen äquatorialen Pazifik über dem Normalwert (Abbildungen 2 und 4). Die Wassertemperatur unter der Oberfläche lag über dem Normalwert im östlichen äquatorialen Pazifik (Abbildungen 3 und 5).Diese ozeanischen Bedingungen zeigen, dass im äquatorialen Pazifik sehr wohl El Niño-Bedingungen vorlagen…

Und der Grund für diese Behauptungen der JMA ist, dass man dort die NINO3-Region betrachtet (5°S-5°N, 150°W-90°W), welche sich bis östlich des NINO3.4-Gebietes erstreckt und dieses überlappt.

Also hat die NOAA die Tatsache verschwiegen, dass den Daten zufolge El Niño-Bedingungen im äquatorialen Pazifik präsent waren, außerhalb des für einen ENSO-Index betrachteten Gebietes. Damit konnten sie dann behaupten, dass „die Bedingungen während des ganzen Jahres diesmal neutral waren und der global erreichte Wärmerekord trotzdem erreicht wurde“.

Natürlich war es die Absicht des NOAA-Statements, den Eindruck zu vermitteln, dass es alles in allem eine generelle Erwärmung gegeben hatte, die nicht El Niño-Bedingungen zugeordnet werden kann, obwohl in Wirklichkeit tatsächlich El Niño-Bedingungen im Jahre 2014 vorlagen.

Verzerrung durch Auslassen 3

Jetzt folgt eine Diskussion des zusätzlichen Grundes für erhöhte Wassertemperaturen.

Die NOAA schreibt unter ihren „Globalen Höhepunkten“ (Fettdruck von mir):

Ein großer Anteil der Rekordwärme auf dem Globus kann der Rekordwärme in den globalen Ozeanen zugeordnet werden. Die jährlich gemittelte Temperatur für die Wasseroberfläche der Ozeane der Welt lag um 0,57°C über dem Mittelwert des 20. Jahrhunderts, was lässig die bisherigen Rekorde der Jahre 1998 und 2003 brach, die um 0,05°C über diesem Wert lagen. Die ersten vier Monate (Januar bis April) lagen jeweils unter deren sieben wärmsten Monaten hinsichtlich des jeweiligen Vergleichsmonats, und die folgenden sieben aufeinanderfolgenden Monate (Mai bis November) zeigten Rekordwärme. Das Jahr endete mit dem Dezember als dem drittwärmsten Dezembermonat jemals.

Im Jahre 2014 hatte die Wärme ihre Ursache in großen Gebieten mit viel höheren Wassertemperaturen als normal in Teilen eines jeden größeren Ozeanbeckens. Rekordwärme wurde besonders im nordöstlichen Pazifik und um den Golf von Alaska verzeichnet sowie in weiten Gebieten des westlichen äquatorialen Pazifiks, Teilen des jeweils westlichen Nord- und Südatlantiks und in den meisten Gebieten der Norwegischen und der Barents-See. Fast der gesamte Indische Ozean war viel wärmer als im Mittel mit einem breiten Band zwischen Madagaskar und Australien. Teile des Atlantiks südlich von Grönland und die Gewässer südlich von Kap Hoorn waren viel kälter als im Mittel mit einem nahe der Antarktis lokalisierten Gebiet mit Rekordkälte.

Im Vorbeigehen erwähnte die NOAA die erhöhten Wassertemperaturen im östlichen außertropischen Nordpazifik. Ein ungewöhnliches Wetterereignis dort (zusammen mit El Niño-Bedingungen) war in Wirklichkeit die primäre Tatsache für die erhöhte Wassertemperatur des Jahres 2014. Das heißt nicht, dass erhöhte Wassertemperaturen auch in bestimmten Gebieten anderer Ozeanbecken aufgetreten waren, aber allgemein hatten jene erhöhten Temperaturen in Becken außerhalb des Nordpazifiks keinen Einfluss auf die Rekordwerte. Folge davon: Falls wir die Anomalien der Wassertemperatur seit 1997 für die Ozeane außerhalb des Nordpazifiks plotten, erscheint 2014 nicht als ein außerordentlich warmes Jahr … nirgendwo in der Nähe rekordhoher Werte … es rangiert in etwa dort, wo man es als Reaktion auf einen schwachen El Niño erwarten würde. Siehe obere Graphik in Abbildung 4. Die untere Graphik steht für die globalen Ozeane einschließlich des Nordpazifiks. Offensichtlich waren die Vorgänge im Nordpazifik der Hauptgrund für die global erhöhten Werte der Wassertemperatur.

Abbildung 4

Es gab zwei „Wetter“-Ereignisse, die die Temperaturen im Nordpazifik 2014 beeinflusst haben: 1) die El Niño-Bedingungen im tropischen Pazifik, welche direkt die Temperaturen im tropischen Nordpazifik beeinflussen und 2) das ungewöhnliche Warmwetter-Ereignis im östlichen außertropischen Pazifik, welches so gut bekannt ist, dass Klimawissenschaftler dafür den dadurch erzeugten Hotspot „die Blase“ nennen. Wegen dieser beiden Wetterereignisse im Pazifik, und nicht wegen der vom Menschen verursachten globalen Erwärmung, waren die Wassertemperaturen im Jahre 2014 global erhöht. Weil die Temperaturen über dem Festland keine Rekordwerte erreichten, ist es wiederum logisch zu sagen, dass jene beiden Wetterereignisse verantwortlich waren für die rekordhohen Temperaturen (Festland und Ozeane kombiniert), die 2014 „eher unwahrscheinlich als wahrscheinlich“ bestanden haben.

Wir haben in zahlreichen Beiträgen die Gründe für die erhöhten Wassertemperaturen im östlichen extratropischen Pazifik erörtert, und zwar unter Anderem hier:

On The Recent Record-High Global Sea Surface Temperatures – The Wheres and Whys

Axel Timmermann and Kevin Trenberth Highlight the Importance of Natural Variability in Global Warming…

Alarmists Bizarrely Claim “Just what AGW predicts” about the Record High Global Sea Surface Temperatures in 2014

Researchers Find Northeast Pacific Surface Warming (1900-2012) Caused By Changes in Atmospheric Circulation, NOT Manmade Forcings

Did ENSO and the “Monster” Kelvin Wave Contribute to the Record High Global Sea Surface Temperatures in 2014?

Wie wir im zweiten verlinkten Beitrag oben geschrieben haben, dauerte das ungewöhnliche Wetterereignis im östlichen außertropischen Nordpazifik zwei Jahre lang. Es trug auch zu der Dürre in Kalifornien bei. Und das Folgende haben wir im ersten oben verlinkten Beitrag gezeigt:

Falls wir unsere Analyse im Jahr 2012 beginnen lassen und uns dann in der Zeit zurückbewegen – wie lange zeigten die Wassertemperaturen im Nordpazifik keine Erwärmung? Die Antwort lautet unter Verwendung der ERSST.v3b-Daten der NOAA 23 Jahre. Und doch sollte sich das Wasser den IPCC-Klimamodellen zufolge während dieser Zeit um 0,5°C erwärmt haben.

Abbildung 5

Anmerkung: Falls man auf den Link des ersten Beitrags klickt, wird man bemerken, dass man diesen Zeitraum bei Verwendung des durch Satelliten gestützten Datensatzes der Wassertemperatur auf 24 Jahre ausweiten kann. Ende der Anmerkung.

Es ist unrealistisch anzunehmen, dass die Erwärmung der Oberflächen im Nordpazifik der Jahre 2013 und 2014 den menschlichen Treibhausgasen geschuldet ist, wenn doch in den mindestens 23 Jahren zuvor keinerlei Erwärmung aufgetreten war.

Abschließende Bemerkungen

Den NOAA-Definitionen zufolge waren die globalen Temperaturen 2014 „eher unwahrscheinlich als wahrscheinlich“ die höchsten jemals, aber man hat seitens der NOAA diese Tatsachen auf der Hauptseite ihres Klimastatusberichtes verschwiegen. Die NOAA benutzte einen speziellen ENSO-Index für die Behauptung, dass 2014 keine El Niño-Bedingungen vorlagen, obwohl mindestens ein anderer Index das Gegenteil zeigte. Und die NOAA hat es versäumt, die tatsächlichen Gründe der erhöhten Wassertemperaturen des Jahres 2014 anzusprechen, während sie es so hat aussehen lassen, als ob sich die globalen Ozeane generell erwärmt hätten.

Die NOAA hat an keiner Stelle spezifisch festgestellt, dass die rekordhohen Temperaturen 2014 eine Folge der vom Menschen verursachten globalen Erwärmung waren, aber sie haben es impliziert … darum all dieses große Tamtam. Die NOAA hat grundlegende Diskussionen innerhalb jenes Berichtes verschwiegen, so dass er hin zu einer anthropgenen globalen Erwärmung verzerrt worden ist. Mit anderen Worten, der NOAA-Klimazustandsbericht war irreführend. Die NOAA hat wieder einmal gezeigt, dass es ein politisches Gebilde ist und nicht ein wissenschaftliches. Und das ist eine verdammte Schande. Die Öffentlichkeit braucht Offenheit von der NOAA bzgl. des Klimas; wir dürfen nicht durch politisch motivierte Fehlinformationen in die Irre geführt werden.

Link: http://wattsupwiththat.com/2015/01/17/on-the-biases-caused-by-omissions-in-the-2014-noaa-state-of-the-climate-report/

Übersetzt von Chris Frey EIKE




Wir sind alle Carbonivores

Die NASA bietet gute Information zur Korrelation zwischen Kohlendioxid-Konzentration der Troposphäre und den jahreszeitlichen Schwankungen der Biosphäre. CO2 und seine Rolle für das Leben auf der Erde. Die folgende Visualisierung basiert auf Daten des MODIS Instrument über vier Jahre Kohlendioxid-Messungen des Atmospheric Infrared Sounder (AIRS) im Aquasatelliten der NASA, zeigt, wie Kohlendioxid-Konzentrationen schwanken aufgrund der Vegetation an Land. Die blinkenden weißen Quadrate stellen den Kohlendioxidgehalt in der Atmosphäre dar. Beachten Sie den starken Rückgang der Quadrate wenn die Vegetation während des Sommers auf der Nordhalbkugel gedeiht. Umgekehrt führen im Winter die Verluste an vorhandener Vegetation zu steigenden Kohlendioxid-Werten auf der ganzen Welt.

Bild 1 Pflanzen (rechts, zum Vergrößern anklicken) verbrauchen Kohlendioxid und verändern die Chemie der Atmosphäre

Bild 2, Die Animation im Video (Bitte in der Originalseite anklicken) zeigt die globale durchschnittliche Kohlendioxidkonzentration von September 2002 bis September 2006, sie erhöhte sich von 374 auf 383 ppm (Anteile  pro Million – dieses sind 0,0383 Prozent)

Bild 3 Grün sind die Zonen mit viel Pflanzenwuchs. Im Sommer erreichen die Kohlendioxid-Konzentrationen über Nordamerika, Europa und Asien ein Minimum. Nur wenige weiße Quadrate zeigen dies an.

Bild 4 Höhere Konzentrationen von Kohlendioxid auf der Nordhalbkugel wenn der Winter zurück ist

Bild 5 Der weltweite Kohlendioxidspiegel steigt allgemein, durch das Pflanzenwachstum verursachte jährliche Einbrüche sind in der nördlichen Hemisphäre deutlich sichtbar.

Bild 6 amerikanische Wälder absorbieren 750 Millionen Tonnen Kohlendioxid pro Jahr, etwa 10 Prozent der Kohlendioxid-Emissionen des Landes.

http://svs.gsfc.nasa.gov/cgi-bin/details.cgi?aid=10903

Übersetzt durch Andreas Demmig

Ergänzend dazu: 

Woraus besteht Leben?

Spektralanalysen haben gezeigt, dass alle bisher gefundenen Sterne ebenso wie unsere Sonne und die Planeten aus den gleichen 92 Elementen bestehen, die uns bekannt sind, wenn auch in unterschiedlicher Konzentration. Alles materielle Sein muss daher eine, wie auch immer geartete Kombination der 92 Elemente sein. Komplexes, sich selbst reproduzierendes und organisierendes Leben, ausgestattet für den täglichen Überlebenskampf mit der Fähigkeit der Selbstheilung, verlangt darüber hinaus komplexe chemische Strukturen. Diese Strukturen müssen die notwendigen Lebensinformationen speichern können und im Sinne der Reproduktion in neue selbstständige biologische Materie umsetzen.
 Angeregt durch das Stöbern auf den Webseiten der NASA, habe ich obige und nachfolgende Zeilen dem Buch „Außerirdische und Astronauten: Zivilisationen im All“, von Dr. Ulrich Walter entnommen.

Nachdem die chemischen Eigenschaften der 92 Elemente seit längerem ausreichend bekannt sind, weiß man, dass praktisch nur das Element Kohlenstoff die dazu notwendigen Voraussetzungen mit sich bringt. Kohlenstoff ist zusammen mit Wasserstoff und Sauerstoff eines der drei häufigsten Element auf festen Planeten. Nur Elemente in der ersten Reihe der Periodischen Tabelle, wozu auch Kohlenstoff gehört, bilden neben den üblichen Einfachbindungen auch Mehrfachbindungen mit anderen Elementen aus. So bildet Kohlenstoff zusammen mit Sauerstoff das Molekül Kohlendioxid O=C=O oder Kohlenmonoxid, C=O, die wegen ihrer geringen Affinität zu weiteren Molekülen beides Gase sind. CO2 ist in der organisch geprägten Biologie für Lebewesen aber die grundlegende Quelle von Kohlenstoff. Außerdem besitzt es wie CO die besondere Eigenschaft, sich gleichermaßen konzentriert und leicht in Wasser und Luft aufzulösen und darüber hinaus dort reichhaltige chemische Folgereaktionen auslösen zu können. Das ermöglich CO2 einen ungehemmten Übergang zwischen diesen beiden Subtanzen und somit zwischen notwendigerweise wässrigen Organismen und ihrer Umgebung. Aus diesen beiden Gründen ist CO2 der ultimative Austauschstoff zwischen CO2-erzeugenden tierischen Zellen und den CO2 aufnehmenden Pflanzen. Die tierischen Zellen können das beim Stoffwechsel anfallende CO2 leicht in den wässrigen Blutkreislauf überführen, und die Lungenbläschen können dieses blutgebundene CO2 ohne Probleme in die gasförmige Atmosphäre in der Lunge übertragen, von wo es ausgeatmet werden kann. Umgekehrt kann CO2 ungehemmt aus der Luft in die wässrigen Pflanzenzellen eintreten und dort durch Sonnenergie in C und O gespalten werden. In diesem lebensnotwendigen Verbund von zwei Stoffaustauschsystemen zwischen den Leben tragende Zellen und der Außenwelt nimmt CO2 also eine zentrale Rolle ein.

Ein ganz wesentlicher Vorteil von Kohlenstoff in der Evolutionsgeschichte zu komplexen Leben ist die einzigartige Möglichkeit, dass sich viele organische Verbindungen spontan bilden, weil die dazu notwendige Formationsenergie meist sehr gering ist. Wie wir im Abschnitt „Das Lebensparadox“ sehen werden, könnte allein dieser Vorteil entscheidend dafür gewesen sein, dass sich nur auf der Grundlage von Kohlenstoff komplexes Leben bilden kann. Kohlenstoff ist also eine unabdingbare Basis sowohl für die reaktionssteuernden Bestandteile als auch als Baustein eines Informationsspeichers eines Organismus.

Gefunden und sehr nahe am Original abgetippt durch Andreas Demmig,

 „Außerirdische und Astronauten: Zivilisationen im All“, Ulrich Walter, Spektrum Akademischer Verlag GmbH Heidelberg Berlin. Seiten 66 ff.
http://www.amazon.de/Au%C3%9Ferirdische-Astronauten-Zivilsationen-im-All/dp/3827411769

Professor Dr. Ulrich Walter unterrichtet an der TU München, Garching am Lehrstuhl für Raumfahrttechnik.

http://web.lrt.mw.tum.de/index.php?id=242

Zusatzfund:

Wenn es um Astronomie geht, ist auch Professor Dr. Harald Lesch vielen durch seine Medienpräzens bekannt. Nachdem er den m.e. zu korrekten Dr. Bublath bei der Gestaltung der ZDF-Sendung Abenteuer Forschung abgelöst hatte, hält Prof. Lesch sich streng am Mainstream, oft auch gegen seine eigenen wissenschaftlichen Erkenntnisse.

Dazu habe ich das gefunden:

http://www.jocelyne-lopez.de/blog/2008/01/pop-physiker-prof-harald-lesch-unter-scharfer-kritik/




Gaukelei mit sinkendem Strompreis

Eine Energiewende-Lobby-Organisation in Berlin will uns weismachen, dass der Strompreis 2015 in Deutschland sinkt. Aber die FAZ ebenfalls. Denn sie reichte diese Gaukelei weiter, als sei dies auch ihre eigene Ansicht: Die Stromrechnung wird günstiger. So überschrieb sie ihren Bericht, ohne dies mit An- und Abführungszeichen zu versehen. Privatkunden und Unternehmen könnten sich 2015 zumindest auf einen kleinen Rückgang freuen, lautete die Unterzeile (hier). Die Stromverbraucher-Schutzvereinigung NAEB kommt zum gegenteiligen Ergebnis: „Der Strom wird 2015 noch teurer als schon bisher. Die Hoffnungen auf geringere Stromkosten sind vergeblich. Solange die „Energiewende“ mit dem planwirtschaftlichen und unsozialen Erneuerbaren-Energien-Gesetz (EEG) weitergeht, wird es damit nichts: Der Strompreis muss und wird immer schneller steigen. Das ist zwangsläufig.“

Zwei Lobbies – die eine gegen die Stromverbraucher, die andere für sie

Die besagte Lobby-Organisation trägt den Namen Agora Energiewende (hier)[1]. In ihrer Pressemitteilung vom 6. Januar (hier) steht: „Gestoppt wurde auch der Trend zu steigenden Strompreisen – sowohl die Strompreise für Privat- als auch für Gewerbekunden und Industrie sinken 2015 leicht gegenüber dem Vorjahr. Grund: Sowohl die Vorab-Kontrakte (sogenannte ‚Forwards’) an der Börse für 2015er-Strom als auch die EEG-Umlage 2015 fallen niedriger aus als 2014. Viele Stromvertriebe geben diese Vorteile an ihre Kunden weiter.“ Die NAEB ist ebenfalls eine Lobby-Organisation. Nur arbeitet sie nicht gegen sondern für die Stromverbraucher. Sie hat auch keinen 14-Millionen-Euro-Etat zur Verfügung wie die Agora Energiewende und keine neunzehn bezahlten Mitarbeiter. Denn solche Mitarbeiter kann sie sich nicht leisten, bei ihr sind alle ehrenamtlich tätig.

Weitere Ökostromanlagen erhöhen den Strompreis zwangsläufig

Leider wird „der Trend zu steigenden Strompreisen“ 2015 keineswegs gestoppt. Denn die staatlich angetriebene Erzeugung von „Ökostrom“ mittels Wind, Sonne und Pflanzen wie Mais schreitet weiter voran. Derzeit hat diese „erneuerbare“ Energie schon einen Anteil von 28 Prozent an der deutschen Stromversorgung erreicht. Bis 2035 sollen es 40 bis 45 Prozent werden, bis 2050 mindestens 80 Prozent. Vor allem entstehen immer mehr Windkraftanlagen. Aber das Erzeugen von „Ökostrom“ kostet im Durchschnitt dreimal mehr als Strom aus Steinkohlekraftwerken und fünfmal mehr als Strom aus Braunkohlekraftwerken. Also werden die Erzeugungskosten steigen und mit ihnen der Preis für Strom. Sinken also werden sie schon gar nicht. Denn mit allen weiteren Ökostromanlagen muss sich der Strompreis weiter erhöhen. Zwangsläufig.

Künstlich verteuert der Staat auch den herkömmlich erzeugten Strom

In einer Pressemitteilung schreibt NAEB-Vorstandsmitglied Prof. Dr. Hans-Günter Appel:*) „Doch auch der konventionelle Strom aus den Kohle- und Gaskraftwerken wird mit dem weiteren Ausbau der Ökostromanlagen teurer. Das liegt am EEG: Es zwingt die Strom-Netzbetreiber dazu, den (stark schwankenden und nicht planbaren) Ökostrom mit Vorrang abzunehmen. Strom aus konventionellen Kraftwerken hat dann das Nachsehen. Folglich geht die Jahresstromerzeugung der konventionellen Kraftwerke zurück. Aber die Kapital- und Personalkosten bleiben gleich hoch. Denn die konventionellen Kraftwerke müssen sich in Bereitschaft halten, damit sie einspringen, wenn der Wind nicht weht und die Sonne nicht scheint. Diese Bereitschaft kostet auch Brennstoff, weil die Kraftwerke auf Betriebstemperatur gehalten werden müssen, wenn sie schnell Strom liefern sollen. Wäre das Kraftwerk kalt, würde es Stunden dauern, es wieder anzufahren, während die Ökostromerzeugung innerhalb von Minuten stark schwanken kann. Nur Gaskraftwerke lassen sich in wenigen Minuten auf volle Leistung hochfahren. Sie allerdings sind die teuersten Erzeuger konventionellen Stroms. Kurzum, wie immer man es betrachtet: Mehr teurer Ökostrom zieht zwangläufig wegen der EEG-Bestimmungen auch höhere Kosten für den konventionellen Strom nach sich.“

Neue Ökostrom-Leitungen treiben den Strompreis zusätzlich hoch

Professor Appel weiter: „Doch das ist noch nicht alles. Ökostrom muss im Netz weitergeleitet werden. Wachsende Strommengen erfordern neue Leitungen zu den Verteilerstationen. Das kostet viele Milliarden Euro, die zu bezahlen sind. Und von wem? Natürlich von uns allen, den Stromkunden. Doch damit nicht genug. Der Windstrom aus Norddeutschland soll durch große Stromtrassen bis nach Bayern transportiert werden. Ein Kilometer neue Trasse kostet als Freileitung mehr als 1 Million Euro. Erdverlegt steigen die Kosten auf etwa 8 Millionen Euro. Auch dies muss bezahlt werden. Wird dann Strom durch die Leitungen geleitet, ist der Transport nicht zum Nulltarif zu haben. Es kommt zu Stromverlusten, die von der Küste bis nach Bayern einschließlich der Verluste durch die Transformatoren etwa 10 Prozent betragen. Die Netzkosten werden also erheblich steigen und den Strompreis zusätzlich in die Höhe treiben.“

Spielraum für den Strompreis? Ja, aber nur nach oben

Es gebe „Spielraum für Strompreissenkungen im Jahr 2015“, so zitiert der erwähnte FAZ-Bericht aus einer „Analyse“ der Agora Energiewende. Doch wirklichen Spielraum für den deutschen Strompreis gibt es nur nach oben. Solange die politische Führungsschicht in Deutschland die Energiewende-Politik fortsetzt – und das zu wollen, betont sie mit Kanzlerin Merkel an der Spitze immer wieder – solange wird der Strompreis progressiv weitersteigen. Die folgende NAEB-Grafik veranschaulicht das.   

Die FAZ nennt die Agora Energiewende eine „Denkfabrik für Energiepolitik“ und eine „Non-Profit-Gesellschaft“. Das klingt nach Unabhängigkeit und Neutralität. Das Gegenteil ist der Fall und läuft auf Irreführung der Leser hinaus.**) Sie ist abhängig, sogar sehr, und vertritt Interessen alles andere als neutral. Das zeigt schon ein Blick in die Aufzählung derer, die dem „Rat der Agora“ (hier) und dem Gesellschafterkreis (hier) angehören. Was ihre Aufgabe ist, bestimmen die beiden Geldgeber. Das sind zwei Stiftungen: die Stiftung Mercator und die European Climate Foundation (ECF).

Die beiden Geldgeber wollen globalen Klimaschutz vorantreiben

Die Mercator will „die Energiewende als Motor für globalen Klimaschutz vorantreiben“, die ECF den „Umbau der viertgrößten Volkswirtschaft der Welt hin zu einer klimaverträglichen Energieversorgung“ erreichen. Beides deckt sich und ist Energiewende pur. Die ECF ihrerseits beschreibt sich als „eine Gemeinschaftsinitiative mehrerer großer, international tätiger Stiftungen aus Europa und den Vereinigten Staaten gegen die drohende Erdüberhitzung“. Als Teil des ClimateWorks-Netzwerks (hier) setze sie sich seit 2008 dafür ein, einen wirksamen Klimaschutz in Europa voranzubringen. In der Strategie der ECF spiele Deutschland als größtes und wirtschaftsstärkstes EU-Land eine zentrale Rolle – nicht zuletzt, weil die Energiewende zeige, dass der Umbau hin zu einem umwelt- und klimaverträglichen Energiesystem machbar sei. Näheres über die ECF hier.

Das ist reinrassiger Lobbyismus

Die Agora Energiewende darf also gar nicht neutral sein. Auch ist sie noch nicht einmal ein eingetragener Verein (e.V.), nur eine „Initiative“, schon gar nicht eine „Gesellschaft“ (wie die FAZ schrieb), sondern rechtlich nur ein „Teil“ der Smart Energy for Europe Platform (SEFEP) gGmbH, eingetragen beim Amtsgericht Charlottenburg (HRB 126 115 B). Auch wenn sie selbst nicht auf betriebswirtschaftlichen Gewinn ausgerichtet ist (non-profit), so bedient sie doch massiv rein kommerzielle Interessen, nämlich die ihrer Ratsmitglieder und die ihrer Geldgeber, die an der Energiewende verdienen. Ihr geht es darum „Wie gelingt uns die Energiewende?“ Sie „will den Boden bereiten, damit Deutschland die Weichen richtig stellt. Wir verstehen uns als Denk- und Politiklabor, in dessen Mittelpunkt der Dialog mit den energiepolitischen Akteuren steht Analysieren, verstehen, diskutieren, bewerten: Damit wollen wir die Energiewende voranbringen.“ Das ist reinrassiger Lobbyismus. Wer diese Tatsachen unterschlägt, täuscht seine Leser.

Hinter der Energiewende stehen rein kommerzielle Interessen

Deshalb hat der NAEB-Stromverbraucherschutz einen sehr schweren Stand. Die deutsche Energiewende-Politik dient allein den kommerziellen Interessen zahlreicher Gruppen von Profiteuren, zu denen auch der deutsche Fiskus gehört. Mit Schutz vor anthropogenem Kohlendioxid (CO2) und drohender Erderwärmung wird sie nur begründet, damit sich die Bürger das gefallen lassen. Zu viele von ihnen haben in ihr eine Art Ersatz- oder Zusatzreligion gefunden. Wer einen Glauben hat, zählt sich zu den Guten und findet darin erquicklichen Trost.

Wenn nicht schnell eine Wende der Wende beginnt …

Allerdings ein teurer Trost für die Stromverbraucher. Professor Appel schreibt in seiner NAEB-Pressemitteilung: „Wenn die politische Führung nicht schnell eine Wende der Wende einleitet, werden wir privaten Stromverbraucher im Jahr 2020 für die Kilowattstunde Strom mehr als 50 Euro-Cent bezahlen müssen. Da wir Strom kaum einsparen können, ohne unseren Lebensstandard stark abzusenken, wird es zu einem kräftigen Kaufkraftschwund kommen mit dem Verlust vieler Arbeitsplätze und dem Abstieg von noch mehr Familien in die Sozialhilfe.“ Und der NAEB-Vorsitzende Heinrich Duepmann meint: „Wir brauchen endlich eine Partei, die für eine reale marktwirtschaftliche Energiepolitik eintritt und die unsoziale staatlich-zentrale Planwirtschaft ablehnt. Nur dann bekommt der Stromverbraucher die nötige Wahlfreiheit, um sich für den preiswerteren Strom entscheiden zu können.“

______________________________________________________________________________
*) Wenn ich NAEB zitiere, müssen Sie wissen, dass ich Mitglied bei NAEB bin und dort dem Beirat angehöre, also befangen sein kann. Die NAEB-Web-Seite finden Sie hier: www.naeb.de  Die NAEB-Pressemitteilungen hier und hier. Wer sich als Energiewende-Opfer sieht, sollte NAEB unterstützen, indem er Mitglied wird. Je mehr Mitglieder, umso durchsetzungfähiger kann NAEB gegen die Energiewende-Politik auftreten. Ein Beitrittsformular finden Sie hier.
**) Immerhin zutreffend berichtet hatte die FAZ in ihrer Ausgabe vom 16. Oktober 2014 (Seite 20): „Ökostrom-Umlage sinkt, der Strompreis steigt trotzdem – Netzausbau und andere Umlagen treiben Kosten. Zum ersten Mal seit 14 Jahren sinkt im nächsten Jahr die Umlage zur Förderung des Ökostroms. Doch bedeutet das nicht, dass auch der Strompreis stabil bleibt. „In vielen Regionen muss beispielsweise mit weiter steigenden Netzentgelten gerechnet werden“, sagt die Chefin des Bundesverbands der Energie- und Wasserwirtschaft (BDEW), Hildegard Müller. Der für die Energiewende notwendige Ausbau der Übertragungs- und Verteilnetze kostet in den kommenden Jahren vermutlich Dutzende Milliarden Euro. Weitere fünf Umlagen auf den Strompreis 2015 werden in den kommenden Wochen festgelegt, darunter die für die ungewollten Ausfälle in der Stromerzeugung auf hoher See oder für die Förderung der als besonders wirtschaftlich geltenden Elektrizitätserzeugung durch Kraft-Wärme-Kopplung.“

Haftungsausschluss / Disclaimer siehe hier. Wenn dieser Hinweis nicht unter jedem Beitrag steht, so gilt er doch auch für diese anderen.

Der Beitrag erschien zuerst auf KP-Krauses Blog hier


[1] Anmerkung der Redaktion: Nicht vergessen werden sollte die Tatsache, dass der bisherige Geschäftsführer der AGORA und vormalige Erfüllungsgehilfe von Jürgen Trittin, der Obergrüne Rainer Baake, jetzt als Staatssekretär im BmWi Herrn Gabriel  zuarbeitet, während sein Nachfolger als AGORA Geschäftsführer Patrick Graichen nur aus dem Bundesumweltministerium als “Urlauber” entliehen wurde. So wäscht eine Hand die andere.




Was beschert das Wetter im Jahr 2015 der Einen Welt für ein Wetter?

Die Globalklima-Experten stünden vor einem gigantischen Problem, denn zuerst müssten sie die Erde in zwei Halbkugeln teilen, die ja aufgrund der Schiefe der Ekliptik zwei gegenläufige Jahreszeiten aufweisen. Wenn am 21. Dezember auf der Nordhemisphäre mit der Wintersonnenwende der Winter beginnt, beginnt auf der Südhemisphäre mit der Sommersonnenwende der Sommer. Am 21. Juni ist es genau umgekehrt. Dieses vom Sonnenstand seit Urzeiten ablaufende astronomische Wechselspiel bedingt die Jahreszeiten mit ihrem charakteristischen Wetter. Die Deklination der Sonne und der Neigungswinkel der auf die kugelförmige Erde einfallenden Sonnenstrahlen bedingen wiederum den Jahresgang der Temperatur. Dieser folgt etwa mit einmonatiger Verzögerung dem Stand der Sonne und damit der Länge von Tag und Nacht. Doch damit ist über den eigentlichen Wetterablauf nichts gesagt.

Das Gesagte ist so offensichtlich und „sonnenklar“, dass die Globalklima-Experten mit ihrer Hypothese, die Globaltemperatur der Erde würde vom CO2-Gehalt der Luft abhängen in ärgste Beweisnot kommen würden. Damit dieser Schwindel nicht ans Tageslicht kommt schweigen sie! Dies allein deswegen, weil der zum Beweis ihrer Hypothese herangezogene Jahresgang der CO2-Kurwe, gemessen auf dem 4.169 Meter hohen aktiven Kegelvulkan Mauna Loa auf Hawaii, mit der Globaltemperatur nichts zu tun hat. Diese kann ja keinen Jahresgang aufweisen, weil die Temperaturen von Nord- und Südhemisphäre in einen Topf geworfen werden und daraus eine fiktive Weltmitteltemperatur errechnet wird.

Hawaii besteht aus 137 Inseln und reicht von 18 bis 29° nördlicher Breite. Alle Inseln sind vulkanischen Ursprungs, wobei die Hauptinsel Big Island mit dem Kegelvulkan Mauna Loa erst circa 500.000 Jahre alt ist. Die Hauptstadt Honolulu liegt auf 21° 30’ nördlicher Breite noch innerhalb der Tropen, so dass die Sonne zweimal im Jahr senkrecht über der Stadt steht. Dies geschieht 8 Tage vor dem 21. Juni und 8 Tage danach. Am 21. Juni steht die Sonne zur Mittagszeit im Norden von Honolulu, wandert von Ost über Nord nach West und nicht wie in Mitteleuropa von Ost über Süd nach West.

Zum Wetter 2015 schweigen sowohl die nationalen Wetterdienste als auch der Weltklimarat IPCC

Während vom 2. bis 14. Dezember 2014 in Lima bei hochsommerlichen Temperaturen von der UN der 20. Weltklimagipfel mit gut 25.000 Teilnehmern inszeniert und zelebriert wurde, richtete sich das Interesse der Menschen bereits auf Weihnachten. Computer und Wetterhoroskope wurden bemüht ob der Frage: gibt es weiße Weihnacht oder keine? Doch das Wetter deckte erst im letzten Moment die Karten auf und bescherte „grüne Weihnacht“.

Die „weiße Pracht“ kam im Rhein-Main-Gebiet erst am 27. Dezember und verursachte sofort erhebliche Probleme am Frankfurter Flughafen. Wer hier festsaß, verfluchte den Schnee und mit ihm das Wetter. Am Sonntag dem 28. Dezember herrschte sonnig-frostiges Wetter und lud zu Spaziergängen im schneebedeckten rheinhessischen Hügelland ein. Doch zu gleicher Zeit versagte starker Schneefall Tausenden von Autos in Frankreich die Zufahrt zu den Skigebieten, verhinderten Windböen in Oberstdorf durch Durchführung des Skispringens, erschwerten Sturmböen mit hohem Wellengang die Bergung eines brennenden Fährschiffs über der südlichen Adria, verschwand ein Flugzeug aufgrund eines heftigen Gewitters vom Radarschirm und stürzte ins Meer. Derartige Wetterkapriolen sind alltäglich auf dem Globus, wir „erfahren“ es aber nur, wenn die Medien darüber berichten.

Es ist zwar „schön“ zu erfahren, ohne es tatsächlich zu „erfahren“, was in der Welt an Wetter geschehen ist. Viel wichtiger wäre es, rechtzeitig von den Wetterdiensten mit entsprechend zielgenauen Vorhersagen gewarnt und nicht mit diffusen Pauschalwarnungen abgespeist zu werden. Zur Ablenkung versorgte uns der Deutsche Wetterdienst -DWD- mit der Meldung eines neuen „Wärmerekordes“ für 2014. Am 31. Dezember 2014 fragte die BILD-Zeitung „War 2014 das wärmste Jahr aller Zeiten?“ und zeigte eine DWD-Graphik über die Durchschnittstemperatur von 1881 bis 2014. Danach hatten wir mit 10,2° C das wärmste Jahr seit 1881, also seit der regelmäßigen Erhebung, Aufzeichnung und statistischen Aufbereitung der Wetterdaten im damaligen Deutschen Reich. Dazu sagte Dipl.-Meteorologe Dominik Jung „Das ist ein Jahrhundertrekord“.  Doch was diesen „Rekord“ verursacht hat, welche Großwetterlagen dazu beigetragen haben, darüber schweigt sich der DWD aus. Die Temperaturen fallen ja nicht vom Himmel sondern hängen im Wesentlichen vom Charakter der Luftmassen ab. Dieser ist jahreszeitlich sehr unterschiedlich, wird vom Untergrund geprägt und davon hängt es ab, ob warme, kalte, trockene oder nasse aus Luftmassen herantransportiert werden.

Nehmen wird also diesen statistisch errechneten Wert einfach hin, denn fühlen, spüren oder messen kann eine Jahresdurchschnittstemperatur ohnehin kein Mensch. Dies gilt gleichermaßen für Pflanzen und Tiere. Aber was ist der „Jahrhundertrekord“ von 10,2° C im Vergleich zur Globaltemperatur von 15° C? Da kann man nur sagen, ganz schön kalt in Deutschland. Wo bleibt da die von der Bundeskanzlerin angestrebte „globale Klimagerechtigkeit“? Dies ist eine naturwidrige Fiktion, solange die Erde eine sich drehende Kugel im Scheinwerferlicht der Sonne ist. Einzig und allein aufgrund der unterschiedlichen Erwärmung der Erde durch die Sonne haben wir ein global so ungleiches Wetter mit unterschiedlichen Temperaturen. Die Forderung nach „globaler Klimagerechtigkeit“ ist a priori physikalisch unmöglich und damit nichts als ein sinnloses politisches Geschwafel.

Was also bezweckt der nach Sensation heischende „Jahrhundertrekord“? Das vergangene Wetter ist wie der „Schnee von gestern“. Einmal geschmolzen muss man warten, bis das Wetter es wieder schneien lässt. Angesichts der Ohnmacht des Menschen vor den Wettergewalten mutet es schon wie Größenwahn an, wenn das „Reich der Mitte“ beschlossen hat, künftig großräumig das Wetter zu manipulieren. Laut chinesischem Wetterdienstes sollen bis 2020 zusätzlich „60 Milliarden Kubikmeter künstlicher Regen pro Jahr“ produziert werden, sollen sich die „künstlich von Hagel freigehaltenen Flächen auf 540.000 Quadratkilometer“ summieren.  Der Gedanke ist löblich, der Wunsch nach mehr Wasser verständlich. Aber woher will China die Unmengen an Energie nehmen, um das Wasser zu verdunsten, das für den zusätzlichen „künstlichen Regen“ notwendig ist? Mit der vom Wetter abhängigen Solar- oder Windenergie ist dies jedenfalls nicht machbar.

Das Wetter hat ein ganz miserables Gedächtnis und verhält sich chaotisch

Dies sind im Grunde die zwei Dinge, weshalb es keine längerfristigen Wettervorhersagen gibt und sich selbst die größten und schnellsten Computer am Wetter die Zähne ausbeißen. Das Wetter blickt nicht zurück und weiß daher auch nicht, was es im vergangenen Jahr gemacht hat. Es wiederholt sich nicht, orientiert sich nicht an der Vergangenheit und verhält sich vom Ablauf her von Jahr zu Jahr völlig anders, auch wenn sich an den Jahreszeiten wie der Strahlungsintensität der Sonne nichts ändert. Am Himmel hinterlässt das Wetter keinerlei Spuren. Der blaue Himmel von heute verrät nicht, ob es gestern geregnet, geschneit oder gehagelt hat. Dies sieht man an den Pfützen, am Schnee oder den Schäden, die durch Hagelschlag angerichtet wurden.

Synoptische Meteorologen kennen das Wunschdenken der Menschen, aber sie wissen auch, wie begrenzt ihr Wissen vom Wetter ist. Sie versprechen den Zuhörern oder Zuschauern weder „gutes“ noch „schlechtes“ Wetter, garantieren auch keinen Sonnenschein, weil sie eines wissen: Wetter ist nicht machbar und zudem unberechenbar. Dies gilt für den Raum, aber mehr noch für die Zeit. Die Güte einer Vorhersage sinkt von Tag zu Tag, von Stunde zu Stunde und wird nach etwa zehn Tagen zur Spekulation. Dies gilt insbesondere in den Westwindzonen unserer Erde mit den unstetig wandernden und sich ständig verändernden Hoch- und Tiefdruckgebieten. Auch wenn wir schlafen, das Wetter ruht nie. Es bezieht seine Energie von der Sonne und die gibt dem Wetter die Dynamik wie dem Wind die Kraft, Bäume wie Strohhalme umzuknicken.

Auf lange, lange Zeit werden die Wettervorhersagen noch so „präzise“ sein wie in der BILD am Sonntag vom 4. Januar 2015: „Heute zeigt sich vielfach die Sonne. Dichte Wolken und Schneefälle gibt es aber auch, und die Temperaturen klettern am Tage auf 0 bis 7 Grad“. Aber was ist „vielfach“ und wo liegt „vielfach“? In Oppenheim in Rheinhessen gab es ganz wenig Sonne, dichte Wolken, aber keine Schneefälle bei maximal 4,9° C.  Kein Wunder also, dass das, was uns das Wetter am Rosenmontag, Ostermontag oder Pfingstmontag bescheren wird, noch in der Sternen steht und unvorhersehbar ist.




Britisches Nordseeöl steckt in großen Schwierigkeiten

Die FI berichtet:

Industriebeobachter sagen, dass die Auswirkung des Preisrutsches verschärft wird durch die zunehmende Schwierigkeit, Öl im ausgebeuteten Nordseebecken zu finden und zu extrahieren sowie durch Steuern, die von Kanzler George Osborne im Jahre 2011 eingeführt worden waren.

Da kommt es wenig überraschend, dass die Industrie harte Lobbyarbeit betreibt zugunsten von Steuernachlässen, um die Auswirkungen zu mildern:

Kanzler George Osborne verkündete im vorigen Monat, dass er die zusätzlichen Abgaben auf Profite der Umsatzsteuer in UK von 32 Prozent auf 30% kürzen werde. Aber Oil & Gas UK, die Handelskörperschaft, hat ihn gedrängt, diese Steuer ganz abzuschaffen.

Die Ölreserven von UK in der Nordsee befanden sich ohnehin schon im stetigen Rückgang, bevor der globale Preissturz drohte, die verbleibenden Operationen unökonomisch zu machen. Steuerbegünstigungen mögen kurzfristig Erleichterung bringen, aber die Aussichten sind immer noch düster.

Aber während eine heimische Ressource fossilen Treibstoffes immer weniger abbauwürdig wird, bleibt eine andere unberührt. UK verfügt über massenhaft Erdgas in seinen Schieferformationen zu Lande; Gas, das erst kürzlich ausbeutbar wurde dank neuer technologischer Fortschritte wie hydraulisches Brechen und horizontalen Bohrungen. Bisher haben lokale Proteste die meisten Versuche, an diese Gasquelle zu kommen, verhindert, aber mit dem Nordseeöl, das von allen Seiten immer mehr unter Druck gerät, wird es interessant sein zu verfolgen, ob die öffentliche Meinung sich zu ändern anfängt zugunsten des Fracking jenen Schiefers. Die Briten müssen einfach nur auf die andere Seite des Atlantiks schauen, um das außerordentliche Potential zu erkennen, das unter ihren Füßen in Wartestellung liegt.

[Die Deutschen auch! Anm. d. Übers.]

Full post, der aber mit diesem Beitrag identisch ist.

Link: http://www.thegwpf.com/big-trouble-for-britains-north-sea-oil/

Übersetzt von Chris Frey




Nachhaltige Wahrheiten vs. Lügenpresse

Versucht man sich dem Wahrheitsbegriff zu nähern, wird es komplex. Um nicht in ontologischen Spitzfindigkeiten zu versanden, definieren wir daher selber, Puristen und Philosophen mögen uns diesen Dilettantismus nachsehen: Wahrheit ist für uns  „WAS IST“. Rudolf Augstein hatte solches einmal als Motto seiner journalistischen Bemühungen charakterisiert. Er forderte von seinen Redakteuren „berichten, was ist“. Was waren das noch Zeiten, als der SPIEGEL wirklich kritisch war! Wir sehen dieses Bemühen Rudolf Augsteins als erstrebenswertes Ideal für alle Medien an und wenden uns nun der Wahrheitsvermittelung durch die Printpresse und öffentlich-rechtlichen Sendeanstalten in Sachen Energiewende und Klimawandel zu. Dazu definieren wir drei Grade von Wahrheitsverfälschung je nach Schwere des Vergehens:

1. Vorsätzlich falsch berichten.

2. Unterschlagen von unerwünschter Information wie es etwa Donna Laframboise beschreibt: „Es ist eine Sache, eine andere Meinung zu haben. Es ist aber etwas völlig anderes, vorzutäuschen, andere als die eigene Meinung würden gar nicht existieren, oder zu behaupten, solche Meinungen verdienten keine Aufmerksamkeit“.

3. Diffamierung von Gruppen oder Einzelpersonen mit anderer Auffassung als der des Mainstreams.

Wir mögen es gerne blumiger, denken dabei an die wachsende Nase Pinocchios beim lügen und sprechen daher an Stelle nüchterner Grade von „Nase länger geworden“, „Nase lang“ und „Nase riesenlang“ unseres lustigen Pinocchio.

Die länger werdende Nase Pinocchios

Eine erste gute Nachricht vorweg: Über die deutsche Energiewende wird zunehmend von den Printmedien kritisch berichtet, wenn auch nicht überall, nicht einheitlich im selben Blatt und auch nicht immer. Aber dennoch: jeder Leser kann sich inzwischen sachlich informieren. Dazu muss er sich freilich die Mühe machen den deutschen Blätterwald zu durchforsten.

Wird dagegen sachlich falsch über die Energiewende berichtet, erfolgt dies in der Regel nicht von den Redakteuren selber, ihrer Kenntnisdefizite wegen sind sie dazu nicht in der Lage. Sie bedienen sich vielmehr in ständiger Wiederholung der Verlautbarungen grüner Advokaten, in der Regel der offenbar unvermeidbaren Wirtschafts-Professorin Claudia Kemfert. Deren ständig wiedergekauter sachlicher Unsinn zur Energiewende lässt dann bei vielen Leuten die Verwunderung aufkommen, wie so etwas mit einer veritablen Professur zusammenpasst.

Beim Klimawandel, genauer der angeblich menschgemachten globalen Erwärmung, im Folgenden AGW abgekürzt, liegen die Dinge freilich anders. Noch vor wenigen Jahren waren Blätter wie die FAZ noch sehr kritisch (hier, hier). Inzwischen ist aber aus AGW eine neue Staatsreligion geworden, die man nicht mehr anzutasten wagt. Der Begriff „Religion“ ist wörtlich zu nehmen, die Klima-Agenda der EKD belegt es. Da im medialen Bereich zum Thema AGW der Mangel an sachkundigen Redakteuren noch gravierender ist als beim Energiethema – denn da gibt es wenigstens Fachredakteure, die sich mit den Kosten auskennen -. wird ebenfalls zu „Proxies“ gegriffen. Man pickt von den großen Agenturen wie dpa oder gar dem Potsdamer Institut für Klimafolgenforschung (PIK) herausgegebene Klimabedrohungen auf und schreibt journalistisch Gefälliges dazu. Verstanden hat der betreffende Redakteur zwar fast gar nichts, aber eine hübsche Story ist allemal daraus geworden. Eigene Recherchen gibt es so gut wie keine. Stellvertretendes Beispiel für dieses Vorgehen ist der stets bemühte Biologe Müller-Jung von der FAZ.

Katastrophal wird es dann bei den öffentlich-rechtlichen Sendeanstalten. Hier gibt es absolut keine Zweifel mehr an Nutzen und Sinnhaftigkeit der Energiewende und noch weniger am AGW als einer gefährlichen Bedrohung der Menschheit. Die Täuschung, der man sich dabei bedient, besteht entweder in unverstandenen, stets wiederholten Worthülsen, deren Verkündung man ahnungslosen Redakteure seitens der Sendeleitungen auferlegt, oder – dies ist dann auf Zuhörer bzw. Zuschauer mit etwas mehr intellektuellem Tiefgang gezielt – in der Beauftragung von Fachleuten.

Hierbei sind insbesondere Prof. Harald Lesch und Rangar Yogeshwar zu nennen. Diese beiden Physiker als Wissenschaftsredakteure machen zweifellos ausgezeichnete TV-Wissenschaftssendungen. In den hier behandelten Themen Energie und Klima sind sie aber Advokaten, die sachlichen Unsinn billigend in Kauf nehmen (hier). Man muss ein wenig Verständnis haben, denn was bleibt ihnen anderes übrig? Wären sie fachlich objektiv und neutral, würde man sie schnell ersetzen. So erging es einst Joachim Bublath, der sich dem CO2-Katastrophenzirkus in einer seiner letzten Sendungen verweigerte und daraufhin prompt vom ZDF vor die Tür gesetzt wurde. Wir trauern dem bisher besten Wissenschaftsmoderator Joachim Bublath immer noch nach.

Wie sagte aber bereits der hannoversche König Ernst August (1771-1851): „Professoren, Huren und Balletttänzerinnen kann man für Geld überall haben“. Den heutigen Balletttänzerinnen tut er mit dieser Einschätzung vermutlich Unrecht. Doch die öffentlich-rechtlichen Sendeanstalten haben sich diese königliche Einschätzung zweifellos zu Eigen gemacht.

Die lange Nase Pinocchios

Unterschlagen von Unerwünschtem ist zweifellos das beliebteste und am häufigsten angewandte Verfahren – in purer Reinkultur beim Thema AGW und hier ausnahmslos in allen Medien. Nur extrem selten gibt es hier doch einmal die eine oder andere Entgleisung vom Staatsglauben, uns sind hier nur die WELT und die Junge Freiheit bekannt. Der Beleg für unseren Vorwurf ist nicht schwer zu erbringen, wenige Punkte genügen:

1.) Es wird regelmäßig ein sog. wissenschaftlicher Konsens zum AGW beschworen, meist unterstützt von der Zahl 97%. Dies ist hochgradig absurd, denn sogar zwei Physik-Nobelpreisträger , Robert Laughlin und Ivar Glaever gehören zu den "AGW-Leugnern" (hier). Die fast schon unzähligen Petitionen von Klimawissenschaftlern und fachnahen Naturwissenschaftlern gegen die IPCC-Auffassung wurden noch nie in den deutschen Medien thematisiert (hier). Schlussendlich ist eine reichhaltige, begutachtete Klima-Fachliteratur zu nennen, die mit der AGW nicht einverstanden ist (hier).

2.) Die Affaire „Climate Gate“, bei der authentische E-Mails an die Öffentlichkeit gelangten, aus denen die Durchstechereien der AGW-Fraktion in einer nicht zu überbietenden Deutlichkeit hervorgingen, blieb in den deutschen Medien bis heute folgenlos. Hier sehen wir sozusagen in ein schwarzes Informationsloch. Die Links zu Climate Gate sind zu zahlreich, um sie hier alle aufzuführen, daher bei Bedarf ins EIKE-Suchfenster climate gate eingeben und selber aussuchen.

3.) Uns ist bis heute keine Buchbesprechung in den großen Printmedien von Sachbüchern bekannt, die sich kritisch mit der Energiewende und dem Klima-Alarmismus auseinandersetzen (Ausnahme wieder einmal die WELT). Dies ist bemerkenswert, wenn man sich ansieht, was sonst so an Literaturergüssen in den Feuilleton-Seiten der Qualitätszeitungen erscheint und auch noch umfangreiche Besprechungen erfährt. Wenn überhaupt, erfolgen Besprechungen kritischer Sachbücher in kleinen Lokalblättern, die noch in Familienbesitz und daher unabhängig sind.

Die riesenlange Nase Pinocchios

Die Diffamierung von Gruppen oder Einzelpersonen mit anderer Auffassung als der des Mainstreams, ihre infame Zuordnung zu unbeliebten Lobbygruppen und ähnliches mehr sind höchst unfeine Methoden. Klimaskeptiker in die Ecke von Pudeln der US-Erdölindustrie zu stellen, ist das bevorzugte Verfahren. Es ist zwar durchsichtig dämlich, aber viele Leute schlucken den Unsinn trotzdem, der Autor kann es an Hand vieler persönlicher Erfahrungen bestätigen. Als einzige Erklärung dafür bleibt die etwas traurige Erkenntnis, dass viele Zeitgenossen gar nicht auf die Idee kommen, es könne Mitmenschen geben, die etwas unentgeltlich aus Idealismus tun. Dies, so folgern sie nämlich messerscharf, kann nicht sein, denn "ohne Kohle mache ich selber ja schon grundsätzlich überhaupt nichts".

In der fragwürdigen Diffamierungsmethode dritten Grades haben sich insbesondere zwei "Qualitätszeitungen" hervorgetan, die ZEIT und die Süddeutsche Zeitung (hier, hier, hier). Auf nähere Kommentierung kann verzichtet werden. Die Artikel sprechen für sich und werden einmal zu interessantem Anschauungsmaterial über die Zustände in Deutschland für zukünftige Historiker werden.

Die Schilderung einer weiterer Episode sei noch erlaubt: Zum Zweck eines Übersichtsartikels zur Klimaproblematik lud die ZEIT den Autor nach Hamburg zum Interview ein. Im Wissen, dass solche Reisen stets sinnlose Zeitverschwendung sind, bat dieser daraufhin umgekehrt um den Besuch des Redakteurs in Heidelberg. Es erschien dann eine junge ZEIT-Redakteurin in Heidelberg, die nicht im Geringsten an einem Sachgespräch interessiert war, sondern sich ausschließlich nach EIKE-Interna erkundigte. Als sie diese nicht erhielt, sondern nur hartnäckig an Sachinhalte erinnert wurde, zog sie verstimmt ab und flog nach Hamburg zurück – außer Spesen nichts gewesen. Das Ergebnis ihrer Recherche (hier). Diese journalistische Glanzleistung bekam dann einen Journalistenpreis, was interessante Schlussfolgerungen auf den Zustand der ZEIT und von Netzwerken für gegenseitige Preisverleihungen zulässt. Der Kommentar des Autors zu dieser Affaire (hier).

Fazit

Bis auf die Ausnahme gelegentlich kritischer Berichterstattungen über die Energiewende kann von objektiven deutschen Medien bei Energiewende und Klimawandel definitiv keine Rede sein. Insbesondere in der Süddeutschen und der ZEIT drängen sich angesichts ihrer Verunglimpfungen von "Klimaleugnern" Stil- und Polemik-Vergleiche mit den ehemaligen Kampfzeitungen "Neues Deutschland (DDR)", "Prawda (UdSSR)" oder "Der Stürmer (antijüdische Propagandazeitung der NS-Zeit)" auf.

Bevorzugte Methode ist aber zweifellos das Unterschlagen von Unerwünschtem (Grad 2 bzw. die lange Nase Pinocchios). Der Vorwurf der direkten Fälschung ist damit schon einmal abgewehrt, man fühlt sich als Journalist zwar nicht besonders wohl in seiner Haut aber zumindest formal unschuldig. Das ist ein Irrtum. Wir sind sicher nicht die Einzigen mit der Auffassung, dass bewusstes Verschweigen von Gegenpositionen eine noch schlimmere journalistische Untat ist als die bewusste Verdrehung oder Fälschung von Tatsachen.

Die gute Nachricht: Wir können etwas tun.

Unsere Chance besteht darin, immer wieder den Mund aufzumachen und zu berichten "WAS IST", was wir in EIKE schließlich täglich tun. Dass dieser Weg erfolgreich sein kann, beweist die stetig ansteigende Zahl unserer Leser. Weitere Chancen bestehen darin Zeitungen zu boykottieren, die sich wahrheitsgemäßer Berichterstattung verweigern und sich besser in Internet-Blogs oder guten kritischen Internet-Zeitungen – stellvertretendes Beispiel GEOLITICO – zu informieren. Nicht zuletzt aus diesem Grund und natürlich auch noch aus anderweitigen Gründen spüren es die großen Zeitungen bereits an nachlassenden Auflagenstärken.

Die Verlautbarungen der öffentlich rechtlichen Sendeanstalten sollte man aber paradoxerweise nicht versäumen! Natürlich nicht deswegen, um Fakten zu erfahren, die erhält man aus dem lokalen Käseblatt ohnehin besser, denn mit TV-Bildern wird viel zu viel in "Stimmungen" manipuliert. Nein, sondern deswegen, um ähnlich wie in der ehemaligen DDR "zwischen den Zeilen" zu lesen, welche Meinung einem untergejubelt werden soll, mit welchen Tricks dies geschieht und welche Kräfte dahinter zu vermuten sind. Man sollte die Methode des "zwischen den Zeilen lesen" natürlich auch auf die Printmedien anwenden, die man gerade zur Hand hat.

Kurz, es ist notwendig sich das kluge Wort des Nobelpreisträgers Werner Heisenberg zu Eigen zu machen „Will man den Wahrheitsgehalt einer Aussage beurteilen, muss man sich zuerst die Methoden des Aussagenden  ansehen“. Studieren Sie die Methoden der Klima-Alarmisten als den  Rattenfängern großer Transformationen, studieren Sie die Methoden der Medien! Stellvertretendes Musterbeispiel für "besondere" Aussagemethoden im TV ist der ZDF Moderator Claus Kleber, dessen empathisch-weinerlichen Weltinterpretationen Naiven Tränen entlockt und weniger Rührseligen köstliche Unterhaltung bietet, denn C. Kleber schlägt locker jeden Zirkus-Clown an Unterhaltungswert.

Bei Anwendung des Heisenberg-Kriteriums (nicht zu verwechseln mit der Heisenberg-Unschärferelation) braucht man sich ferner um den sachlichen Wert öffentlicher Klima-Aussagen, wie sie uns etwa seitens der wissenschaftlichen Repräsentanten des PIK angedient werden, schon nach kurzer Beoabachtung keine Gedanken mehr zu machen. Nur über den Zustand unseres Landes bleibt ein schaler Geschmack zurück. Das PIK als klima- und energiepolitische Propaganda-Institution wäre in einer ordentlich funktionierenden Demokratie längst abgewickelt worden. Nur bei ausschließlicher Konzentration auf seine wissenschaftliche Arbeit hat es eine Daseinsberechtigung, denn für staatlich alimentierte Forschungsinstitute, die massiv "Politik machen", sollte es in unserem parlamentarischen System prinzipiell keinen Platz geben.

Hat man sich die hier empfohlene Strategie des "Methoden-Studiums" der Medien einmal angeeignet, werden viele Dinge plötzlich klarer. Wenn man sich dann auch noch darüber informiert, wem in Deutschland die großen Printmedien gehören, in welchen Netzwerken deren Anteilseigner sich bewegen (Beispiel Atlantik-Brücke, hier, hier), mit welchen Figuren die Aufsichtsratsposten in den öffentlich-rechtlichen Sendeanstalten besetzt sind, welche lukrativen Posten ausgeschiedene Politiker in Brüssel oder bei US-Großbanken für frühere "Gefälligkeiten" erhalten (Musterbeispiel Joschka Fischer: vom ehemaligen Steinewerfer auf Polizisten, hier, bis hin zum europäischen Sachhalter des politisch aktiven US-Großkapitals ECFR, hier, hier, hier), dann eröffnen sich ganz neue Erkenntnisperspektiven.

Die Quellen und Motive der medialen Manipulation, der wir unterworfen sind, schälen sich dann deutlich heraus. Leider gehören zu solchen Recherchen Zeit und Mühe, beides mögen viele nicht aufbringen. Journalisten im Brot der einschlägigen Zeitungen dürfen über diese Zusammenhänge nicht berichten, sonst sind sie ihren Job los. Erst mit viel Recherche und auf der Basis wirtschaftlicher Unabhängigkeit können die wahren Ursachen für die erfolgreiche Täuschung einer ganzen Nation ausgesprochen werden. Und dies auch nur vermittels des Internets, denn es ist (noch) frei.




Die Zwecklosigkeit der Klimamodelle: „Sie sind einfach Unsinn“

Eine Untersuchung ergab den Grund sofort: das Modell parametriert parasitäre Kapazitäten zu einem einzigen einfachen Wert: die Realität der Halbleiter ist, dass die Kapazität mit der angelegten Spannung variiert – ein Effekt der heutzutage in jedem Radio als Kapazitätsdiode genutzt wird. Für kleine Signale ist dies ein akzeptabler Kompromiss. Über große Spannungsbereiche ist der Effekt massiv nicht linear. Das Modell war schlicht ungeeignet.

Die meiste Ingenieursarbeit ist es, die Dinge so zu gestalten, dass kleine unvorhersehbare Effekte in ihren Auswirkungen überdeckt werden durch große vorhersagbare Einflüsse. Jede stabile Schaltung hat so zu arbeiten. Ist dies nicht der Fall, ist es nicht stabil oder reproduzierbar.

Das führt zu einer direkten Technik Weisheit: Wird ein System nicht von wenigen großen Rückkopplungsfaktoren dominiert, ist es nicht stabil. Und wenn es Bereiche der Stabilität hat, resultiert ein Betreiben außerhalb dieser Bereiche in großer Instabilität und die Lebensdauer wird kurz sein.

Das Klima ist in Realität erstaunlich stabil. Seit Millionen von Jahren hat es einen Durchschnitt von etwa 282 Grad absolute gehalten, plus-minus etwa 5 Grad.

Die so genannte „Klimaforschung“ stützt sich auf eine netto positive Rückkopplung um alarmierende Ansichten zu entwerfen – und das positive Feedback hätte angeblich nichts mit CO2 zu tun: im Gegenteil, es ist eine Temperaturänderung – rein in den Verstärker und fertig.

Wenn eine solche Rückkopplung existiert, dann muss irgendein Temperaturtreiber, von einer geringfügigen Änderung in der Sonnenstrahlung bis zu einem Vulkanausbruch unweigerlich massive Temperaturschwankungen auslösen. Aber das ist schlicht nie passiert, oder wir würden nicht hier sein um solchen Unsinn auszuspucken.

Mit allen einfachen bekannten Faktoren der vom IPCC genutzten Basis reduziert sich die Gleichung auf:

∆T = λklog( ∆CO2)

wobei Lambda (λ) die Klimasensitivität ist. Die vorausgesetzte Tendenz jeder Erwärmung wird direkt dem CO2 (k.log (CO2)) Strahlungsantrieb zugerechnet und die daraus resultierende unmittelbare Temperaturänderung – von einem unerklärlichen und unbekannten Rückkopplungsfaktor verstärkt  – der angepasst wird, um einer Erwärmung im späten 20. Jahrhunderts zu entsprechen, wie sie einigermaßen sicher war.

Jeder argumentiert über den Wert von Lambda, niemand streitet über die tatsächliche Form der Gleichung selbst. Und das ist der Kunstgriff des IPCC … Argumente über Klimasensitivität sind reine Irreführung weg von der Wirklichkeit, weg von dem was vor sich geht.

Betrachten wir eine Alternative:

∆T = klog( ∆CO2) + f(∆x)

In Bezug auf die Erwärmung des späten 20. Jahrhundert, ist dies genauso gut und stützt sich lediglich auf die Einführung eine anderen Unbekannten, die die Unbekannte Lambda ersetzt, diesmal nicht als Multiplikator der von CO2 angetrieben Änderung, sondern als völlig unabhängige Variable.

Philosophisch betrachtet haben beide Formeln eine Unbekannte. Es gibt wenig, um zwischen ihnen zu wählen. Wissenschaftlich passen sowohl der Aufstieg und als auch die Pause[in der realen Temperaturentwicklung] bei der zweiten Modellgleichung viel besser.

Schlimmer noch, betrachten wir einige Möglichkeiten für was X stehen könnte:

∆T = klog( ∆CO2) + f(∆T).

Angenommen, f(∆T) ist in der Tat eine Funktion, deren aktueller Wert von nicht-linearen und zeitverzögerten Werten vergangener Temperatur abhängt. So repräsentiert es tatsächlich Temperaturrückkopplungen um neue Temperaturen zu kreieren!

Das ist ganz in der Nähe der IPCC-Modellgleichung, aber mit einem wichtigen Vorbehalt. Die allgemeine langfristige Rückkopplung muss negativ sein, sonst würden die Temperaturen über geologische Zeitskalen massiv instabil sein.

Aber wir wissen, dass kurzfristige Schwankungen von recht deutlichem Wert – Eis- und Warmzeiten – auch in Erscheinung treten.

Können langfristig negative Rückkopplung auf kürzere Sicht Instabilität schaffen? Oh ja! Wenn Sie genug Daten und etwas Zeitverzögerung haben, ist es ein Mist („it’s a piece of piss”).

Das Klima benötigt alle Elemente: Temperatur und Wasser, Wasserdampf (Treibhausgase: sollen die Temperaturen erhöhen), Wolken (Reduzieren die Tagestemperaturen, erhöhen die Nachttemperaturen) und Eis (massive Albedo Modifikatoren: verringern die Temperaturen) sind Funktionen der See- und Lufttemperatur. Und See-und Lufttemperatur sind eine Funktion der Albedo und Treibhaus-Modifikatoren, und der Wasserdampfkonzentration. Außerdem, die latente Wärme von Eis / Wasser stellt große Mengen an benötigter Energie dar, um einen Phasenübergang bei einer einzigen Temperatur zu bewirken.

Viele schöne Nichtlinearitäten gibt es. Plus große Verzögerungen der dekadischen oder multidekadischen Periodenlänge in Bezug auf die Meeresströmung und dem schmelzen- / gefrieren der Eisschilde und des Permafrosts.

Ganz zu schweigen von der Kontinentaldrift, die weitere Variablen des Wasserkreislaufs- in den Mix hinzufügt. Oder Vereisung, die ein Fallen des Meeresspiegels verursacht. Dadurch wird mehr Land frei gesetzt, um die Albedo zu senken, dort wo die Erde nicht gefroren ist. Und Vereisung, die Wasserdampf in der Luft abreichert, verringert die Wolkenalbedo in nicht vergletscherten Gebieten.

Es ist ein riesiges System, nichtlinearer und enorm verzögerter negativer Rückkopplung. Und das ist nur Wasser und Eis. Bevor wir uns auf vulkanische Aktivität, Meteor Einschläge, Kontinentaldrift. Sonnenvariabilität und Milankovitch Zyklen und.. und …und … stürzen.

Das Wunder der AGW ist, dass all dies einfach beiseite geworfen wurde. Als einziger Treiber wurde CO2 als eine Art Konstante oder ein Multiplikator genommen. Wenn alles, was Sie kennen, lineare Systeme sind, sieht alles aus wie ein lineares System von einem externen Treiber gestört. Wenn der einzige Treiber den Sie haben CO2 ist, sieht alles aus wie CO2.

Ingenieure, die die Theorie der Regelungstechnik studiert haben, sind nicht so arrogant. Und können in dem unregelmäßigen Sägezahn der Temperatur-aufzeichnungen der Eiszeit ein System erkennen, das bemerkenswert aussieht wie böse mehrere (negative) Rückkopplungen eines verzögerten Relaxationsoszillator [einfach ausgedrückt: Sägezahngenerator]. Oszillatoren müssen keine externen Signale bekommen um sich zu ändern, sie tun dies vollständig innerhalb der Rückkopplungen, die sie enthalten. Es genügt ein Elektron des thermischen Rauschens und sie beginnen.

Die Prüfung der Temperaturaufzeichnung zeigt, dass Vereisung langsam vor sich geht. Es dauert viele, viele Tausende von Jahren während das Eis zunimmt bevor die niedrigsten Temperaturen erreicht werden. Positiver werdende Temperaturen sind viel schneller – es sind nur 10.000 Jahre nach der letzten Eiszeit.

Der Schlusspunkt ist dies: Für einen Ingenieur ist die Klimawissenschaft des IPCC schlicht Unsinn. Es stehen viel viel bessere Modelle zur Verfügung, um den Klimawandel auf der Grundlage der Komplexität der Wechselwirkungen mit der Wassertemperatur zu erklären. Leider sind sie auch für die größten Computer viel zu komplex, um in Klima-Simulationen von großem Nutzen zu sein. Und sie haben keinen politischen Wert wie auch immer, da sie im Wesentlichen sagen „Klimaänderungen sind unabhängig von menschlichen Aktivitäten, über Hauptzyklen von 100.000 Jahren, und damit einfach unberechenbar aufgrund erheblich vielfältiger Faktoren über die wir keine Kontrolle haben“


UPDATE: Ein zusätzlicher und klärender Kommentar wurde von Leo Smith am 6. Januar 2015 um 6:32 Uhr veröffentlicht

Schaut mal, da wurde dieser eilig eingetippte Beitrag (ohne dass ich es wusste …) als Blog-Kommentar hochgeladen. Ich akzeptiere, die Formel ist nicht ganz das, was ich meinte, aber Sie haben die allgemeine Idee mitbekommen; OK?

Wenn ich gewusst hätte, es würde ein Post werden, hätte ich viel mehr Sorgfalt darauf verwendet. Ich hätte k nicht verwendet, wo es verwirren könnte, dargestellt, dass Delta log nicht das gleiche ist wie log delta ..

Aber die Hauptpunkte bleiben:

(i)             Die IPCC „Formel“ bildet die Daten schlechter ab als andere, ebenso einfache Formeln mit ebenso vielen Unbekannten.

(ii)            Die IPCC Formel ist eine lineare Differentialgleichung.

(iii)          Es gibt keinen Grund zu bezweifeln, dass große Teile des Strahlungs- / konvektiven Wärmekreislaufs / Gleichgewicht des Klimas nicht linear sind.

(iv)         Es gibt gute historische Gründe, anzunehmen, dass die Gesamtrückmeldungen des Klimasystems negativ sind, und nicht positiv, wie das IPCC davon ausgeht.

(v)           angesichts der Zahl der Rückkopplungspfade und der Verzögerungen die mit ihnen verbunden sind, gibt es mehr als genug Spielraum im Klima für selbst erzeugte, chaotische quasi-periodische Schwankungen auch ohne externe Impulse, die durch eine stetige Sonne erzeugt werden.

(vi)         Angesichts der wahrscheinlichen Form einer gesamten realen Klima Gleichung, gibt es keine Hoffnung, so etwas wie eine realistische Prognose mit der aktuellen Generation von Computersystemen und mathematischen Berechnungsmethoden zu erhalten.

(vii)        Chaos Stil Gleichungen gehören zu den härtesten und schwierigsten Problemen die wir haben. In der Tat kann es auch keine endgültige Antwort auf den Klimawandel geben, jenseits des Flügelschlagens eines Schmetterling in Brasilien und dem Kippen des Klimas in eine neue Eiszeit oder eine Warmzeit 😉

(viii)      Ein Punkt, den ich nicht machte: ein chaotisches System ist niemals „im Gleichgewicht“, und sogar ihr Mittelwert hat wenig Sinn, weil es nur eine mathematische Kuriosität ist- ein einzelner Punkt in einem Bereich, während das System keine Pause kennt – es stellt lediglich einen Punkt  zwischen den oberen und unteren Grenzen dar; Schlimmer noch, ein System mit mehreren Attraktoren, mag für längere Zeit noch nicht einmal in die Nähe des Systemorbits kommen.

Kurz gesagt, sind meine derzeitigen Überlegungen:

– Es gibt weder so etwas wie ein normales Klima, noch eine Balance, die der Mensch gestört hat oder stören könnte. Es wechselt ständig und kann überall von Eiszeit zu ernsthafter Wärme gehen über extrem lange Zeiträume. Es tut dies ganz von allein. Es braucht keine externen Treiber, um es von einem Attraktor zum anderen zu bewegen oder beliebige Attraktoren zu umkreisen. Dass es Klimaveränderungen gibt ist unbestreitbar. Dass irgendetwas, außerhalb des Klimas selbst, Änderungen verursacht, ist zutiefst zweifelhaft. Dass das CO2 hat einen großen Einfluss hat, ist bei den gegebenen Daten, so absurd, als wenn behauptet wird, CO2 hat überhaupt keine Wirkung.

Was wir hier erleben ist eine sehr klug eingefädelte Irreleitung, gebacken aus wirtschaftlichen und politischen Motiven: Es passte vielen Leuten in die Geschäftsbücher, CO2-Emissionen als beängstigenden Schadstoff zu darzustellen. Eine temporäre Korrelation der steigenden Temperaturen und CO2 wurde in einer linearen Weise verknüpft, sodass jeder drittklassiger Wissenschaftler es verstehen konnte, eine plausible Formel für eine beängstigende AGW zu präsentieren. Ich habe darauf hingewiesen, dass auch andere Interpretationen der realen Daten kein beängstigendes Szenario ergeben, und in der Tat, posten Sie die [Text-] Pause,… tatsächlich passen die Daten besser.

Ockhams Rasiermesser hat nichts zur Verteidigung von Beiden zu sagen.

Poppers Falsifizierbarkeit ist keine Hilfe, weil das eine Modell – das des IPCC – gefälscht worden ist. Das andere kann keine Vorhersagen treffen über „Änderungen passieren ganz von selbst, in einer Weise, die wir nicht vorhersagen können“. Damit kann das nicht verfälscht werden. Wenn Sie die Newtonschen Gesetze testen wollen, so wäre der letzte Versuch Sie verwenden würden, ein Ei auf einen Dorn zu werfen, um vorherzusagen, wo die Bits der Eierschale landen werden….

Das Ergebnis propagierten Klimawissenschaft ist es nicht wert, einen Cent darauf zu setzen. Wir sollten das Geld sinnvoller ausgeben um für moderate Klimaänderung in beiden Richtungen gewappnet zu sein. Vor einigen Jahren wollte mein Geschäftspartner – 10 Jahre jünger als ich – eine Versicherung abschließen, für den Fall das ich sterbe oder unter einen Bus komme. „Wie viel [Versicherungsleistung], für wie viel [Prämie]?“  – „Nun, da Sie auch ein Raucher sind und alt, so kostet das eine Menge“ Es war teuer genug die jährlichen Gewinne zu vernichten und unser Geschäft gleich zweimal. Seltsamerweise ist nun mein Partner tot durch Prostata-Krebs und ich habe Hodenkrebs überlebt. Und mit etwas Glück, auch eine blockierte Korona Arterie. Manchmal können Sie das Risiko selbst tragen, weil die Versicherung dagegen mehr kostet … wenn wir wirklich ernsthaft über den Klimawandel besorgt wären, würden wir mittlerweile bereits bei 100% Kernkraft sein. Es ist eine erprobte und sichere Technik und hat Dollar für Dollar den zehnfachen Einfluss an Kohlenstoffreduzierung bewiesen gegenüber erneuerbaren Energien. Aber natürlich war die Kohlenstoff-Reduktion nicht das eigentlich geplante Spiel. Die politische Kontrolle von Energie war es. Es ist so viel einfacher und billiger Regierungen zu bestechen als in einem freien Markt zu konkurrieren…

Wenn – und das ist etwas, nachweisbar sein sollte – die dominanten Bedingungen der Rückkopplung in den realen Klima Gleichungen nicht linear und mehrfach zeitverzögert sind DANN haben wir ein komplexes chaotisches System, das ständig in einem mehr oder weniger unvorhersehbaren Fluss sein wird.

Und wir pinkeln gegen den Wind, wenn wir es mit einfachen linearen Differentialgleichungen versuchen um parametrierten Unsinn zu modellieren.

Die ganze Fingerfertigkeit der AGW Bewegung war es, Wissenschaftler, die keine Ahnung von der nicht-linearen Systemtheorie haben, davon zu überzeugen, dass sie sie nicht brauchen, um Klimamodelle zu erstellen. Und dass alle Schwankungen „verursacht werden MÜSSEN“ und CO2die politisch beste und kommerziell bequemste Äußerlichkeit ist –– dabei schwingt wesentlich eine Anti-Wissenschaft und nichtkommerzielle Stimmung mit, die von den ideologischen Schlachten im Kalten Krieg übrig geblieben sind.

AGW ist politische Propaganda und keine Wissenschaft. AGW schmeichelt all den schlimmsten Menschen zu denken, sie wären wichtiger als sie es sind. Für einige zahlt sich die grüne Bewegung in klingender Münze aus, so wie für die Universitäten. Sie alle tanzen nach der Pfeife, die von der unheiligen Allianz aus kommerziellem Interesse, politischer Macht und politischem Marketing bezahlt wird. Sie kauften sie alle, jedoch das Klima konnten sie nicht kaufen. Mutter Natur ist keine Hure.

Ob AGW ein vorsätzlicher Betrug ist, ein ehrlicher Fehler oder nur schlampige und ignorante Wissenschaft ist strittig. Zu jeder gegebenen Version gibt es die eine oder andere oder jede beliebige Kombination.

Was es wirklich ist, ist eine emotionale Erzählung, darauf ausgerichtet, den Dummen zu schmeicheln und ihre Scheinheiligkeit zu begünstigen. Damit werden sie zu Verbündeten in einem Prozess gemacht, dem sie sich völlig widersetzen würden, wenn sie von den dahinter stehenden Absichten wüssten.

Die enormen Schäden an der Umwelt werden von Umweltschützern gerechtfertigt, weil der höhere Zweck sagt, Windmühlen und Sonnenkollektoren retten den Planeten. Auch wenn es möglich ist zu zeigen, dass diese so gut wie keine Auswirkungen auf die Emissionen überhaupt haben und es ist zutiefst zweifelhaft ist, ob diese Emissionen in irgendeiner Weise überhaupt signifikant sind.

Grün ist völlig Anti-Nuclear. Wobei – sogar nach ihren eigenen Behauptungen – ein paar hundert Tonnen langlebige Radionuklide in Glas verkleidet und eine Meile tief im Untergrund versenkt weniger schädlich ist als eine Milliarde Tonnen CO2?

Offenbar ist die Strahlung, die in Fukushima keine einzige Person weder verletzt noch getötet hat, weit, weit gefährlicher als das CO2. Weil Deutschland lieber stinkende Braunkohle verbrennt und seine Flüsse im Tagebau verschmutzt, als es zu erlauben, ein Kernkraftwerk innerhalb seiner Landesgrenzen zu betreiben.

Vor Jahren sang Roy Harper [britischer Singer-Songwriter]:
„Man kann ein Pferd zum Wasser führen, aber man kann ihm nicht beibringen zu trinken. Sie können einen Mann zu seinem Schlachter führen, aber Sie werden es nie schaffen ihn zum Denken zu bringen“

Ich hatte ein Gespräch mit einem Freund, der düsteren Gedanken nachhing. Wir stimmten überein, die Welt ist ein Chaos, weil die Leute nicht denken, sondern sie folgen Führern, Trends und emotionalen Erzählungen, obwohl sie Weisheit erhielten. Nicht ein einziges Mal traten sie einen Schritt zurück und fragen: was ist denn wirklich hier los? „.

Eine andere Bekanntschaft macht Ausbildung in Finanz-Management. Auf der Schulungstafel steht geschrieben: Jeder, der eine Erklärung mit den Worten:“ Ich glaube“ anfängt und dann zu einer fremden Meinung, Analyse oder Lehrmeinung übergeht, wird in diesem Kurs durchfallen und kurzerhand rausgeworfen.

Und schließlich Anthony (Watts), ich bin nicht sicher, dass ich diesen Beitrag posten wollte. Ich möchte nicht von jemand anderem die Weisheit bekommen. Ich möchte, dass die Kerle anfangen für sich selbst zu denken.

Wenn das bedeutet, Systemanalyse der Regelungstechnik und Chaos Mathematik zu studieren, dann mach es. Und bilden Sie sich Ihre eigene Meinung

„Folgen Sie nicht dem Führer, beachten Sie ihre eigenen Erkenntnisse“ Ich sage dass die Leute nicht denken. Beweisen Sie, dass ich falsch liege. Glauben Sie nicht mir, machen Sie Ihre eigene Analyse. Hören Sie auf vertrauensvoll zu sein und beginnen Sie zu denken.

Ich werde Sie mit einem letzten erschreckenden Gedanken verlassen. Denken Sie über folgende Aussage:

„100% aller Nachrichten “ in den Medien und „90% der so genannten“ Wissenschaft und eine alarmierende Zahl von Blog Material erklärt nicht das, was tatsächlich ist. Noch ist das, was die Leute denken wie es tatsächlich wäre, korrekt. Aber aus persönlichen Gründen möchten die Leute, dass das was sie denken richtig ist.

Schließlich, wenn ich je zum Abschluss komme, für diejenigen, die fragen: „Wie kann es sein, dass so viele Menschen gefangen sein sollen, wie Sie behaupten, in einer großen Verschwörung oder so etwas in der Art?“

Ich bin beschäftigt mit dem Schreiben einer philosophischen, psychologischen und sozialen Erklärung. Es heißt „bequeme Lügen“ und es zeigt, dass bigotte Vorurteile wie Dummheit und Bestechlichkeit meistens nützlich sind für das Überleben von Arten.

Natürlich, die jetzigen dunklen Zeiten sind eine interessante Facette, aber sie ist das gefährlichste der Welt. Der Herde folgen ist sicherer als alleine zu gehen und sich zu verirren. Es sei denn, die Herde nähert sich der Klippe und die Führer sorgen sich mehr darum wer ihnen folgt als das über das wohin sie gehen … AGW ist eine der großen Gefahren für die Menschheit, nicht weil es wahr ist¸ sondern weil es allgemein geglaubt und nachweislich falsch ist.

Meine Analyse der bequemen Lügen zeigt, dass der tiefe soziale und wirtschaftliche Wandel in der Gesellschaft das gefährlichste ist, wenn die Konventionen einfach nicht gut sind.

Ich fühle in diesen Tagen mehr Angst als zu irgendeinem Zeitpunkt des kalten Krieges. Damals spürte man, dass niemand dumm genug wäre, um Weltkrieg drei starten. Heute habe ich nicht mehr diese Überzeugung. Zwei Generationen von Social Engineering, die auf das Ziel hinarbeiten, alle Risiken zu beseitigen bringt eine Gesellschaft hervor, die dumm genug und selbstgefällig ist und sich sicher fühlt, um die westliche Zivilisation zu zerstören, nur weil sie das als ganz selbstverständlich annehmen.

Für sie ist die Förderung der AGW eine Erfolgsgeschichte in Bezug auf die politische und kommerzielle Vermarktung. Die Tatsache, dass sie uns über eine Klippe in ein neues finsteres Zeitalter führt, ist etwas, das sie einfach nicht berücksichtigen.

Für ihre Gewinne haben sie das Risiko und abweichende Meinungen aus der Gesellschaft verbannt. Sie hinterlassen eine Gesellschaft, die nicht für sich selbst denken kann und es auch nicht nötig hat. Es gilt, folgen Sie blind den Regeln. Die Theorie des Steuerungssystems sagt, dass dieses anders als das Klima, eine zutiefst instabile Situation ist.

Wach auf, riechen Sie den Duft. .AGW ist einfach ein anderes Element im Trend zur politischen Kontrolle über alles und die Unterwerfung des Individuums in der Masse der Gesellschaft insgesamt. Keine Entscheidung ist von der Einzelperson zu treffen, alles wird durch die zentralisierten bürokratischen Strukturen entschieden, wie die des IPCC. Die Frage ist, ist das eine funktionale und effektive Möglichkeit, die Gesellschaft zu strukturieren?

Ich behaupte, dieses ist zutiefst gefährlich. Es führt zu einer massiven und langsamen zentralen Steuerung, schlimmer noch, es führt einen Einzelfehler ein. Hat die Zentralregierung eine Panne oder gerät ins Stocken, wissen die Menschen nicht mehr was zu tun ist. Niemand hat mehr die Fähigkeit oder die Praxis zu lokalisierten Entscheidungen.

Es geht darum, AGW und die ganze grün laufende Maschine nur als einen Aspekt einer bestimmten Phase der politischen und gesellschaftlichen Entwicklung zu sehen und zu verstehen. Vor dem Zeitalter des Telegrafen und der sofortigen Kommunikation, mussten die Regierungen Entscheidungen delegieren – die Verzögerung war zu groß, um Entscheidungen zentralen Behörden zu überlassen. Heute denken wir, wir könnten die Zentrale entscheiden lassen, aber es gibt sowohl eine bürokratische Verzögerung, als auch bürokratische Inkompetenz.

Systemtheorie, auf politische Systeme angewendet, gibt eine wirklich beängstigende Vorhersage. Wir sind am Anfang des fast völligen Zusammenbruchs und wir haben keine lokalen Systeme um die zentralen Strukturen, die völlig dysfunktional sind, zu ersetzen. Früher oder später wird irgendein Anlass die Fähigkeit der zentralen Bürokratie damit umzugehen, überwältigen, und sie wird scheitern. Und nichts sonst wird gelingen, weil die Menschen nicht mehr für sich selbst denken können.

Die Menschen sind faul und überlassen anderen das Denken. Und sie bezahlen ihnen riesige Summen und akzeptieren die Ergebnisse bedingungslos.

Glückliches neues Jahr

Leo Smith – January 6, 2015

Übersetzt durch Andreas Demmig

Quelle: http://wattsupwiththat.com/2015/01/06/on-the-futility-of-climate-models-simplistic-nonsense/

Obiger Beitrag schlug bei Watts Up With That  hohe Wellen. Am 13. Jan. waren bereits  662 Kommentare gepostet.

About these ads

Beschreibung: http://sync.mathtag.com/sync/img?type=sync&mt_exid=20&redir=http%3a%2f%2fdis.eu.criteo.com%2frex%2fmatch.aspx%3fc%3d2%26uid%3d%5bMM_UUID%5d




Das „2°-Klima-Z i e l“ – Ein politisches Konstrukt ! (Kopie 1)

H i s t o r i e

Bereits in den 70er Jahren wurde eine "2°-Marke" bei historischen Klima-Betrachtungen erwähnt [2]:

"William D. Nordhaus (Yale University), einer der weltweit führende Klima-Ökonomen, führte im Jahr 1975 erstmals die 2°C-Marke als kritische Grenze der Erderwärmung an. Er begründete dies mit Hilfe des normalen Bereichs langfristiger Klima-Änderungen der letzten Hunderttausende von Jahren. In diesem Zeitraum seien Schwankungen von ± 5 °C aufgetreten."

Diese damalige Überlegung hatte noch keinen Bezug zur derzeitigen AGW-Katastrophen-Debatte, denn zu dem Zeitpunkt (1975) befanden wir uns mitten drin in einer Phase zweier Jahrzehnte globaler Abkühlung [3], die auch in den Medien drastisch reflektiert wurden [4]:

"Kommt eine neue Eiszeit ?Katastrophe auf Raten …".

In neuerer Zeit war es dann der nach seine Gründung 1992 zunehmend ideologisierte und alarmistische "Wissenschaftliche Beirat der Bundesregierung Globale Umwelt-Veränderungen"  (WBGU), der im Rahmen der seinerzeit beginnenden  CO2-Klima-Hysterie schon frühzeitig über irgendwelche "zu regulierenden Temperatur-Ziele" bei der Klima-Erwärmung philosophiert hat, wobei man dort 1995 zunächst findet [5]:

"Aus der Analyse der ökologisch und ökonomisch vermutlich noch tragbaren Belastungen durch Klimaänderungen wird zunächst ein "Toleranzfenster" für die zulässigen Klimaentwicklungen festgelegt. Ökologische Grenzen ergeben sich dabei aus der Maximaltemperatur und den Temperaturgradienten, an die sich die Biosphäre noch anpassen kann."

A.a.O. ist jedoch selbst im Kapitel "A.1.1. Tolerierbare Belastung für Natur und Gesellschaft" das <2°-Ziel> noch nicht auffindbar. Lediglich einer Graphik (Abb.A1 a.a.O.) ist ein "Tolerierbarer Akzeptanzbereich für ein Temperaturfenster“ zu entnehmen : 1,3 Grad zwischen To ("derzeitige mittlere globale Temperatur 15,3°C")  und Tmax ("Tolerierbarer Akzeptanz-Bereich 16.6°C").

Das <2°-Ziel> wird dann beim WBGU erstmals 1997 ausdrücklich dokumentiert  [6]:

"Eine Erwärmung um mehr als 2°C (bezogen auf den vorindustriellen Wert) bzw. eine Erwärmungsrate von mehr als 0,2°C pro Dekade kennzeichnen demnach Klima-Änderungen, die in keinem Fall als tolerierbar angesehen werden."

Diese <2°> tauchen dann weiterhin auf in all den zahlreichen WBGU-Folgeberichten [7]. Diese umfassen Tausende und Abertausende Seiten – mit Anhängen, Erläuterungen, Hunderten von Graphiken und Tabellen. Der Aufwand an Zeit und Geld war und ist gigantisch. Ob all das wohl jemals jemand durch gelesen hat ? Der Autor hier hat es versucht, auf der Suche nach der "Erfindung" des <2°-Zieles> : Gähnende Langeweile und Erschöpfung breiten sich aus, denn neben den naturwissenschaftlichen Betrachtungen und daraus "abgeleiteten" Spekulationen und Horror-Szenarien für eine trotz alledem ungewisse  Klima-Zukunft enthalten die WBGU-Papiere  auch zahlreiche philosophische, religiöse ("Schöpfungsbewahrung") und nahezu esoterischen Passagen.

Jedoch  –  das ist nicht Thema dieses Aufsatzes hier.

Sehr bald schon hat sich dann die Politik dieser naturwissenschaftlich u.E. aberwitzigen und absurden Zahl bemächtigt, allen voran die "Klima-Rettungs-Oberlehrer" Deutschland und EU [8] :

"Die Europäische Union propagiert das 2-Grad-Ziel in ihrer Klimapolitik bereits seit dem Jahre 1996 und hat es im Jahre 2007 in den Mittelpunkt der ersten europäischen Energiestrategie gerückt."

Eine darüber hinaus gehende, politische Protokollierung erfolgte im Juli 2009 auf dem G-8-Gipfel in L’Aquila [9] :

“L’Aquila – Die großen Industriestaaten sind sich im Klimaschutz zumindest ein wenig näher gekommen: Auf dem G-8-Gipfel im italienischen L’Aquila haben sich die USA, Kanada, Japan, Deutschland, Großbritannien, Italien, Frankreich und Russland zu dem Ziel bekannt, den globalen Temperaturanstieg im Vergleich zum Beginn des Industriezeitalters auf zwei Grad Celsius zu begrenzen.“

Ganz anders beim Klimarat, wo in den IPCC-Berichten zunächst bis 2009 die "2-Grad-Marke" als ZIEL nicht erwähnt wird [10]:

"Im 4. IPCC-Sachstands-Bericht findet sich … keinerlei eindeutige Bezugsnahme auf eine Zielmarke von 2 Grad Celsius"

Das wird bestätigt in einer ausführlichen Analyse von Deutsches Institut für Internationale Politik und Sicherheit Berlin: Abkehr vom 2-Grad-Ziel [11] :

"Schon der jüngste IPCC-Report (Anm.: hier 2009) legt sich hinsichtlich einer Interpretation des in Artikel 2 UNFCCC genannten Stabilisierungsziels keineswegs fest, nicht auf eine spezifische Zielkategorie, erst recht nicht auf konkrete Höchstwerte. Der 4. Sachstandsbericht diskutiert vielmehr ergebnisoffen die Vor- und Nachteile für sechs mögliche Zielkategorien, …".

Ähnlich verhält es sich auch weiterhin im jüngsten IPCC-Bericht 2014.

Die "2°-Marke" wird dort zwar erstmals im SPM des AR5 im Jahre 2014 erwähnt [12] :

"Scenarios without additional efforts to constrain emissions (“baseline scenarios”) lead to pathways ranging between RCP6.0 and RCP8.5. RCP2.6 is representative of a scenario that aims to keep global warming likely below 2°C above preindustrial temperatures (Figure SPM.5.a+b)."

J e d o c h :

Der dazu angeführte Bezug ist wiederum, wie schon in den Vorberichten, lediglich eine Abbildung (Fig. SPM.5.a+b" ; vgl. Abbildung). Auch diese enthält das <2°-Szenario> wiederum nur als eines von sechs, wie schon in den w.o.a. IPCC-AR’s von 2001 und 2009 !

             

                        Fig. SPM.5 (IPCC 2014; http://tinyurl.com/nlf2gbe)

Folglich:

Das IPCC führt die "2-Grad-Debatte" nur als eine Möglichkeit von vielen; sehr viel zurückhaltender, als das bei den "Ober-Alarmisten" in Deutschland und bei der EU getan wird, wo die <2-Grad-Modell-Variante> zum <2-Grad-Ziel> mutiert wurde.

Bemerkenswert auch, daß selbst die ohnehin sehr alarmistischen jährlichen UNO-Klimakonferenzen (COP’s seit 1995) das <2-Grad-Ziel> nicht erfunden haben, sondern offensichtlich erst dem politischen Mainstream in Deutschland und EU – zunächst zögerlich(!) – ab 2009 folgten [8] :

"Jedoch wurde es von den 194 Teilnehmerstaaten der 15. UN-Klimakonferenz in Kopenhagen im Jahre 2009 lediglich zur Kenntnis genommen und ist somit nicht als rechtlich bindendes Ziel anerkannt."

Erst ab 2010 gab es dann bei den UN-COP’s kein Halten mehr [13]:

"2009 wurde das Ziel im Abschlußdokument der UN-Klimakonferenz in Kopenhagen aufgegriffen und auf der UN-Klimakonferenz in Cancún (Mexiko) im Dezember 2010 erstmals offiziell akzeptiert."

Das beinhaltet jedoch keinerlei völkerrechtliche Anerkennung oder gar Festschreibung, was jüngst 2014 auch wieder beim Deutschen Bundestag nachzulesen war [14]:

"Der Forscher (Anm.: H.-J. Schellnhuber) forderte daher im Namen des WBGU, das Zwei-Grad-Ziel rechtsverbindlich zu verankern. Bisher sei dieser 2010 in Cancun getroffene Beschluß in keiner Weise völkerrechtlich abgesichert."

Bei alledem:

Die rein politisch dominierten jährlichen UN-Klima-Konferenzen (COP 1-20 ; Berlin 1995 … Lima 2014) dürfen nicht verwechselt werden mit den IPCC-Konferenzen, auf denen die nur alle 5-7 Jahre erscheinenden Klimarat-Reports präsentiert werden.

Während auf den UN-COP’s seit einigen Jahren das <2°-Ziel> nun plakativ propagiert wird, spielt in den IPCC- Berichten und diesbezüglichen Konferenzen diese <2-Grad-Marke> keine hervor gehobene Rolle, sondern erscheint nur  als ein Szenario von vielen. Zumindest das darf man dem sonst eher alarmistischen Klimarat IPCC zu Gute halten.

Das ist wissenschaftlich auch folgerichtig, denn in einem Arbeitspapier des Deutschen Instituts für Internationale Politik und Sicherheit Berlin werden nochmals die vielen Unsicherheiten von Modellen und Klimafolgen klar gestellt [11] :

"In der erkennbaren Tendenz zur Vereindeutigung der Ursache-Wirkungs-Ketten wird auf Seiten von Klimapolitik und Medienöffentlichkeit zumeist ausgeblendet, daß nicht nur Aussagen über die konkreten Folgen eines Temperaturanstiegs um 2 Grad mit einem hohen Maß an Unsicherheit behaftet sind. Auch die Schätzungen über das Ausmaß des Zusammenhangs der atmosphärischen Konzentration von Treibhausgasen und dem Anstieg der globalen Durchschnittstemperatur weisen eine sehr hohe Bandbreite auf, die sich zudem von Klimamodell zu Klimamodell deutlich unterscheiden können."

Die weiter oben differenzierte Diskussion zu den IPCC-Szenarien verdeutlicht das im Detail.

W a r u m  ausgerechnet "genau" 2 Grad ?

Es gibt Tausende von Artikeln, Publikationen, Medien-Aufsätzen aller Art über diese Zahl.

J e d o c h :

Eine wissenschaftlich abgeleitete quantifizierbare Berechnung und Begründung zu dieser "ausgewählten" Zahl existiert nirgendwo !

Stattdessen wird drumrum geredet, philosophiert, schwadroniert, geplappert, geschwätzt … und über allerlei Minderungs-Quoten von CO2 und der anderen Treibhaus-Gase spekuliert und geschwafelt, um ein solches <2-Grad-Ziel> zu erreichen. Eine wissenschaftlich auch nur halbwegs überzeugende Berechnung für ausgerechnet diese Zahl gibt es nicht, und kann es auch aus physikalischen Gründen gar nicht geben! Auch beim IPCC ist es stets nur ein Szenario von vielen.

Es wird hier nicht als lohnenswert erachtet, einzelne Zitate aus der unüberschaubaren <2-Grad-Ziel-Debatte> heraus zu greifen und zu diskutieren und zu kommentieren. Jeder kann sich selbst im WEB von all diesem Durcheinander und Unfug ein Bild machen.

Man kann diese <2-Grad-Lotto-Zahl> durch eine "x-beliebige" andere Zahl ersetzen, gegebenenfalls nach oben oder unten nahezu beliebig verschieben, mit Komma-Stellen versehen oder auch nicht. Die zu Tausenden auffindbaren "Behauptungen und Erläuterungen" dazu passen zu allem – und letztlich zu NICHTS!

F a z i t :

Es handelt sich um eine politische und ideologische Zahl,
die wissenschaftlich absurd und nicht begründbar ist !

So kann es nicht Wunder nehmen, daß es dazu eine Fülle von kritischen Publikationen und Kommentaren seriöser Wissenschaftler gibt, die sogar bis in die "Alarmisten-Szene" hinein reichen.

Einige Beispiele seien in Folgendem aufgeführt :

"Internationaler Konsens" : Kritik und auch Spott für das <2-Grad-Ziel>

()  Prof. Horst Malberg (eh. Dir. d. Inst.f.Meteorologie, FU Berlin) [15] :

"Wie ideologisch vermessen muß man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben. Der dominierende solare Einfluss auf unser Klima in Verbindung mit dem thermischen Gedächtnis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch als Zauberlehrling versucht."  

()  Prof. Hans von Storch (Dir.Inst.f.Küstenf. HH) [16] :

“Politik darf sich nicht hinter angeblich wissenschaftlichen Notwendigkeiten verstecken – solche Notwendigkeiten gibt es nicht in der Klimapolitik, auch nicht das Ziel der Begrenzung der Erwärmung auf 2 Grad relativ zum vorindustriellen Zustand.“

()  Prof. Martin Claußen (Max-Planck-Institut für Meteorologie in Hamburg) [17]:

"Das Ziel, die Erderwärmung auf zwei Grad gegenüber dem vorindustriellen Zeitalter zu begrenzen, sei politisch begründet, aber nicht wissenschaftlich; allenfalls Wissenschaftler, die die Nähe zur Politik suchten, sähen dies anders. Was Claußen meint: Wissenschaftler, die apokalyptische Horrorszenarien entwerfen, erlangen Schlagzeilen. Und Wissenschaftlern mit kurzem Draht zur Politik winken Drittmittel.“

()  Prof. Reinhard Hüttl (Direktor GFZ Potsdam) [18]:

"Wie wir gesehen haben, besteht das System Erde aus einer Vielzahl von Teilsystemen. Das Klima ist eine der Schnittstellen, auf die Prozesse in Atmosphäre, Hydrosphäre, Geosphäre, Biosphäre und Anthroposphäre einwirken. Unsere Forschungen geben uns ständig neue und überraschende Einsichten in diese Prozesse und ihre verzweigten Wechselwirkungen, und wir sind immer noch weit davon entfernt, sie vollständig zu verstehen.

Vor diesem Hintergrund erscheint die Annahme, wir könnten die aktuelle Entwicklung durch Reduktion der vom Menschen verursachten Treibhausgasemissionen bis 2050 auf zwei Grad begrenzen, als fragwürdig. Eine tatsächliche Erreichbarkeit dieses Zwei-Grad-Ziels läßt sich wissenschaftlich nicht begründen, dafür sind im Gesamtsystem Erde zu viele Variablen im Spiel, und auch der Teilkomplex Klima selbst besitzt eine hohe Eigendynamik."

()  Prof. Claus Leggewie (Dir.Kulturwiss.Inst.Essen) u. Prof. Reinhard Leinfelder (FU Berlin) [19]:

Die Zwei-Grad-Leitplanke ist im politischen Jargon zum Zwei-Grad-Ziel mutiert … wer dann einen (Anm.: "einen bestimmten“) Temperaturanstieg als Leitplanke setzt, bleibt zwar Wissenschaftler. Er wird dabei aber zwangläufig politisch, und somit Partei eines Interessenkonfliktes.“

()  Nahezu vernichtend für das <2-Grad-Ziel> ist die Kritik von drei DirektorenInnen namhafter Wissenschafts-Institute [20] in einem sehr ausführlichen Interview in der FAZ [21]:

Drei große deutsche Geo-Insitute stellen sich quer zur internationalen Klimapolitik. Statt nur über Temperaturen und Emissionen sollte über ein Erdsystem-Management verhandelt werden, sagen die drei Direktoren. In Kürze soll das auf der gemeinsamen Konferenz „Klima im System Erde" in Berlin besprochen werden. Im Gespräch erläutern sie ihre Motive.“

MOSBRUGGER: "Wir wissen zu wenig, um sagen zu können, wo die Schwellenwerte für die wichtigsten Klimaelemente liegen. Das Problem, vor dem wir stehen, ist viel komplizierter als nur ein Klimawandel. Wir müssen das gesamte System in Betracht ziehen."

….

HÜTTL: "Das Klima ist dynamisch. Im Laufe der Erdgeschichte gab es immer wieder dramatische Veränderungen, die weit über eine solche Grenze von plusminus zwei Grad hinausgingen. Und das war allein auf natürliche Faktoren zurückzuführen."

……..

HÜTTL: "Wärmephasen waren nicht immer katastrophal. Sie haben auch zur Artenvielfalt beigetragen. Oder schauen Sie sich die Entwicklung vom Homo sapiens seit der letzten Warmphase vor 150 000 Jahren an. Unsere Spezies hat in dieser Zeit den Klimawandel gemeistert. Wir sind außergewöhnlich anpassungsfähig. Nur haben wir zuletzt eben eine glückliche Situation mit relativ stabilem Klima gehabt. Daher kommt sicher auch die Forderung nach der Zwei-Grad-Grenze. Das ist politisch wünschenswert, aber aus geowissenschaftlicher Sicht nicht haltbar."

…………

MOSBRUGGER: "Jetzt ausschließlich auf Emissionsreduktionen zu setzen, ist unklug. Wir müssen uns darauf einzustellen, daß sich das System immer verändert."

…………

LOCHTE: "Die Auflösung der Modelle ist nicht perfekt. Je weiter man in die Vergangenheit zurückrechnet, um so problematischer wird das. Das gilt auch für Hochrechnungen in die Zukunft."

…………..

HÜTTL: "Aus geowissenschaftlicher Sicht wird deutlich, daß wir grundsätzliche Zusammenhänge noch nicht verstehen."

……….

HÜTTL: "Die Politik konzentriert sich derzeit fast ausschließlich auf die Kohlendioxid-Reduktion. Wir wissen aber, daß das System Erde komplex ist. Es gibt natürliche Effekte, die wir so nicht einfach kontrollieren können, wie wir uns das vorgestellt haben."

…………..

MOSBRUGGER: "Es ist kein Erdsystem-Management, wenn man sich nur auf einen Parameter fokussiert."

…..

D a s  war und ist "starker Tobak" für die "2-Grad-Alarmisten" – und zwar von kompetenter Stelle !

Und das ausgerechnet  v o r  dem UNO-Klima-Gipfel in Kopenhagen im Dezember 2009.

So ist es nicht verwunderlich, daß es einen "Alarmisten-Aufschrei" gab [22]:

 “Merkel will am Klimagipfel teilnehmen und so ihr politisches Gewicht in die Waagschale werfen. Da kommt es höchst ungelegen, wenn Forscher die Sinnhaftigkeit des 2-Grad-Limits anzweifeln. Genau das aber taten drei führende deutsche Geowissenschaftler“.

… u.w.a.a.O. im FOCUS

“Dem widersprechen vier namhafte Klimaforscher um den Fachbereichsleiter Peter Lemke vom Bremerhavener Alfred-Wegener-Institut. Das Interview löse großes Befremden aus, schreiben sie in einem Kommunique.“

Nahezu pikant dabei ist es, daß sich Peter Lemke (AWI) gegen seine eigene Chefin artikulierte.

D a n n  passierte  d a s  [23]:

"Der Kopenhagener Klimagipfel ist vollständig gescheitert: Der von 30 Ländern erstellte Entwurf einer Abschluß-Erklärung wurde in der Vollversammlung vorgestellt – und unter wütenden Protesten zerrissen."

Danach zeigte selbst die "Klima-Kanzlerin" Angela Merkel Wirkung [24]:

"Doch ausgerechnet jetzt vollzieht Kanzlerin Angela Merkel eine Wende in der Klimapolitik.

Noch im Dezember sagte sie: ‚Wenn es uns nicht gelingt, die Erwärmung auf zwei Grad zu begrenzen, dann werden die Kosten für die eintretenden Schäden um ein Vielfaches höher sein als das, was wir mit einer Änderung unserer Lebensweise jetzt erreichen können.‘

Nun gilt: Merkel wird international nicht mehr versuchen, das Zwei-Grad-Ziel vertraglich durchzusetzen, also mit rechtlich verbindlichen Werten für die Reduktion von Treibhausgasen zu versehen. Sie will sich nicht wieder eine Abfuhr holen, weil sie erkannt hat, daß wichtige Länder auch beim nächsten Mal nicht mitziehen werden. Das wurde ihr vor zwei Wochen bei Nukleargipfel in Washington von chinesischen Präsidenten Hu Jintao und vom indischen Premier-Minister Mammohan Singh bestätigt. Deutschland muß nun die Grenzen seines Einflusses einsehen. Die Klimapolitik war ein Versuch, auf der großen Bühne eine Führungsrolle zu spielen. Doch die anderen sind nicht gefolgt. …

Der Kollaps von Kopenhagen hat Merkel nachhaltig verstört …. So eine Demütigung hatte sie selten erlebt … Merkel läßt im Kreis ihrer höherrangigen Kollegen erkennen, daß sie von europäischen Alleingängen nichts mehr hält“.

Wenige Monate später – im April 2010 –  reibt man sich dann die Augen, denn einige der deutschen "Ober-Alarmisten" scheinen in Kopenhagen nicht dabei gewesen zu sein, sondern auf einem ganz anderen Kongreß, wenn man vom PIK-Chef H.-J. Schellnhuber et al. in der ZEIT  [25] liest:

 “2 Grad und nicht mehr ;  Der Kopenhagen-Accord richtet die internationale Klimapolitik zum ersten Mal an einer konkreten Zahl aus.“

Nur:  D i e s e n  “2°-Accord“ gab es dort in Kopenhagen nicht, und es gibt ihn bis heute nicht, wie alle folgenden UNO-Konferenzen gezeigt haben – bis zur "COP Lima 2014" !

D a s   belegen die weiter oben dargelegten Aussagen von namhaften Naturwissenschaftlern, von denen man wohl niemanden den "bösen Klima-Skeptikern" zuordnen kann. 

Sogar innerhalb der alarmistischen Wissenschafts-Diskussion gibt es allmählich ernst zu nehmende Analysen, die sich kritisch mit dem <2-Grad-Ziel> auseinander setzen. Dazu gehört ein im WEB publiziertes 20-seitiges Arbeitspapier von Deutsches Institut für Internationale Politik und Sicherheit Berlin mit dem bemerkenswerten Titel "Abkehr vom 2-Grad-Ziel" [11].

Bevor wir hier einige u.E. beachtenswerte Überlegungen daraus zitieren, sei angemerkt: Es handelt sich um eine bezüglich der CO2-Klima-Katastrophen-Hypothese vollkommen im IPCC-Mainstream gehaltene Arbeit :

"Die hier angestellten Überlegungen dürfen keinesfalls als Plädoyer für eine spezifische Variante der Re-Formulierung des derzeit zentralen klimapolitischen Globalziels mißverstanden werden."

Dennoch präsentieren die Autoren innerhalb des AGW-Mainstreams selten zu lesende naturwissenschaftliche Wahrheiten:

"Das 2-Grad-Ziel … fungiert als zentraler Referenzpunkt der Klimadebatte, mit der bemerkenswerten Besonderheit, daß (Klima-)Politiker durchgängig darauf verweisen, es handele sich dabei um ein wissenschaftlich abgesichertes oder gar von der Wissenschaft vorgegebenes Ziel, während Klimaforschern bewußt ist, daß das 2-Grad-Ziel genuin politischer Natur ist." [a.a.O.: Fußnote 2 auf S.3].

…und weiter a.a.O. zum "2°-Ziel" :

"Aktiv treten für eine solche Leitplanke jedoch nur Teile der scientific community ein. Während das „Intergovernmental Panel on Climate Change“ (IPCC) in seinen viel beachteten Sachstandsberichten auf ein Plädoyer für das 2-Grad-Ziel verzichtet, tritt etwa der „Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) bereits seit Mitte der1990er Jahre für eine solche Zielbestimmung ein."

"Der 2-Grad-Konsens ist innerhalb der Klimapolitik inzwischen derart stabil, daß die Konstruktionsmodi dieser Schranke kaum noch Gegenstand einer öffentlichen Thematisierung sind, geschweige denn einmal kritisch diskutiert werden würden."

…u.w.a.a.O.:

"Wissenschaftlich ist der Versuch, eine eindeutige Grenze zwischen gefährlichem und ungefährlichem Temperaturanstieg zu ziehen, unhaltbar – das wird selbst von denjenigen Klimaforschern, die das 2-Grad-Ziel politisch unterstützen, nicht bestritten. Vorhersagen darüber, welche globale Durchschnittstemperatur in einigen Dekaden gerade noch „sicher“sein wird, lassen sich nicht zuverlässig treffen". 

U.a.a.O. zu "Globaltemperatur" :

"So ist im klimapolitischen Diskurs kaum präsent, daß eine "globale Durchschnitts-Temperatur“ selbstverständlich nicht existiert, daß es sich dabei um ein – wenn auch nützliches – wissenschaftliches Konstrukt handelt."

"Bei der „Herstellung“ der globalen Durchschnittstemperatur müssen die Werte von Tausenden über den Globus verteilten Meßstationen sinnvoll zueinander in Beziehung gesetzt werden. Dementsprechend wird nicht einfach der nominelle Durchschnittswert der gemessenen Temperaturen ermittelt, sondern vielfach eine theoriegeleitete Anpassung dieser Meßwerte vorgenommen, um verfälschende Faktoren zu nivellieren, etwa die regional ungleiche Verteilung der Meßpunkte oder die zunehmende Besiedlung der Umgebung von Meßstationen (Trenberth et al. 2007)."  

….womit der kaum irgendwo herausgerechnete Wärme-Insel-Effekt angesprochen wird, der zu einer Verfälschung der berechneten Global-Temperatur hin zu höheren(!) Werten führt.

Schließlich soll hier den Lesern eine glossierende Betrachtung des Wissenschafts-Journalisten Dirk Maxeiner zum "2°-Ziel" nicht vorenthalten werden [26]:

"Eine Politik, die nicht in der Lage ist, die Krankenkassenbeiträge zu stabilisieren, gibt nun vor, die Welttemperatur in 100 Jahren um 2 Grad regulieren zu können. Und das Schöne dabei: Man kann mit dem sogenannten Klimaschutz alles rechtfertigen, jedes Verbot, jeder Steuererhöhung. Kurz: Man kann die Menschen auf einen Horizont niedriger Erwartungen einstimmen. Also auf etwas, was man ohnehin für geboten hält. Während die Menschen die Stabilisierung der Gesundheitskosten innerhalb einer Wahlperiode überprüfen können, ist eine Erfolgskontrolle beim Klimaschutz – wenn überhaupt – erst in 100 Jahren möglich. Eine beruhigende Aussicht für jeden Politiker, der wiedergewählt werden will."

Der in allen "Lagern" anerkannte und geachtete Mathematiker und Klimaforscher Hans von STORCH, einer der Pioniere der ersten Klima-Modelle beim Max-Planck-Institut in Hamburg, bringt es auf den Punkt – kurz & klipp & klar [27] :

            “Zwei Grad ist eine politische,

                   eine sinnlose Zahl.

          Ich halte das für Verarschung“ !

Danke  –  d a s   genügt !

Klaus-Eckart Puls

==================================================================

N a c h t r a g  :

Der ganze "2-Grad-Unfug" hatte im Januar 2015 wieder mal einen Gipfelpunkt im SPIEGEL-ol. erreicht [28]:

"Studie zur Klimaerwärmung: Diese Brennstoffe müssen im Boden bleiben :

Wenn die globale Erwärmung unter zwei Grad bleiben soll, dürfen 80 Prozent der Kohlevorkommen nicht gefördert werden – das haben britische Forscher errechnet. Auch die Produktion von Öl und Gas müßte eingeschränkt werden."

Dazu werden dann wieder einmal ellenlang all die untauglichen, geheuchelten, verlogenen, wirtschafts-feindlichen, dümmlichen …. Thesen zur Welt-Klima-Rettung ausgebreitet !

==================================================================

Q u e l l e n :

[1] Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen, Gründung 1992

[2] http://www.kwis-rlp.de/index.php?id=7584

[3] http://www.cru.uea.ac.uk/documents/421974/1301877/Info+sheet+%231.pdf/52a8dd1d-8c4d-49f7-b799-6448fff27150

[4] DER SPIEGEL, 33 (12.08.1974), S.38-48

[5] Szenario zur Ableitung globaler CO2-Reduktionsziele und Umsetzungsstrategien, S.29 :

http://www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/sondergutachten/sn1995/wbgu_sn1995.pdf

[6]http://www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/sondergutachten/sn1997/wbgu_sn1997.pdf  ; S.15

[7]http://de.wikipedia.org/wiki/Wissenschaftlicher_Beirat_der_Bundesregierung_Globale_Umweltver%C3%A4nderungen#cite_note-26

[8] http://www.kwis-rlp.de/index.php?id=7584

[9] http://www.spiegel.de/politik/ausland/0,1518,635136,00.html

[10] http://www.swp-berlin.org/fileadmin/contents/products/arbeitspapiere/Arbeitspapier_2_Grad_Ziel_formatiert_final_KS.pdf ; Mai 2010, Fußnote 2 auf S.3

[11] Deutsches Institut für Internationale Politik und Sicherheit Berlin; Forschungsgruppe EU-Integration; Stiftung Wissenschaft und Politik; Oliver Geden: Abkehr vom 2-Grad-Ziel; Skizze einer klimapolitischen Akzentverschiebung; Mai 2010; http://tinyurl.com/m5n9mvm

[12] http://ipcc.ch/pdf/assessment-report/ar5/syr/SYR_AR5_SPMcorr1.pdf

[13] http://wiki.bildungsserver.de/klimawandel/index.php/2-Grad-Ziel

[14] Deutscher Bundestag: Umwelt, Naturschutz, Bau und Reaktorsicherheit/Fachgespräch – 03.12.2014; http://www.bundestag.de/presse/hib/2014_12/-/343954 und  http://tinyurl.com/lwe9k6w

[15] Beitr. z. Berliner Wetterkarte, 28.9.2010, 58/10, SO 26/10, http://www.Berliner-Wetterkarte.de

[16] Hans von Storch: Die Nachhaltigkeit der Klimaforschung; Hannover Messe, 23.4.2010; 10-min-Statement; Seite 1, http://www.hvonstorch.de/klima/pdf/Hannover%20Messe.pdf

[17] FAZ, 12.02.2010, Eine Ungewisse Welt, Klimaimperative und Klimakonjunktive, Eine Schadensbesichtigung nach Kopenhagen

[18] Hüttl, R. F. J., Ein Planet voller Überraschungen, Spektrum Akademischer Verlag (2011), S. 8/10

[19] FAZ, 21.04.2010, S. N2

[20] Karin Lochte, Direktorin am Alfred-Wegener-Institut für Polar- und Meeresforschung; Reinhard Hüttl, Direktor am Deutschen Geoforschungs-Zentrum GFZ in Potsdam; Volker Mosbrugger, Direktor am Senckenberg-Forschungsinstitut und Museum in Frankfurt

[21] FAZ, 28.10.2009: “Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn“

[22] FOCUS, 48/2009, 23.11.09, S.60

[23] http://www.spiegel.de/wissenschaft/natur/gipfel-in-kopenhagen-plenum-zerfetzt-kompromiss-papier-a-668086.html  ; 19.12.2009

[24] DER SPIEGEL, 17/2010, Schlacht bergauf, S.34-36 ; http://www.spiegel.de/spiegel/print/d-70228760.html

[25] DIE ZEIT,15.04.2010, S.30; H.-J. Schellnhuber, C. Leggewie und R. Schubert : Zwei Grad und nicht mehr;

[26] D. Maxeiner, Hurra, wir retten die Welt", WJS-Verlag, 2007, S.103

[27] DIE ZEIT, 20.08.2009, S.29

[28] http://www.spiegel.de/wissenschaft/natur/klima-wieviel-kohle-erdgas-und-erdoel-darf-noch-gefoerdert-werden-a-1011767.html ; 08.01.2015

==================================================

Anmerkung der EIKE-Redaktion:

Der vorstehende Aufsatz ist hier als Anhang (PDF) zum Download verfügbar

===================================================

Related Files




Begutachtetes Taschenrechner-Klimamodell stellt schwere Fehler in komplexen Computer-Modellen bloß…

Dank des Heartland-Institute ist die Studie offen zugänglich. Sie kann bei diesem Link heruntergeladen werden.

Das IPCC sagte seit Langem voraus, dass eine Verdoppelung des CO2-Gehaltes in der Luft schließlich zu einer Erwärmung um 3,3°C auf der Erde führen werde. Allerdings sagt das neue, einfache Modell, das im Science Bulletin vorgestellt wird, stattdessen nicht mehr als 1°C Erwärmung voraus – und vermutlich sogar viel weniger. Das innerhalb von acht Jahren entwickelte Modell ist so einfach zu nutzen, dass ein Mathematiklehrer an einer High School oder ein Student im Grundstudium innerhalb weniger Minuten glaubwürdige Ergebnisse erzielen kann, wenn er das Modell auf einem Taschenrechner laufen lässt.

Die Studie mit dem Titel [übersetzt] Warum Modelle heiß laufen: Ergebnisse eines unglaublich einfachen Klimamodells von Christopher Monckton of Brenchley, Willie Soon, David Legates und Matt Briggs durchlief drei strenge Runden der Begutachtung, wobei zwei der Begutachter zunächst mit der Begründung gegen die Studie waren, dass sie die IPCC-Vorhersagen in Frage stelle.

Als die vier Autoren der Studie zum ersten Mal die Vorhersagen des fertigen Modells zur globalen Erwärmung mit den Ergebnissen der komplexen Computermodelle und mit der tatsächlich gemessenen Temperaturänderung in der realen Welt verglichen, lag ihr einfaches Modell näher an der gemessenen Rate der globalen Erwärmung als alle Projektionen der komplexen „allgemeinen Zirkulations“-Modellen:

Als Nächstes klopften die vier Forscher ihr Modell darauf ab, warum die offiziellen Modelle die globale Erwärmung so stark übertrieben haben. Im Jahre 1990 hat das IPCC mit „substantiellem Vertrauen“ vorhergesagt, dass sich sich die Welt zweimal so stark erwärmt wie seitdem tatsächlich beobachtet.

Abbildung 2: Die sehr erheblich übertriebenen Vorhersagen (orangefarbene Zone) der atmosphärischen globalen Erwärmung im Ersten Zustandsbericht 1990 des IPCC verglichen mit den mittleren Anomalien (dunkelblau) und Trend (hellblaue gerade Linie) von drei terrestrischen und zwei Satelliten-Datensätzen der globalen mittleren Temperatur seit 1990. Die gemessene Rate der globalen Erwärmung in der realen Welt während der letzten 25 Jahre, äquivalent zu einer Rate unter 1,4°C pro Jahrhundert, ist nur etwa halb so groß wie die zentrale Vorhersage des IPCC aus dem Jahr 1990.

Unter den Fehlern der komplexen Klimamodelle, die das einfache Modell bloßstellt, finden sich auch Folgende:

●Die Hypothese, dass „Temperatur-Rückkopplungen“ die direkte, vom Menschen verursachte Treibhaus-Erwärmung um das Doppelte und Dreifache verstärken würden, ist der größte Fehler der komplexen Klimamodelle. Rückkopplungen reduzieren die Erwärmung vermutlich und verstärken sie nicht.

●Die Bode system-gain equation [?] modelliert die gegenseitige Verstärkung von Rückkopplungen in elektronischen Schaltkreisen, aber wenn komplexe Modelle dies fälschlich auf das Klima anwenden auf der Grundlage der falschen IPCC-Hypothese von stark verstärkend wirkenden Rückkopplungen, wird die globale Erwärmung erheblich übertrieben vorhergesagt. Sie benutzen die falsche Gleichung.

●Die Modellierer haben es versäumt, ihre zentrale Schätzung der globalen Erwärmung auf eine Linie zu bringen mit der neuen, geringeren Rückkopplungs-Schätzung des IPCC. Sie sagen immer noch 3,3°C Erwärmung pro Verdoppelung des CO2-Gehaltes voraus, obwohl sie aus diesem Grund allein nur 2,2°C vorhersagen sollten – etwa die Hälfte der direkten Erwärmung und die andere Hälfte durch verstärkende Rückkopplungen.

●Obwohl die komplexen Modelle sagen, dass es eine vom Menschen verursachte globale Erwärmung von 0,6°C „in der Pipeline“ wäre selbst falls wir die Emission von Treibhausgasen sofort stoppen, zeigt das einfache Modell – bestätigt durch fast zwei Jahrzehnte ohne signifikante globale Erwärmung – dass eine überzeugende, aber nicht realisierte anthropogene globale Erwärmung immer noch aussteht.

●Es gibt keine wissenschaftliche Rechtfertigung für das extreme globale Erwärmungs-Szenario RCP 8.5 des IPCC, das bis zu 12°C globale Erwärmung vorhersagt als Folge unserer industriellen Emissionen von Treibhausgasen.

Sind Fehler wie diese erst einmal korrigiert, würde die globale Erwärmung rechnerisch als Folge einer Verdoppelung der CO2-Konzentration nicht 3,3°C betragen, sondern 1°C oder weniger. Selbst wenn alle verfügbaren fossilen Treibstoffe verbrannt werden würden, wäre eine Erwärmung unter 2,2°C die Folge.

Lord Monckton, Leitautor der Studie, erzeugte das neue Modell auf der Grundlage früherer Forschungen von ihm, die er in Journalen wie Physics and Society, UK Quarterly Economic Bulletin, Annual Proceedings of the World Federation of Scientists’ Seminars on Planetary Emergencies und Energy & Environment veröffentlicht hatte. Er sagte: „unser simples Klimamodell, das nicht noch weiter vereinfacht werden kann, ersetzt keine komplexeren Modelle, aber es stellt deren Hauptfehler und deren Übertreibungen bloß, wie z. B. die Überbetonung positiver oder verstärkender Temperatur-Rückkopplungen. Zum Beispiel entferne man die irrige Hypothese, dass stark positive Rückkopplungen die Rate der anthropogenen globalen Erwärmung verdreifachen, und die imaginäre Klimakrise löst sich in Luft auf“.

Dr. Willie Soon, wichtiger Solarphysiker am Harvard-Smithsonian Center for Astrophysics, sagte: „Unsere Arbeit zeigt, dass der Einfluss des Menschen auf das Klima erheblich überschätzt worden sein könnte. Die Rolle der Sonne wurde unterbewertet. Unser Modell hilft, eine ausbalanciertere Sicht zu präsentieren“.

Dr. David Legates, Geographieprofessor an der University of Delaware und vormals der Staats-Klimatologe sagte: „Dieses einfache Modell ist eine unschätzbare Lehrhilfe. Unsere Studie ist im Grunde das Manual für das Modell, in dem angemessene Werte für die Input-Parameter diskutiert werden und mit Beispielen gezeigt wird, wie das Modell funktioniert“.

Dr. Matt Briggs, „Statistician to the Stars”, sagte: „Ein Student mit einem wissenschaftlichen Taschenrechner kann jetzt dieses bemerkenswerte Modell verwenden und glaubwürdige Schätzungen der globalen Erwärmung einfach und schnell erhalten. Auch das Verständnis hinsichtlich der Klimasensitivität wird verbessert. Als Statistiker weiß ich, wie wertvoll es ist, Dinge einfach zu halten, und kenne auch die Gefahren der Denkweise, dass komplexere Modelle notwendigerweise besser sind. Wenn die Menschen erst einmal verstehen, wie die Klimasensitivität berechnet wird, werden sie erkennen, wie wenig Beweise es für den Alarm gibt“.

Link: http://tinyurl.com/pjen3g2

Übersetzt von Chris Frey EIKE