1

Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte!

Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario.

Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. 

Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt.

Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM)  über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein.

In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten.

Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig?

Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre?

Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16.

Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet,

2 + 2 = 5 ± 0,1.

Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 = 4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit.

In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird.

Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur. 

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb  der  nächsten  80  Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt.

Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM.

Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung.

Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt:

Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)]

Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte Wasserdampf-Feedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich.

Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen.

Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000-Szenario“. Die Kurve ist beinahe eben.

Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete  Bewölkung  zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25.

Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs?

Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei den GCMs.

Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2  27 beziffern.  Das  bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends.

Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung!

Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender.

Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt.

Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein.

Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16.

Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant.

Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus  vorhergesagt  werden  kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus!

In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p<0,1) größeren Streuung als die Änderung der Amplitude selbst. Jedoch nimmt die Amplitude der ENSO in 5 dieser Modelle ab, während sie in 3 zunimmt. Fazit: Es gibt keinen Konsens über Art und Umfang der Änderung.“ Also, von 15 GCMs nahmen sieben keine signifikanten Änderungen an, 5 simulierten einen schwächeren, 3 einen stärkeren ENSO. Dieses Resultat ist gleichbedeutend mit ‚wir wissen es nicht’. Die 15 GCMs, die Merryfield benutzt hat, sind die gleichen, die dem Vierten Assessment Report des IPCC zugrunde lagen.

Wenn man all dies betrachtet, warum ist das IPCC so sicher, dass anthropogen erzeugtes CO2 für die jüngste globale Erwärmung verantwortlich ist? Wie kommt die US National Academy of Science (NAS) in einer kürzlich veröffentlichten Broschüre zu der Aussage, dass „…die Erwärmung der Erde in den letzten Dekaden primär von menschlichen Aktivitäten verursacht wurde, die den Anteil der Treibhausgase in der Atmosphäre haben zunehmen lassen“30? Diese Broschüre zeigt eine sehr aussagekräftige Abbildung 4 (SI Sektion 5), die die Inputs zu einer Projektion der globalen Temperatur aus einem GCM darlegt. Nur wenn die Auswirkungen der anthropogenen Treibhausgase in die normale Temperaturvariation mit einbezogen werden, sagt man uns, passt der Trend des GCM zu dem tatsächlich beobachteten Trend.

Aber ihre Abbildung 4 zeigt noch eine andere Charakteristik, die fast allgegenwärtig in Temperaturprojektionen von GCMs ist. Sie zeigen keinerlei physikalische Fehlergrenzen. Uns wird ein simulierter Temperaturtrend als perfekt genau präsentiert. Die Abbildung 4 der NAS wäre wesentlich glaubwürdiger, wenn die Akademie es zusammen mit der ±100 K Fehlergrenze gezeigt hätte. Dann würde offensichtlich werden, dass der Gleichlauf zwischen der beobachteten und der simulierten Trendlinie nichts als Zufall ist. Oder das GCM wurde künstlich so getrimmt, dass der Temperaturverlauf passt. Es würde auch offensichtlich werden, dass es vollkommen bedeutungslos ist zu behaupten, dass dieser erklärte Gleichlauf ohne die Zufuhr von CO2 nicht möglich ist, wenn tatsächlich ein erklärter Gleichlauf unmöglich ist. Punkt.

Unter Klimatologen ist gut bekannt, dass große Bereiche der Physik in den GCMs nicht gut verstanden werden31. Wo die Unsicherheit signifikant ist, haben die GCMs „Parameter“, die am besten darüber urteilen, wie sicher Klimaprozesse ablaufen. GCMs haben Dutzende von Parametern und eventuell Millionen Variable32, und alle davon haben einige Arten des Irrtums oder der Ungewissheit.

Eine saubere Darstellung ihrer physikalischen Zuverlässigkeit würde die Darstellung aller Unsicherheiten sämtlicher Parameter durch die GCMs einschließen und daraus resultierend eine Darstellung der gesamten Unsicherheit33. Ich habe vergeblich nach einer solchen Studie gesucht. Es scheint, dass niemand jemals die gesamte physikalische Unsicherheit eines GCM betrachtet hat. In der physikalischen Wissenschaft ist eine solche Überprüfung in der Praxis aber unabdingbar und routinemäßig erforderlich. Aber offensichtlich nicht in der Wissenschaft der GCMs. Ergo: Die gleichen Leute, die den Alarm über die künftige Erderwärmung hinaus posaunen, missachten ihre eigene ausgeprägte Unwissenheit.

Unter dem Strich ergibt sich also Folgendes: Wenn es um das zukünftige Klima geht, weiß niemand, wovon überhaupt die Rede ist. Niemand. Nicht das IPCC noch deren Wissenschaftler, nicht der US–Kongress, weder Sie noch ich und schon gar nicht Herr Al Gore. Das Erdklima erwärmt sich, und kein Mensch weiß, warum. Aber es gibt keine belastbare wissenschaftliche Basis, dass diese Erwärmung durch anthropogene Treibhausgase verursacht wird, weil die gegenwärtig zur Verfügung stehenden physikalischen Theorien gänzlich ungeeignet sind, überhaupt irgendeinen Grund zu finden.

Nichtsdestotrotz, jene, die extreme politische Maßnahmen ergreifen, um die
CO2–Emissionen zu reduzieren, beziehen sich ausschließlich auf die Ergebnisse der GCMs, die irgendwie zu realen Vorhersagen in der Öffentlichkeit werden. Aber selbst wenn diese Politiker die Unsicherheit der Modellergebnisse einräumen, werden sie immer noch das Vorsorgeprinzip bemühen und nach extremer Reduzierung rufen, „um auf der sicheren Seite“ zu sein. Dieses Prinzip besagt: „Wenn es Bedrohungen durch ernste oder irreversible Gefahren gibt, sollte das Fehlen genauer wissenschaftlicher Erkenntnisse nicht als Begründung dienen, kostenintensive Maßnahmen zu verschieben, um Umweltschäden zu verhindern“34. Dies bedeutet, selbst wenn wir nicht vollständig wissen, dass das CO2 das Erdklima gefährlich erwärmt, sollten wir doch dessen Emissionen kappen, für alle Fälle. Jedoch, wenn die gegenwärtige Fehlergrenze in den GCMs mindestens bei ±100 K pro Jahrhundert liegt, werden wir in totaler Unkenntnis über die Effekte des CO2 auf die Temperatur gelassen. Es ist nicht „… das Fehlen genauer wissenschaftlicher Erkenntnisse“, sondern es müsste heißen: „…es gibt überhaupt keine wissenschaftlichen Erkenntnisse“. Wir wissen buchstäblich gar nichts darüber, ob eine Verdoppelung des CO2–Gehaltes überhaupt irgendeinen signifikanten Effekt auf das Klima hat.

Solange unser Wissen über das künftige Klima gegen Null tendiert, kann es also sein, dass [in der Vorhersage] sowohl eine Reduzierung als auch eine Zunahme des CO2 das Klima verbessert, verschlechtert oder gar nicht verändert. Die Alternativen sind unangemessen, aber in unserem Stadium der Unwissenheit hat jede Wahl zwei von drei Chancen, den geringsten Schaden anzurichten35. Komplette Unwissenheit macht das Vorsorgeprinzip komplett unbrauchbar. Es gibt gute Gründe, den Verbrauch fossiler Energieträger zu reduzieren, aber die Klimaerwärmung ist dafür kein Grund.

Einige könnten nun beschließen, trotzdem daran zu glauben. „Wir können es nicht beweisen“, könnten sie sagen, „aber die Korrelation zwischen CO2 und der Temperatur ist real (sie nehmen beide zu)36 und so ist die Notwendigkeit da, auch wenn wir es nicht beweisen können“. Aber Korrelation bedeutet nicht Ursache37, und ein Grund kann nicht bei kompletter Unwissenheit herhalten. Die richtige Antwort auf den hartnäckigen Anspruch auf Gewissheit bei kompletter Unwissenheit ist gesunder Skeptizismus. Und ist es nicht viel besser für uns, Ressourcen für dringende aktuelle Dinge zu nutzen, anstatt diese Ressourcen für ungewisse Gefahren aufzuheben?

Also, was hat es denn nun mit schmelzenden Eiskappen, dem Anstieg des Meeresspiegels, dem Aussterben der Eisbären und anderen Wetterextremen auf sich? Was ist, wenn ungewöhnlich intensive Hurrikansaisons wirklich verbreitete Katastrophen auslösen? Es ist kritisch, den Finger auf Gründe und Rationalität zu legen, besonders wenn soziale Einladungen zum gesellschaftlichen Durchdrehen so allgegenwärtig sind. GCMs sind so schrecklich unzuverlässig, dass es keinen objektiven, belastbaren Grund gibt für die Annahme, dass der gegenwärtige Erwärmungstrend durch anthropogenes CO2 erfolgt, oder dass dieses CO2 das Klima überhaupt messbar erwärmt. Daher, selbst falls extreme Ereignisse wegen des sich erwärmenden Klimas vorkommen, gibt es keinen wissenschaftlichen Grund, die Ursache für diese Ereignisse im anthropogenen CO2 zu suchen.  Im chaotischen Erdklima könnte es gar keinen Grund für eine Erwärmung geben39. Viele hervorragende Wissenschaftler haben all das in grundlegenden Arbeiten immer wieder geschrieben, um die CO2–Panik zu dämpfen40, aber der Chor singt verführerisch, und einige rechtschaffene Gläubige scheinen sich an Widerlegungen zu weiden.

Patrick Frank,

Die Übersetzung erledigte dankenswerterweise Chris Frey EIKE

Im Original folgen noch Danksagungen

Literatur

1. McCarthy, J. 2005. “The Sustainability of Human Progress.” www.formal.stanford.edu/jmc/progress/ Last accessed on: 14 September 2007.
2. Anon. 2006. “Consequences of Global Warming” National Resources Defense Council. www.nrdc.org/globalWarming/fcons.asp Last accessed on: 14 September 2007.
3. Anon. 2007. “The Hard Facts of Global Warming.” The Sierra Club www.sierraclub.org/globalwarming/overview/overview4.asp Last accessed on: 14 September 2007.
4. Anon. 2007. “Learning About the Science of Climate Change.” Greenpeace. www.greenpeace.org/international/campaigns/climatechange/science Last accessed on: 14 September 2007.
5. Appenzeller, T. and D. R. Dimick. 2007. “Signs from Earth” National Geographic. http://magma.nationalgeographic.com/ngm/0409/feature1/ Last accessed on: 14 September 2007.
6. Cicerone, R., E. J. Barron, R. E. Dickenson, I. Y. Fung, J. E. Hansen, et al. 2006. “Climate Change Science: An Analysis of Some Key Questions” The National Academy of Sciences, Washington, D.C. See also the 2006 report downloadable here: http://dels.nas.edu/basc/. Last accessed on: 14 September 2007.
7. Pelosi, N. 2007. “We Will Work Together to Tackle Global Warming, One of Humanity’s Greatest Challenges.” www.speaker.gov/newsroom/speeches?id=0013 Last accessed on: 14 September 2007.
8. Shermer. M. 2006. “The Flipping Point.” Scientific American 294, 28.
9. Anon. Report FS-1999-06-025-GSFC: Earth’s Energy Balance, NASA: Goddard Space Flight Center Greenbelt, MD.
10. Myhre, G., E. J. Highwood, K. P. Shine and F. Stordal. 1998. “New Estimates of Radiative Forcing Due to Well Mixed Greenhouse Gases.” Geophysical Research Letters 25, 2715–2718.
11. Alley, R., T. Berntsen, N. L. Bindoff, Z. Chen, A. Chidthaisong, et al. “IPCC 2007: Summary for Policymakers.” In: Climate Change 2007: The Physical Science Basis. Cambridge University. http://ipcc-wg1.ucar.edu/wg1/wg1-report.html Last accessed on: 14 September, 2007. See under “WG1 Release”.
12. The IPCC is careful to use “projection” rather than “prediction” to describe what GCMs produce. I.e., the words “predict” or “prediction” do not appear in the SPM of the 4AR. However, “projection” appears 20 times, “scenario” appears 50 times, and the peculiarly apt “storyline” is used 7 times. “Prediction” seems to be the default message for most readers, however.
13. Soon, W., S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier. 2001. “Modeling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties” Climate Resear ch. 18, 259–275.
14. Risbey, J. 2002. “Comment on Soon et al. (2001)” Climate Research 22, 185–186; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2002). Reply to Risbey (2002) Climate Research 22, 187–188; D. J. Karoly, J. f. B. Mitchell, M. Allen, G. Hegerl, J. Marengo, et al. (2003) Comment on Soon et al. (2001) Climate Research 24, 91–92; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2003). Reply to Karoly et al. (2003) Climate Research. 24, 93–94.
15. One must go into Chapter 8 and especially Ch 8 Supplementary Material in the recently released IPCC 4AR to find GCM errors graphically displayed in W m-2. Figure S8.5, for example, shows that GCM errors in “mean shortwave radiation reflected to space” range across 25 W m-2. The errors in outgoing longwave radiation, Figure S8.7, are similarly large, and the ocean surface heat flux errors, Figure S8.14, minimally range across 10 W m-2. Such forthright displays do not appear in the SPM or in the Technical Summary; i.e., where public bodies are more likely to see them.
16. The Legend of “The Physical Science Basis, Global Climate Projections” WGI analogous Figure 10.4 more cautiously advises that, “uncertainty across scenarios should not be interpreted from this figure (see Section 10.5.4.6 for uncertainty estimates).” However, in 10.5.4.6, it is not reassuring to read that, “*Uncertainty in future temperatures+ results from an expert judgement of the multiple lines of evidence presented in Figure 10.29, and assumes that the models approximately capture the range of uncertainties in
the carbon cycle.” And in WGI Chapter 8 Section 8.1.2.2: “What does the accuracy of a climate model’s simulation of past or contemporary climate say about the accuracy of its projections of climate change? This question is just beginning to be addressed … [T]he development of robust metrics is still at an early stage, [so] the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. (italics added)” That is, there is no validly calculated physical uncertainty limit available for any projection of future global climate.
17. Covey, C., K. M. AchutaRao, U. Cubasch, P. Jones, S. J. Lambert, et al. 2003. “An overview of results from the Coupled Model Intercomparison Project” Global and Planetary Change, 37, 103–133; C. Covey, K. M. AchutaRao, S. J. Lambert and K. E. Taylor. “Intercomparison of Present and Future Climates Simulated by Coupled Ocean-Atmosphere GCMs” PCMDI Report No. 66 Lawrence Livermore National Laboratory 2001 http://www-pcmdi.llnl.gov/publications/pdf/report66/ Last accessed on: 14 September 2007.
18. Dixon, K. R., T. L. Delworth, T. R. Knutson, M. J. Spelman and R. J. Stouffer. 2003. “A Comparison of Climate Change Simulations Produced by Two GFDL Coupled Climate Models.” Global and Planetary Change, 37, 81–102.
19. Houghton, J. T., Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, et al. Climate Change 2001: The Scientific Basis. Chapter 1. The Climate System: An Overview. Section 1.2 Natural Climate Systems, Subsection 1.2.1 Natural Forcing of the Climate System: The Sun and the global energy balance. 2001 http://www.grida.no/climate/ipcc_tar/wg1/041.htm Last accessed on: 14 September 2007 “For the Earth to radiate 235 W m-2, it should radiate at an effective emission temperature of -19° C with typical wavelengths in the infrared part of the spectrum. This is 33° C lower than the average temperature of 14° C at the Earth’s surface.”
20. Inamdar, A. K. and V. Ramanathan. 1998. “Tropical and Global Scale Interactions Among Water Vapor, Atmospheric Greenhouse Effect, and Surface Temperature.” Journal of Geophysical Research 103, 32,177–32,194.
21. Manabe, S. and R. T. Wetherald. 1967. “Thermal Equilibrium of the Atmosphere with a given Distribution of Relative Humidity.” Journal of the Atmospheric Sciences 24, 241–259.
22. Lambert, S. J. and G. J. Boer. 2001. “CMIP1 Evaluation and Intercomparison of Coupled Climate Models.” Climate Dynamics 17, 83–106.
23. Rossow, W. B. and R. A. Schiffer. 1991. “ISCCP Cloud Data Products.” Bulletin of the American Meteorological Society 72, 2–20. Global average cloudiness does not change much from year-toyear. I.e., “Table 3 and Fig. 12 also illustrate how small the interannual variations of global mean values are. … All *the+ complex regional variability appears to nearly cancel in global averages and produces slightly different seasonal cycles in different years.”
24. Gates, W. L., J. S. Boyle, C. Covey, C. G. Dease, C. M. Doutriaux, et al. 1999. “An Overview of the Results of the Atmospheric Model Intercomparison Project.” (AMIP I) Bulletin of the American Meteorological Society 80, 29–55.
25. AchutaRao, K., C. Covey, C. Doutriaux, M. Fiorino, P. Gleckler, et al. 2005. “Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations Lawrence Livermore
National Laboratory.” See Figures 4.11 and 4.12. Especially compare Figure 4.11 with text Figure 3; M. H. Zhang, W. Y. Lin, S. A. Klein, J. T. Bacmeister, S. Bony, et al. 2005. “Comparing Clouds and Their Seasonal Variations in 10 Atmospheric General Circulation Models with Satellite Measurements.” Journal of Geophysical Research 110, D15S02 11–18.
26. Hartmann, D. L. 2002. “Tropical Surprises.” Science, 295, 811–812.
27. Hartmann, D. L., M. E. Ockert-Bell and M. L. Michelsen. 1992. “The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis.” Journal of Climate 5, 1281–1304.
28. Collins, M. 2002. “Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem.” Climate Dynamics 19, 671–692.
29. Merryfield, W. J. 2006. “Changes to ENSO under CO2 Doubling in a Multimodel Ensemble.” Journal of Climate 19, 4009–4027.
30. Staudt, A., N. Huddleston and S. Rudenstein. 2006. “Understanding and Responding to Climate Change.” The National Academy of Sciences. http://dels.nas.edu/basc/ Last accessed on: 14 September 2007. The “low-res pdf” is a convenient download.
31. Phillips, T. J., G. L. Potter, D. L. Williamson, R. T. Cederwall, J. S. Boyle, et al. 2004. “Evaluating Parameterizations in General Circulation Models.” Bulletin of the American Meteorological Society 85, 1903–1915.
32. Allen M. R. and D. A. Stainforth. 2002. “Towards Objective Probabilistic Climate Forecasting.” Nature 419, 228; L. A. Smith. 2002. “What Might We Learn from Climate Forecasts?” Proceedings of the National Academy of Science, 99, 2487–2492.
33. This is not the same as a sensitivity analysis in which the effects that variations in GCM parameters or inputs have on climate predictions are compared to observations. In contrast to this, propagating the errors through a GCM means the known or estimated errors and uncertainties in the parameters themselves are totaled up in a manner that quantitatively reflects their transmission through the mathematical structure of the physical theory expressed in the GCM. The total error would then represent the physical uncertainty in each and every prediction made by a GCM.
34. Kriebel, D. J. Tickner, P. Epstein, J. Lemons, R. Levins, et al. 2001. “The Precautionary Principle in Environmental Science.” Environmental Health Perspectives 109, 871–876.
35. Of course, reducing CO2 would likely stop the global greening that has been in progress since at least 1980. The Amazon rainforest alone accounted for 42% of the net global increase in vegetation: R. R. Nemani, C. D. Keeling, H. Hashimoto, W. M. Jolly, S. C. Piper, et al. 2003. “Climate-Driven Increases in Global Terrestrial Net Primary Production from 1982 to 1999.” Science 300, 1560–1563; S. Piao, P. Friedlingstein, C. P., L. Zhou and A. Chen. 2006. “Effect of Climate and CO2 Changes on the Greening of the Northern Hemisphere Over the Past Two Decades.” Geophysical Research Letters 33, L23402 23401–23406.
36. Rising CO2 correlates strongly (r2=0.71) with the greening of the Sahel since 1980, too. SI Section 6.
37. Aldrich, J. 1995. “Correlations Genuine and Spurious in Pearson and Yule.” Statistical Science 10, 364–376. In 1926 G. Udny Yule famously reported a 0.95 correlation between mortality rates and Church of England marriages.
38. On the other hand, the history of Earth includes atmospheric CO2 lagging both glaciations and deglaciations, and large rapid spontaneous jumps in global temperatures without any important changes in atmospheric CO2 and without tipping Earth off into runaway catastrophes. See references for the Dansgaard-Oeschger events, for example: Adams, J. M. Maslin and E. Thomas. 1999. “Sudden Climate Transitions During the Quaternary.” Progress in Physical Geography 23, 1–36; G. G. Bianchi and I. N. McCave. 1999. “Holocene Periodicity in North Atlantic Climate and Deep Ocean Flow South of Iceland.” Nature 397, 515–517; M. McCaffrey, D. Anderson, B. Bauer, M. Eakin, E. Gille, et al. 2003. “Variability During the Last Ice Age: Dansgaard-Oeschger Events.” NOAA Satellites and Information. http://www.ncdc.noaa.gov/paleo/abrupt/data_glacial2.html Last accessed on: 14 September 2007; L. C. Gerhard. 2004. “Climate change: Conflict of Observational Science, Theory, and Politics.” AAPC Bulletin 88, 1211–1220.
39. J. M. Mitchell Jr. 1976 “An overview of climatic variability and its causal mechanisms” Quaternary Research 6, 481–493. Shao, Y. 2002. C. Wunsch 2003 “The spectral description of climate change including the 100 ky energy” Climate Dynamics 20, 253–263. “Chaos of a Simple Coupled System Generated by Interaction and External Forcing.” Meteorology and Atmospheric Physics 81, 191–205; J. A. Rial 2004. “Abrupt Climate Change: Chaos and Order at Orbital and Millennial Scales.” Global and Planetary Change 41, 95–109.
40. Lindzen, R. S. 1997. “Can Increasing Carbon Dioxide Cause Climate Change?” Proceedings of the National Academy of Science, 94, 8335–8342; W. Soon, S. L. Baliunas, A. B. Robinson and Z. W. Robinson. 1999. “Environmental Effects of Increased Carbon Dioxide.” Climate Research 13, 149–164; C. R. de Freitas. 2002. “Are Observed Changes in the Concentration of Carbon Dioxide in the Atmosphere Really Dangerous?” Bulletin of Canadian Petroleum Geology 50, 297–327; C. Essex and R. McKitrick. 2003. “Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming” Key Porter Books: Toronto; W. Kininmonth. 2003. “Climate Change: A Natural Hazard.” Energy & Environment 14, 215–232; M. Leroux. 2005. “Global Warming — Myth or Reality?: The Erring Ways of Climatology”. Springer: Berlin; R. S. Lindzen. 2006. “Is There a Basis for Global Warming Alarm?” In Global Warming: Looking Beyond Kyoto Ed. Yale University: New Haven, in press. The full text is available at: http://www.ycsg.yale.edu/climate/forms/LindzenYaleMtg.pdf Last accessed: 14 September 2007.
Quelle: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html


Related Files




Fünf Gründe, die Windkraft noch einmal zu überdenken!

Windturbinen benötigen Kapazitäten als Backup

Der Wind ist unvorhersagbar, niemand kann wissen, wann er bläst oder wann es zur Windstille kommt. Aber weil das moderne Leben eine verlässliche Energiequelle braucht, benötigt jede Windturbine Kapazitäten als Backup. In [der kanadischen Provinz] Ontario wird dieses Backup durch Gasturbinen, die 60% der Kapazität liefern, egal ob sie Strom ins Netz einspeisen oder nicht. In fast allen Fällen ist es viel effizienter, Gasgeneratoren zu betreiben und sich nicht die zusätzlichen Kosten und den Kohlenstoff–Fußabdruck der Windfarm aufzuhalsen.

Kohlenstoffanfall beim Bau der Windturbinen

Windturbinen sind komplexe Maschinen, für deren Herstellung man große Mengen von Stahl und Beton für den Turm und das Fundament braucht, zusätzlich zu Materialien wie Kupfer, Aluminium und Kohlenstoffverbindungen für die Rotorblätter und das Generatorsystem. Es heißt, dass Beton für 5% bis 10% aller anthropogenen Kohlenstoffemissionen verantwortlich ist, emittiert es doch annähernd 1,25 Tonnen Kohlendioxid pro Tonne
Beton
. Für Windturbinen an den Küsten benötigt man zwischen 500 und 1000 Tonnen Beton für ein solides Fundament, was der Umwelt einen hohen Preis abverlangt, bevor überhaupt das erste Kilowatt erzeugt wird.

Flora und Fauna

Windkraft hat einen großen negativen Effekt auf wild lebende Tiere, vor allem Vögel. Die grüne Berechtigung von Windturbinen wird besonders am Altamont – Pass in Kalifornien herausgefordert, die jedes Jahr für den Tod Tausender Vögel verantwortlich sind, bei denen es sich vielfach um geschützte Arten handelt. Windparks auf See können zusätzlich Delphine und Seelöwen gefährden.

Landschaftsvernichtung

Großräumige Windparks werden immer unpopulärer, weil sie das natürliche Landschaftsbild verderben. Der ältere Sen. Kennedy, gewöhnlich ein Umweltschützer, opponierte gegen das ‘Cape Wind’ Projekt in der Bucht von Nantucket, vor allem wegen des Potentials, die natürliche Schönheit der Gegend zu verschandeln. Geplante Windparks in Großbritannien stehen ähnlichen Problemen gegenüber, wenn sie in oder nahe bei ausgewiesenen geschützten Landschaften voll natürlicher Schönheit errichtet werden sollen. 

Gesundheit

Es gibt Befürchtungen, dass durch Windturbinen bei Ortschaften Gesundheitsprobleme bei den Anwohnern hervorgerufen werden. Berichtet wurde unter anderem über Schwindelgefühle, Übelkeit und Kopfschmerzen. Eine allgemeine Beschwerde gibt es über das zischende Geräusch der Rotorblätter, das den Schlaf unterbrechen und die Konzentration schwächen kann. Die Auswirkungen auf die menschliche Gesundheit werden immer noch untersucht, aber es ist ein wichtiger Faktor, der bei der Bewertung der Windkraft erwägt werden muss

Windfarmen sieht man in zunehmender Anzahl überall auf der Welt, egal wo man wohnt, aber während es die Planer von Windparks und Generatoren im Allgemeinen gut meinen, gibt es einige ernste Probleme und unerwartete Konsequenzen bei der erneuerbaren Option.

Paul Wornham*

Link zum Originalartikel hier

Übersetzt von Chris Frey

*Paul Wornham is a blogger, freelance writer and author living in Southern Ontario. He earned an MBA at the University of Alberta in Edmonton, Alberta. Paul founded the blog dailybayonet.com in 2006 and writes about environmental and green issues applying a skeptical view with a dash of humor. He can be reached at paul@dailybayonet.com




ARD Politmagazin Panorama: Klimawandel ist ein Verliererthema!

Im Ankündungstext wurde noch tapfer geschrieben:

"An immer größeren Katastrophen mangelt es in diesem Jahr nicht. In Pakistan sind 1400 Menschen im Hochwasser ertrunken, am Nordpol ist ein riesiges Gletscherstück abgebrochen, in Russland brennen nach einer enormen Hitzewelle riesige Waldflächen und Moskau liegt unter einer dicken Rauchwolke. Und dann noch diese Meldung: 2010 ist das heißeste Jahr seit Beginn der Wetteraufzeichnung vor 130 Jahren – weltweit! 

"Und jetzt holt sie uns wieder ein, die Klimakatastrophe!" behauptete dann, ungetrübt von jeder Sachkenntnis, Moderatorin Anja Reschke*.

Und weiter im Text:

"Worüber hätten wir jetzt normalerweise diskutiert? So wie in all den anderen Jahren? Über die Klimakatastrophe! Doch das Thema ist ziemlich out, die Deutschen sind offenbar klimamüde."

Aber es kam noch schlimmer: "Kiimawandel ist ein Verliererthema!" befand treffend Dagmar Dehmer, ebenso klimaangstbesessene Redakteurin beim linksliberalen Berliner "Tagesspiegel". Die Öffentlichkeit hätte nach dem Scheitern des Klimagipfels in Kopenhagen die "Nase so was von voll", dass sie keine Beiträge zum Thema mehr auf die Vorderseiten brächte. Und von Klimakanzlerin Merkel glaubt sie, dass diese nicht mit dem Klimathema "untergehen" wolle. Das wäre aus unserer Sicht verständlich! 

Und der sonst um keine Aussage zu den schlimmen Folgen eines von seinen Modellen herbeigerechneten Klimawandels verlegene Chef des Potsdam Institutes für Klimafolgenforschung Schellnhuber befand resignierend, Klimawandel sei in der veröffentlichten Meinung gar "ein Tabuthema" geworden. Doch der im Beitrag ebenfalls zu Worte kommende junge Mann aus dem Volke sagt es drastischer: "Es interessiert doch eh´ keinen". 

Nur Umweltminister Röttgen gab sich tapfer, die Kanzlerin -lt. Kommentator- immer  noch "an seiner Seite wähnend" und befand: "Der Kimapolitk ist ein zentrales Zukunftsthema" Wessen Zukunft meinte der Minister? Evtl. seine?

Hier finden Sie den Originalbeitrag bis zum 20.8.10 ARD Mediathek

Ähnlich frustriert ist wohl der Oberpriester der Alarmisten –  Al Gore:

‚Der Krieg ist verloren!‘ declares confused, angry, trembly-handed Al Gore in bunker conference call

So beschreibt der Journalist James Dellingpole vom Telegraph die resignierende Rede des Gurus.

* Anja Reschke: Studium der Politikwissenschaft, Geschichte und Sozialpsychologie in München. 1993 freie Reporterin bei Antenne Bayern. 1998 Volontariat beim NDR. Seit 2000 freie Autorin bei Panorama, seit Juli 2001 Moderatorin bei Panorama.

Michael Limburg EIKE




Ölkatastrophe Golf von Mexico: Nichtstun ist besser!

"Ganz anders ist  die Einschätzung einer Gruppe führender britischer Meeresforscher: Die Ölpest habe zwar kurzfristig  gravierende Folgen für Natur und Menschen, die langfristigen Schäden seien aber wahrscheinlich  gering. Die Forscher widersprechen auch der Anweisung des Weissen Hauses an BP, das Öl stärker zu  bekämpfen – denn: «Nichtstun ist manchmal die beste Lösung.» Der wirtschaftliche Schaden des Öllecks sei zwar gross, meinte Martin Preston, Experte für  Meeresverschmutzung an der Universität Liverpool. «Die Bewertung des Umweltschadens steht aber  noch aus.» Die Ölpest sei nicht vergleichbar mit früheren Lecks, weil das Öl fernab der Küste und in  grosser Tiefe austrete. Wegen der Wärme werde ein Teil des Öls von Bakterien zersetzt, ein anderer  Teil verdunste. In arktischen Gewässern wäre eine ähnliche Ölpest viel schlimmer, sagte Preston: «Das Szenario von Öl unter Eis ist furchterregend.» ….

….Schon hat die Stigmatisierung von Wissenschaftlern und Politikern, die die Ölpest relativieren, eingesetzt. Die Süddeutsche Zeitung mahnte: «Quer durch Amerika melden sich Skeptiker, die  nachweisen wollen, dass die Ölpest gar nicht das schlimmste von Menschen gemachte Umweltdesaster in der Geschichte des Landes ist.» Gemeint war etwa Haley Barbour, Gouverneur des US-Bundesstaats  Mississippi, der bestreitet, dass es sich überhaupt um eine Katastrophe handelt. Die Strände  Mississippis seien sauber, sagte Barbour, doch die vielen Meldungen über die Ölpest würden die Touristen fernhalten. Zwar würden einige Teerklumpen angespült, das sei im Golf von Mexiko, wo auch sehr viel Öl aus natürlichen Quellen ins Wasser gelange, schon in der Vergangenheit immer wieder vorgekommen. Die Süddeutsche Zeitung bezeichnete Barbour als «Verleugner»

Axel Reichmuth; Weltwoche. Lesen Sie hier den ganzen Artikel (gebührenpflichtig)

Lesen Sie zum Thema auch den interessanten Artikel in der WSJ vom 2.7.10 von Paul H. Rubin

Why Is the Gulf Cleanup So Slow?

und von Lawrence Salomon in der Financial Post vom 26.6.10

Avertible catastrophe




Die australische Temperaturgeschichte – ein Gesamtüberblick!

Mit diesem Ruf steht er nicht allein! In einem empfehlenswerten Versuch zur Verbesserung des Datenzustands hat der australische Wetterdienst (BOM) das australische Hochqualitäts-Klima-Netzwerk geschaffen. Der Ergebnis war aber, dass dabei eine vorurteilsverzerrte Wärmeverschiebung von 41,67 % eingeführt worden ist. Und die darauf beruhenden Klimaanalysen scheinen noch einmal etwa 66,67 % draufgepackt zu haben.

Dieser Beitrag hier ist die Zusammenfassung der meines Erachtens ersten unabhängigen Überprüfung des amtlichen Klimaberichts von Australien. Es ist damit auch die erste unabhängige Überprüfung eines amtlichen Klimaberichts für einen ganzen Kontinent. Ich werde mich um Einfachheit bemühen.

Hier ist die amtliche Version der “Klimatrends und Veränderungen in der australischen Messdatenaufzeichnung“ zu finden, die für die australische Öffentlichkeit, die Regierung und die ganze Welt herausgegeben wird. http://www.bom.gov.au/climate/change/aus_cvac.shtml

Trendkarte, 1910-2009:

Zeitreihengrafik über die Zeit, erzeugt mit deren handlichem Trendwerkzeug:

0,1 Grad C / Dekade, oder 1 Grad für ein Jahrhundert.

Auf der Webseite des australischen Wetterdienstes BOM steht diese Erklärung:

 Die Temperaturhistorien sind aus homogenen oder „hoch-qualitativen“ Temperaturdaten errechnet. Letztere wurden für die Überwachung langzeitlicher Temperaturtrends und Veränderungen entwickelt … Wo immer möglich, wurde jede Messstationshistorie um Daten-“Sprünge“ oder künstliche Unstetigkeiten korrigiert, herrührend aus Veränderungen der Stationsposition, Aufstellung, Instrumentierung oder Beobachtungsverfahren. Darin eingeschlossen sind die Erkennung und die Korrektur von Datenproblemen mit statistischen Techniken, Sichtprüfungen, historischen Informationen über die Stationen oder „Metadaten“.

und

Die australische Klimadaten „Hoher Qualität“ wurden entwickelt, bei denen Homogenitätsprobleme reduziert oder beseitigt wurden.

Über dieses Verfahren habe ich eine kurze Zusammenfassung veröffentlicht in:
http://kenskingdom.wordpress.com/2010/05/12/the-australian-temperature-record-part-1-queensland/

(Ich muss erwähnen, dass dieses Verfahren um einiges von Della-Marta et al. (2004) verändert worden ist, die auch eine Entfernungsgewichtungsmethode benutzten und einige Stadtstationen und Stationen mit viel kürzeren Messdatenhistorien benutzten.)

Torok und Nicholls (1996), Autoren der ersten (veröffentlichten) Homogenisierung bemerken völlig richtig:

“Ein hoch-qualitativer, langzeitlicher Datensatz mit Bodentemperaturen ist wesentlich für die verlässliche Untersuchung des Klimawandels und der Veränderlichkeit. 

Hier ist die Karte mit den 100 derzeit benutzten Stationen hoher Qualität, die vermutlich diese Forderung erfüllen:

Vor meinem ersten Beitrag hatte ich den Wetterdienst gebeten, mir einige merkwürdige Dinge zu erklären, die ich bei den Daten aus Queensland bemerkt hatte. Unter anderen fiel mir in einer E-Mail vom 25. 4. 2010 diese Aussage von Dr. David Jones, Leiter der Climate Monitoring and Prediction, National Climate Centre, Bureau of Meteorology, auf:

“Zur Frage der Anpassungen wird man feststellen, dass diese nahezu null Einfluss auf alle australischen Temperaturen haben, weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren (wie auch zu erwarten ist, weil es Anpassungen für zufällige Stationsänderungen sind). 

Diese Aussage ist die Messlatte für meine Studie.

Der Normalbürger wird die veröffentlichten Resultate so nehmen, wie sie sind, weil er keinen Zugang zur Stationsliste, den Metadaten, der benutzen Software oder zur Expertise des Wetterdienstes hat. Ich aber wollte mal genauer hinschauen. Die Resultate jeglicher Anpassungen sollten leicht mit der vorhergehenden Aufzeichnung vergleichbar sein. 

Ich habe jährliche mittlere Maxima und Minima für jede Station aus „BOM Climate Data Online“ heruntergeladen, die jährlichen Mittelwerte berechnet und geplottet.  Häufig wurden zwei oder drei Stationen (einige bereits geschlossen) für die gesamte Historie von 1910-2009 gebraucht, und sogar dann gab es Lücken, z. B. von 1957 bis 1964 wurden viele Stationsdaten nicht digitalisiert. (8 Jahre fehlende Daten ist noch gar nichts, viele Stationen zeigen für viele Jahre Schätzdaten, die „nachgetragen“ wurden, um die hoch-qualitative Datenhistorie zu erzeugen.) Ich habe auch die jährlichen Mittelwerte von der Hochqualitätsseite heruntergeladen und geplottet. Dann habe ich lineare Trends für jede hinzugefügt. 

Ich habe die Daten und die Berechnungen für alle 100 Stationen ausgiebig überprüft bevor ich diese Zusammenfassung gemacht habe. Nur bei einer, Bowen, habe ich mich für Verbesserungen entschieden, indem ich einige frühe Daten reduziert und  einige weggelassen habe, so dass der Trend mit HQ übereinstimmt. Das geschah nach dem Grundsatz der Nicht-Überlappung und führte dazu, dass der Plot grob übereinstimmt. Das ist ungenügend, Bowen sollte man auslassen. Die Netto-Auswirkung auf Queensland und die australischen Trends kann vernachlässigt werden. (0,01 C.) 

Jetzt schauen wir uns Dr. Jones‘ Behauptung für ganz Australien an.

“… null Einfluss auf alle australischen Temperaturen …”

Falsch.

Wir können uns die Aufzeichnung auf verschiedene Art anschauen – hier ist die Grafik mit den durchschnittlichen Rohdaten und mit den angepassten Daten für alle 100 Stationen. Der Unterschied sticht ins Auge. 

Er beträgt 0.6 Grad C / 100 Jahre bei den Rohdaten. Bei den angepassten beträgt der Trend 0.85 Grad.

Bevor nun jemand sich beschwert, dass die Abweichungen ein genaueres Bild bei den Trends für eine große Region ergäben, habe ich auch die Abweichungen für den Zeitraum von 1961 – 1990 für alle australischen Mittelwerte berechnet ( 0,6 bei den Rohdaten bis 0,85 HQ Zunahme)

und für alle 100 Stationen (leicht abweichendes Ergebnis : 0,6 bei den Rohdaten bis 0,9- 50%)

Aber die vom BOM veröffentlichte Zahl ist 1.0 C. Das sind zwei Drittel mehr!

Wir können uns auch die durchschnittliche Anpassung für jede Station anschauen:
+ 0.23 Grad C. (Die Tabelle mit allen 100 Stations ist zu groß zum Einfügen).

Oder wir können uns die mittlere Anpassung (+ 0.275 C) ansehen, und das Ausmaß der Anpassungen.

So viel zum Gerede vom “weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren”.

Wir können uns auch “Qualität” der Stationen anschauen.

"Urban" im Vergleich zu "nicht-urban":

“Bitte beachten: Stationen mit der Einordnung als "urban" sind aus der australischen jährlichen Temperaturreihe und den Trendkarten-Analysen ausgeschlossen. Urbane Stationen haben einen gewissen urbanen Einfluss auf einen Teil oder auf den gesamten Verlauf ihrer Datenreihe. (http://www.bom.gov.au/cgi-bin/climate/hqsites/site_networks.cgi?variable=meanT&period=annual&state=aus)

Im vorhergehenden Teil 1 habe ich gezeigt, wie 3 Stationen aus Queensland von Torok and Nicholls (1996) als urban eingestuft worden sind, die nun nicht-urban sind. Della-Marta et al haben einige weitere in anderen australischen Bundesstaaten wiederauferstehen lassen.
Hier ist die volle Liste: Cairns AMO, Rockhampton AMO, Gladstone MO, Port Hedland AMO, Roebourne, Geraldton AMO, Albany AMO, Alice Springs AMO, Strathalbyn, Mount Gambier AMO, Richmond AMO, Mildura AMO, East Sale AMO, Cashmore Airport, Launceston Airport.

15% des Netzwerks besteht aus Stationen, wo BOM Schwierigkeiten hat, uns zu versichern, dass diese nicht für die Klimahistorie benutzt würden.

Langzeithistorien

“… die Anzahl der Stationen ist viel kleiner wenn man nur Stationen betrachtet, die derzeit in Betrieb sind und mit wenigstens 80jähriger Datenhistorie. Um die Gesamtzahl der Langzeitstationen zu vergrößern wurden vorher unbenutzte Daten digitalisiert und eine Anzahl von Stationen wurde zusammengeworfen, um zusammengefasste Historien zu erzeugen … alle Stationen in der Historie (waren) in Betrieb im Jahre 1915.” (Torok and Nicholls)

Torok wollte Daten für 80 Jahre: Della-Marta et al und BOM geben sich mit viel weniger zufrieden Bei sechs Stationen gibt es vor 1930 (das ist 80 Jahre her) keine Daten, dennoch hat BOM diese Stationen drin.  Einige wieder sind wirklich schrecklich: Woomera- 1950; Giles- 1957; Newman- 1966.

Auch haben viel Stationen große Lücken durch fehlende Daten, da zeigt die HQ Historie einfach “Schätzwerte”, um die fehlenden Jahre zu füllen.

Hier ist eine Grafik mit der Anzahl von Stationen mit vollständiger Datenhistorie.

Man beachte: Nur 70% Rohdaten sind verfügbar bis 1910; 90% bis 1930; ein Abfall von 1945 to 1960; und dann der große Abfall bei den HQ data in diesem Jahrzehnt!

Datenvergleich:

“Im Allgemeinen haben Vergleichsbetrachtungen über mehr als fünf Jahre ausgezeichnete Vergleichsstatistiken zwischen den alten und den neuen Stationen geliefert, … Vergleiche über Zeiträume größer 2 Jahre und manchmal zwischen einem und zwei Jahren haben sich auch als nützlich erwiesen, wenn sie vollständig und von guter Qualität waren … Vergleiche schlechter Qualität über Zeiträume kleiner 2 Jahre haben sich im allgemeinen als nur begrenzt nützlich erwiesen.” (Della-Marta et al, 2004)

Würde man nicht “hervorragende Vergleichsstatistiken” für ganz wesentlich zu solch wichtigem Zweck halten? Anscheinend nicht. Da gibt es viele Stationen mit weniger als 5jähriger Datenüberlappung von nahegelegenen Stationen (bis zu 20 km entfernt). Eine Anzahl von Stationen hat überhaupt keine Überlappung.

Daher gibt es riesige Lücken in der Temperaturhistorie. Hier ist die Karte mit dem Hochqualitäts-Netzwerk, wo diejenigen Stationen gelöscht worden sind, die
(a) im Jahre 1996 als urban klassifiziert wurden,
(b) weniger als eine 80jährige Beobachtungshistorie hatten,
(c) weniger als eine 5jährige Überlappung mit vergleichbaren Daten hatten, manchmal trafen auch alle der genannten Kriterien zu. 

Die verbliebenen Stationen sind auf Ost- und Südwest-Australien konzentriert. In der Mitte klafft eine riesige Lücke. (Beachten Sie bitte den zugegebenermaßen sehr grob angenäherten Maßstab).

Und zum Schluss:…

Behauptungen aus dem Klimazustandsbericht (State of the Climate) von BOM und CSIRO vom März 2010.

Seit 1960 hat sich die Durchschnittstemperatur in Australien um etwa 0.7 °C erhöht. Der Langzeittrend bei der Temperatur ist klar…

WAHR. Aber die Rohdaten zeigen, dass sich die Durchschnittstemperatur seit 1910 nur um 0,6 Grad C erhöht hat.

Für die australischen Durchschnittstemperaturen wird ein Anstieg um 0,6 bis 1,5 º C bis 2030 vorhergesagt.

WIRKLICH? Dazu wäre eine 5 bis 12fache höhere Erwärmungsrate notwendig, als bei den Rohdaten sichtbar, oder eine zwischen 3 bis 7,5 mal so hohe im Vergleich zu den veröffentlichten Zahlen von BOM.

Große Teile Australiens werden trockener in den kommenden Jahrzehnten sein.

VIELLEICHT AUCH NICHT. Schauen Sie hier nach: http://kenskingdom.wordpress.com/2010/03/20/political-science-101/

Unsere Beobachtungen zeigen klar, dass der Klimawandel real ist. 

WAHR- so ist halt das Klima.

CSIRO und das Bureau of Meteorology werden fortfahren und die Beobachtungen und Forschungen veröffentlichen, so dass Australiens Reaktionen durch wissenschaftliche Erkenntnisse höchster Güte untermauert werden.

“Von höchster Güte”? WIRKLICH ?

Ergebnisse

Diese Studie zeigt eine Anzahl von Problemen beim australischen Netzwerk der Hochqualitäts-Temperaturmessstationen, auf dem die amtlichen Temperaturanalysen beruhen. Die Probleme bei den Hochqualitätsdaten schließen ein:

  • subjektive und manuelle Anpassungen.

Diese Verfahrensweise wird nicht gleichmäßig befolgt, manchmal ist sie auch anders als beschrieben.

Urbane Stationen, Stationen mit schlechten Vergleichsdaten, Stationen mit kurzzeitigen Historien wurden eingeschlossen.

Große Mengen von Daten sind nicht verfügbar, stattdessen sind Schätzdaten eingespeist worden. 

Die Anpassungen heben sich nicht positiv gegen negativ auf, sie haben eine große Auswirkung auf die australische Temperaturhistorie.

Die Anpassungen erzeugen einen um rund ein Viertelgrad höheren Durchschnittstemperaturtrend im Vergleich zu dem aus den Rohdaten.

Die Vorurteilsverzerrung beim Erwärmungstrend beträgt 41.67% beim Anomalietrend 50%.

Der vom BOM veröffentlichte Trend ist 66.67% größer als der aus den Rohdaten.

Die Hochqualitätsdaten zeigen NICHT die richtige australische Temperaturhistorie der vergangenen 100 Jahre.

BOM hat einen Klimabericht produziert, der bestenfalls eine „Einschätzung“ genannt werden kann.

Das Beste, was wir über die australischen Temperaturtrends der vergangenen 100 Jahre sagen können, ist: “Da, wo wir genug gute Historien haben, ist die Temperatur rauf und runter gegangen, aber wir wissen noch zu wenig.”

Warum die Übertreibung, wenn die anthropogene Klimawandel so sicher ist?

Es ist äußerst dringlich und wichtig, dass eine vollständige wissenschaftliche Überprüfung des amtlichen australischen Klimaberichts durchgeführt wird, völlig unabhängig vom BOM, CSIRO oder dem Klimawandelministerium (Department of Climate Change).

Mal sehen, was Dr David Jones [vom BOM] darauf antwortet.

(Mein Dank an Lance für die Hilfen beim Herunterladen der Daten und an janama für seine Arbeit zu NSW. Auch an Jo Nova, die mich ermutigt hat)

Gastbeitrag von Ken Stewart, July 2010 bei Watts Up With That

 * Der unter der Abkürzung Harry (mit bürgerlichem Namen  Ian "Harry" Harris) bekannt gewordene Programmierer arbeit(ete?) bei der CRU als Klimatologe und CRU Programmierer

Zusammenfassung der vorhergehenden Teile 1-7. Zu finden hier:
http://kenskingdom.wordpress.com/




EIKE Brief an Minister Röttgen beantwortet: „Unser Handeln beruht auf den Erkenntnissen der großen Mehrheit internationaler Wissenschaftler..“

Brief von Herrn Schafhausen vom 30.7.10

„Sehr geehrter Herr Limburg,

herzlichen Dank für Ihr ausführliches Schreiben vom 20. Juni 2010 an Herrn Umweltminister Dr. Norbert Röttgen.

Wir haben Ihre Stellungnahme aufmerksam gelesen. Unser Handeln beruht auf den Erkenntnissen der großen Mehrheit internationaler Wissenschaftler. Leitschnur der Politik der Bundesregierung im Bereich des Klimawandels ist es, die globale Erderwärmung auf maximal2 Grad über vorindustriellem Niveau zu begrenzen. Deswegen setzt die Bundesregierung insbesondere auf den massiven Ausbau der Erneuerbaren Energien und die deutliche Stei­gerung der Energieeffizienz. Keine Frage, dies bringt Veränderungen mit sich, ein weitreichender Strukturwandel des Energiesystems ist notwendig. Wir sehen darin jedoch eine große Chance für den Klimaschutz, für eine nachhaltige Energieversorgung, für mehr zukunftsträchtige Arbeitsplätze.

Mit freundlichen Grüßen

Im Auftrag

(unleserlich)

In der Antwort versichert Herr Schafhausen, man hätte im BMU unseren Brief aufmerksam (Sie finden ihn hier) gelesen. Schafhausen schreibt:

…Wir haben Ihre Stellungnahme aufmerksam gelesen. 

Das freut uns. Aber irgendwie fehlt uns dann der Glaube an die Richtigkeit dieser Aussage, denn an keiner Stelle wird auf unsere Argumente oder unsere Vorschläge eingegangen.

Zum Beispiel baten wir gleich im ersten Absatz um einen Termin:

Deswegen möchten wir Ihnen schriftlich diese Stellungnahme (nun ausführlicher) zukommen lassen, mit der Bitte, sie so bald wie möglich in einem persönlichen Gespräch vertiefen zu können. Bitte nennen Sie uns dazu einen Ihnen passenden Termin. Da es nicht das erste Mal ist, dass wir um einen Termin bitten, hoffen wir, dass er diesmal nicht abgelehnt wird.

Stattdessen steht in der Antwort: Wir haben Ihre Stellungnahme aufmerksam gelesen.

Und im zweiten Absatz unseres „aufmerksam“ gelesenen Briefes steht klar:

Die Lage ist wirklich ernst. Jeder Mensch der eine große Operation plant, wird vernünftiger­weise zuvor mindestens eine zweite Meinung einholen, jeder Mensch der eine große Anschaf­fung plant, holt we­nigstens zwei Angebote ein. Warum kann nicht auch die Bundesregierung bei die­sem existenziellen Thema so handeln? Bitte sprechen Sie mit uns.

Statt einer Antwort darauf mit Zustimmung oder Ablehnung  schreibt der „aufmerksame“ Leser Schafhausen:

Unser Handeln beruht auf den Erkenntnissen der großen Mehrheit internationaler Wissenschaftler. Leitschnur der Politik der Bundesregierung im Bereich des Klimawandels ist es, die globale Erderwärmung auf maximal 2 Grad über vorindustriellem Niveau zu begrenzen.

Diese für unsere Volkswirtschaft vernichtende Torheit hatte der Minister ja schon ausgiebig bei seiner Grundsatzrede erläutert. Sie war deswegen auch nicht Gegenstand unserer Fragen. Und die Rechtfertigung mit

…den Erkenntnissen der großen Mehrheit internationaler Wissenschaftler.

wird auch dadurch weder besser noch wahrer, wenn sie tausendfach in jeder Politikerrede oder jedem -Schreiben wiederholt wird. Oder aber in Schulbüchern wiederholt wird, wie sie das Umweltbundamt den Schulen zur „Lehre“ ab der 2. Klasse zur Verfügung stellt. (s. Abbildung unten)

 

Abbildung 1: Titelbild eines Büchleins für Zweitklässler; herausgegeben vom Umweltbundesamt

Abgesehen von der nicht unerheblichen Tatsache, dass Mehrheit nur in der Politik, aber nicht in der Wissenschaft, ein Qualitätsmerkmal ist.

Aber selbst diese Mehrheit gibt es in der Realität nicht, nur in den Köpfen vieler Politker und Medienleute.

Wenn selbst der glühende THE Befürworter und IPCC Leitautor Prof. Mike Hulme öffentlich zugibt, dass es nur einige Dutzend Leute sind, die das Märchen vom anthropogenen CO2 getriebenen Klimawandel in die Welt gesetzt haben, dann sollte irgendwer dem Minister vielleicht sagen, dass bald die ganze Welt über ihn lachen wird.

Der Journalist Lawrence Salomon schreibt zur Äußerung von Hulme….

Das UN-Intergovernmental Panel on Climate Change führte die Presse und Öffentlichkeit in die Irre, mit der Behauptung, dass Tausende von Wissenschaftlern seine Ansprüche auf vom Menschen verursachte globale Erwärmung unterstützen, so Mike Hulme, ein prominenter Klimaforscher und IPCC Insider. Die tatsächliche Zahl der Wissenschaftler, die diese Behauptung unterstützen seien “ nur ein paar Dutzend Experten „, erklärt er in einem Aufsatz (für die Fachzeitschrift) „Progress in Physical Geograph“, das er zusammen mit dem Studenten Martin Mahony verfasst hat.

„Behauptungen wie“ 2, 500 der weltweit führenden Wissenschaftler seien im Konsens darüber, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima „haben, sind unaufrichtig,“ sagen die Autoren eindeutig. Sie fügen hinzu, dass „machte das IPCC anfällig für Kritik von außen.“

Hulme, Professor of Climate Change in der School of Environmental Sciences an der University of East Anglia – der Universität mit dem Climategate Ruhm – ist Gründer und Leiter des Tyndall Centre for Climate Change Research und einer der prominentesten Klimaforscher der britischen Wissenschaftler. Zu seinen zahlreichen Rollen im Klimawandelestablishment, gehört dass Hulme Leitautor des  IPCC für das Kapitel über Climate scenario development’ im 3. Bericht (Third Assessment Report TAR) und zuarbeitender Autor von mehreren anderen Kapiteln.

Offensichtlich weiß weder der Minister, noch die Beamten seines Ministeriums, dass sie einem Irrglauben anhängen. Einem Irrglauben allerdings, der sie voll beschäftigt hält. Denn der nächste Satz im Schreiben des Herrn Schafhausen heißt.

Deswegen setzt die Bundesregierung insbesondere auf den massiven Ausbau der Erneuerbaren Energien und die deutliche Stei­gerung der Energieeffizienz.

So ein Einsatz kostet natürlich Kraft, Zeit und viele viele Milliarden an Fördergeldern, und „Anreizen“ die es zu ersinnen, einzuziehen und verteilen gilt. Anreize, die vom Verbraucher zwanghaft über Dritte eingetrieben werden. Die wenige sehr, sehr reich machen, und unser Land auf den direkten Weg in die Armut der dritten Welt führt.

Für solch hehre Ziele muss man schon mal Opfer in Kauf nehmen. Am Besten Opfer bei den anderen. Oder wie ist sonst der folgende Satz aus dem Schreiben des Herrn Schafhausen zu verstehen?

„Keine Frage, dies bringt Veränderungen mit sich, ein weitreichender Strukturwandel des Energiesystems ist notwendig.“

Ein Strukturwandel von der Industriestruktur zur Dreifelderwirtschaft des Mittelalters, mit allen seinen Vorzügen, weil im Einklang mit der Natur! Nun, da hat die Wirtschaft wenigstens Planungssicherheit auf dem gewollten Weg in den Untergang.

Das herauszuarbeiten war eine wesentlich Komponente unseres Briefes. Wir schrieben daher dem Minister zum Schluß:

„Somit ist auch klar, dass die durch die massive Zwangssubventionierung von „Erneuerbaren“ u.a. durch das unsägliche EEG, das Arbeitsplatzargument weder betriebswirtschaftlich noch volkswirtschaftlich trägt. Wie Studien des RWI, aber in jüngster Zeit besonders spanische und italienische Studien 15, 16 zei­gen, vernichtet jeder „erneuerbare Arbeitsplatz“ zwischen 2,2 bis 6 konventionelle Arbeitsplätze. Die von Ihnen erwähnte genannte „Erfolgsbilanz“ von 300.000 „erneuerbaren Arbeitsplätzen“ in Deutschland ver­kehrt sich dadurch nachhaltig in ihr Gegenteil. Mindestens 600.000 konventionelle Arbeitsplätze sind da­her bisher dauerhaft vernichtet worden.

Weitere 800.000 – nämlich die in der energieintensiven Grund­stoffindustrie und ihrer Zulieferer  werden bald folgen. Für immer! Hinzu kommt, dass nach diesen Stu­dien ca. 60 % der Erneuer­baren -Arbeitsplätze in der Montage entstanden sind. Die sind nur dann nach­haltig, wenn die extrem teure Subventionierung – direkt oder indirekt –   dauerhaft erhalten bleibt. Mit un­ausweichlicher Vernichtung von weiteren Arbeitsplätzen.“

Doch die Antwort des Herrn Schafhausen im Auftrag des Minsters erschöpft sich in seinem letzten Satz:

Wir sehen darin jedoch eine große Chance für den Klimaschutz, für eine nachhaltige Energieversorgung, für mehr zukunftsträchtige Arbeitsplätze.

Welch seherische Fähigkeiten hat das BMU, die andere Leute nicht haben? Natürlich will jeder Politiker irgendetwas schaffen. Früher war das der liebe Gott, dann die fleißigen Schwaben und  heute „schafft“ jeder, der den Mund aufmachen kann. Das verstehen wir. Am liebsten „schafft“ der Politiker Arbeitsplätze, wenn irgendmöglich – nachhaltige Arbeitsplätze- am allerbesten zukunftsträchtige, nachhaltige Arbeitsplätze.  Und das auch noch verbunden mit „Klimaschutz“! Das sollte man nicht gering achten. Dumm ist allerdings, wenn diese zukunftsträchtigen, nachhaltigen Arbeitsplätze mehr kosten als sie wert sind. Wenn sie mehr Arbeitsplätze vernichten, als neue entstehen. Wenn es kein Klima gibt, dass man schützen kann. Wenn es dem Klima völlig egal ist, was die Bundesrepublik Deutschland anstellt?

Sind die unvermeidlichen, schlimmen Folgen dann ärgerliche, aber leider, leider unvermeidliche Kollateralschäden? Denn das sie eintreten, darauf haben wir im letzen Absatz unseres Briefes hingewiesen:

Somit bleibt das an vorderster Stelle von Ihnen genannte Wunschziel „Deutschland solle In­dustrieland bleiben“ nach unserem Eindruck, ein dialektischer Kunstgriff, da Sie nach unserer festen Überzeugung – geteilt von vielen Anwesenden im Saal, wie wir durch Gespräche erfuh­ren –  durch Ihr Handeln (und das vieler anderer im Lande) das genaue Gegenteil bewirken. In echter Sorge verbleiben wir mit freundlichen Grüßen Ihre

Der Minister hat aufmerksam gelesen. Das hat sein Schafhausen geschrieben. Verstanden hat keiner von ihnen!

Michael Limburg EIKE

 15 Calzada Studie : http://www.eike-klima-energie.eu/uploads/media/Calzada-Study-090327-employment-public-aid-renewable.pdf

16 Stagnaro Studie: Saubere Arbeitsplätze, teure Arbeitsplätze? Warum Italien sich keine „Grüne Ökonomie“ leisten kann




Rückkopplung im Klimasystem der Erde!

Die vom IPCC um Größenordnungen höher vorausgesagten Anstiege der Erdtemperatur basieren auf  Annahmen über die „Rückkopplung“ mit dem atmosphärischen Wasserdampf.

Positive Rückkopplung verstärkt  Temperaturänderungen (z.B. Temperaturerhöhungen durch CO2;  aber natürlich auch durch jede andere Ursache ). Negative Rückkopplung schwächt Temperaturänderungen ab.

Rückkopplungen sind ein typisches Thema für Regeltechnik. In der Physik werden Rückkopplungen betrachtet im Hinblick auf  Stabilität oder Instabilität eines Systems.

Es scheint, dass in der Klimadiskussion (nicht nur bei den Verfechtern einer Klimakatastrophe) kein klares Bild über Rückkoppelmechanismen herrscht. Deshalb hier eine Darstellung des Verhaltens bei verschiedenen Rückkopplungsarten. Mit dem Verständnis der Rückkopplungen wird auch klar dass zentrale Angaben der Klimaforschung in sich widersprüchlich sind, also nicht zutreffend sein können .

1) LINEARE positive oder negative Rückkopplung.

Bei positiver Rückkopplung wird  jede Temperaturänderung (nicht etwa nur die durch Treibhausgase bewirkte) explosionsartig über alle Grenzen verstärkt. Je nachdem ob die Anfangstemperaturschwankung positiv oder negativ war, steigt die Temperatur an, bis alles Wasser der Ozeane verdampft ist, oder fällt soweit, bis die  Erde tiefgefroren ist.

Negative Rückkopplung, dagegen, stabilisiert das System, d.h. alle Temperaturschwankungen werden „weggeregelt“ (Thermostat).

2) NICHTLINEARE positive oder negative Rückkopplung.

Hier nimmt die Stärke der Rückkopplung mit wachsender oder fallender Temperatur ab (grob gesagt verschwindet der Rückkoppeleffekt für größere Temperaturänderungen).

In diesem Falle muss das System nicht explodieren, da bei größeren Änderungen sich die Rückkopplung „selbst ausschaltet“. Nichtlineare Rückkopplung kann zu stabiler Verstärkung  (positiv) oder stabiler Abschwächung (negativ) führen. (in der Elektrotechnik ist dies als  „Regenerativverstärker“ bekannt)

Schließlich ist die Schnelligkeit der Rückkoppelreaktion wichtig.  Beispielsweise ist die Verdampfung aus den Ozeanen oder Wolkenbildung eine “schnelle“ Reaktion auf Temperaturerhöhung. Die Verwitterung von CO2 (also die erhöhte Kalkbildung bei Temperaturanstieg) ist dagegen eine langsame Reaktion.

Solche Reaktionszeiten haben Auswirkungen auf die REGELDYNAMIK. (Mathematisch wird die Stabilität und Instabilität von Systemen durch das so genannte  „Nyquist-Diagramm“ beschrieben, welches  diese Fälle zusammenfasst.)

Die  Modellrechnungen, auf die der UN-IPCC seine Voraussagen gründet, sagen, von Modell zu Modell unterschiedliche,  hohe Verstärkungen aus, aber keine „Explosion“.  Die Modelle müssen also positive NICHTLINEARE Rückkopplung enthalten.

Während der Rückkoppelmechanismus offiziell erklärt wird, bleibt im Dunklen wie die Nichtlinearität zustande kommen soll  

 Die endlichen Verstärkungen  erlauben einen Test:  Nach  Angabe der offiziellen Klimaforschung gelten folgende Zahlen: der „natürliche Treibhauseffekt“: 33 °C. 29% davon entfallen auf CO2 (der wesentliche Rest auf Wasserdampf ). Erhöhung der Erdtemperatur seit Beginn industrieller CO2 Emission 0,7 °C. Zunahme der CO2-Konzentration in diesem Zeitraum 35%. 29% von 33°C sind 9,6 °C.  Mit Erhöhung der CO2-Konzentration um 35% hat sich aber die Temperatur nicht um (35% von 9,6 °C =) 3,3 °C erhöht, sondern nur um 0,7 °C.

Führte man diese 0,7 °C auf den Einfluss von CO2 zurück wie vom IPCC behauptet, dann würde dies  Nichtlinearität des Einflusses von CO2 zeigen. Die Reaktion ist  (0,7/3,3 =) 0,21. Also fast 5 mal kleiner als (offiziell) bei der CO2-Konzentration zu Beginn der Industrialisierung.. Damit kann man weiter rechnen: Erhöhen wir die CO2 Konzentration um weitere 35% wird die Reaktion abermals auf 1/5 verringert sein, usw.  Es folgt, dass für sehr große CO2 Konzentrationen  die Erdtemperatur einem Grenzwert von +0,9 °C zustrebt.

0,7 °C davon  haben wir schon hinter uns. Maximal wäre, glaubt man den Angaben der offiziellen Klimaforschung , also nur noch 0,2 °C Temperaturerhöhung möglich.

Wie vertragen sich also die offiziellen Angaben mit den dramatischen vorausgesagten Temperaturerhöhungen von bis zu 6 °C bis 2100?

Antwort: verträgt sich nicht.  Irgendwas stimmt nicht in den „offiziellen“ Rechnungen.

Zweiter Test: Der schwächer werdende Einfluss von CO2 bei zunehmender CO2-Konzentration müsste sich in einem zeitlichen Abflachen des Erdtemperaturanstieges mit der Zeit widerspiegeln. Tatsächlich nimmt aber die Steigung der Temperaturen nach den offiziellen Angaben seit dem Beginn der Industrialisierung ZU. Und dies ist ebenso der Fall für die offiziellen Temperaturvoraussagen des UN-IPCCes bis zum Jahr 2100.  

Wie vertragen sich also die angeblichen Modelle mit den angeblichen Ergebnissen?

Antwort: verträgt sich ebenfalls nicht. Wiederum ein Zeichen dass in den Rechnungen irgendwas nicht stimmt..

Offiziell wird das Rückkopplungsmodell von CO2 mit dem Wasserdampf folgendermaßen beschrieben:

Eine minimale Temperaturerhöhung durch CO2 führt zur Verdampfung von Wasser aus den Ozeanen, welches wiederum, wie oben beschrieben, zur Temperaturerhöhung führt, welches wiederum zu erhöhter Verdampfung von Wasser führt… usw. ad infinitum; also positive, lineare Rückkopplung. Dies steht im Widerspruch zur niemals eingetretenen „Explosion“, UND steht auch im Widerspruch zur Aussage, wir könnten durch Verringerung der CO2-Emissionen den Temperaturanstieg (auf +2 °C) begrenzen. Dies System reagiert  ja explosiv auf JEDE kleinste Temperaturschwankung.

Man muss auch immer wieder darauf hinweisen, dass nach diesem offiziellen Modell JEDE Temperaturerhöhung  (nicht etwa nur die Temperaturerhöhung durch CO2, sondern viel eher die durch Schwankungen der Wasserdampfkonzentration bewirkte) verstärkt würde.

CO2 spielte also als nur einer von vielen möglichen  „Auslösern“ eine unwichtige Nebenrolle. Das „gefährliche Treibhausgas“ dagegen ist nach diesem offiziellen  Modell des UN-IPCCes der Wasserdampf. Dass Maßnahmen geplant sind, den Wasserdampfgehalt der Atmosphäre zu reduzieren oder handelbare „Wasserdampfzertifikate“ auszugeben, ist allerdings bisher nicht bekannt geworden.

Endlich darf man auch nicht vergessen, dass nach diesem Modell auch die Abkühlungen  explosionsartig verstärkt werden.  Auch dies findet man nicht in den Voraussagen des IPCC.

Man sieht, hier passen die zentralen Aussagen nicht zusammen. Ein klares Zeichen, dass in den Rechnungen weitere Annahmen gemacht sind, über die man nicht spricht.

Wie lösen sich nun alle diese Widersprüche?

1) Es gibt theoretische Argumente dafür, dass NEGATIVE LINEARE RÜCKKOPPLUNG aus einem Grundprinzip der Physik  (Prinzip der „maximalen Entropie-Erzeugung“, Clausius 1860) folgt /1/.

Damit  wäre das Klima stabil gegen INTERNE Störungen wie Klimagas-Emission. Der Wasserdampf wirkt wie ein Thermostat.

ÄUSSERE Störungen, wie Änderung der Keimbildung für Wolken werden NICHT weggeregelt. Diese bewirken die historisch beobachteten Klimavariationen.

2) Das theoretische Ergebnis 1) ist mit zwei unabhängigen Methoden durch Messung von Wasserdampf /1/ bzw. durch Strahlungsmessungen mittels Satelliten /2/ bestätigt worden.

Entsprechende Überprüfung der Rechnungen und der in ihnen gemachten Annahmen, auf denen die Voraussagen des IPCC basieren, anhand von Messungen, gibt es nicht.

Kurz, die einzigen Arbeiten, die auf der Realität von Messungen basieren, falsifizieren die Voraussagen des IPCC.

Wenn sich zeigt, dass  prophezeite Katastrophen nicht eintreten können, reagiert der Katastrophenprophet gewöhnlich mit „Nachlegen“: Es wird mit noch schlimmeren Katastrophen gedroht, um von der logischen Unhaltbarkeit der Prophezeiungen abzulenken.

So auch hier:

Während sich die Prophezeiungen des UN-IPCCes  zunehmend als unhaltbar herausstellten, wurde der „runaway“, das Ende des Lebens auf der Erde durch Hitzetod, entsprechend linearer positiver Rückkopplung, wieder hervorgekramt /3/.

Die Rechnungen in /3/, die zeigen sollen, wie der in Jahrmillionen nie eingetretene Fall jetzt plötzlich doch eintreten soll, lassen sich nur mit „Kraut und Rüben“ charakterisieren: Variable werden als konstant angesetzt, Konstanten als Variablen. Zu guter Letzt wird die „Verbrennungsgeschwindigkeit“ mit der Gesamtenergie durcheinander geworfen.

Zugegebenermaßen ist dieser Autor auch sonst schon so berüchtigt, dass sich sogar unsere eigenen Katastrophenpropheten von ihm in der Vergangenheit distanziert haben. Trotzdem übt er einen enormen politischen Einfluss aus.

UND immerhin bekommt man auf Anfrage beim Umweltbundesamt nach der Physik des Klima-„runaway“ diesen Vortrag /3/ als Information…

Als vernünftiger Wissenschaftler wird man also davon ausgehen, dass die Erde mit dem Wasserdampf einen Thermostaten besitzt, der die Erdtemperatur gegen Störungen konstant hält. Dafür spricht ein physikalisches Grundprinzip und entsprechende Ergebnisse von Messungen. Weiterhin lässt sich damit die erstaunliche Klimakonstanz der Erde über Jahrmillionen verstehen. Und NUR mit diesem Ergebnis lassen sich die Widersprüche in den Angaben der offiziellen Klimaforschung lösen.

Schließlich kann eingewendet werden, die Stabilisierung durch Rückkopplung habe doch  Grenzen, jenseits derer doch Katastrophen auftreten können (in der Regeltechnik nennt man dies den „Haltebereich“). Tatsächlich kann das Wasser nicht den Einfluss beliebig großer Mengen an CO2 „wegregeln“. Dieser Thermostat funktioniert nur so weit wie Wasser alles dominiert; der Einfluss z.B. von CO2 klein ist gegen den von Wasserdampf..  Wasserdampf liegt in der Atmosphäre im Prozentbereich vor. Unter Einbeziehung der spektroskopischen Eigenschaften kann man daher vermuten, dass der Regelmechanismus z.B. ab einer CO2-Konzentration von vielleicht 10%  nicht mehr greifen würde. Das wären dann tatsächlich die vielgenannten „Kipp-Punkte“ und Katastrophen. Die wären tatsächlich denkbar … wenn, ja wenn… die CO2- Konzentration in der Atmosphäre ca. 300 mal höher wäre als sie heute ist.

Nun ist die Vorstellung unbestritten, dass die Verbrennung aller Kohlenstoff-Vorräte der Erde die CO2-Konzentration kaum verdoppeln könnte. Wir sind also im derzeitigen Erdalter beruhigend weit weg von solchen Kipp-Punkten. Wir dürfen unter allen anderen Segnungen von CO2 auch die Förderung des Pflanzenwuchses, damit dessen enormen Beitrag zur Welternährung, genießen.

CO2 wird erst dann gefährlich, wenn man es, wie geplant, unter enormen Konzentrationen, und Drücken von 250 atm, unterirdisch endlagern will. Dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.  

Prof. Dr. C.O. Weiss Dipl. Physiker für EIKE

 /!/ http://jennifermarohasy.com/blog/2009/05/the-climatically-saturated-greenhouse-effect/

 /2/ http://wattsupwiththat.com/2010/06/27/spencer-on-pinatubo-and-climate-sensitivity/

 /3/ http://www.scienceblogs.de/primaklima/2008712/jim-hansen-spricht-auf-der-agu-von-einem-runaway-greenhouse-effect.php




Linker Umweltwissenschaftler erklärt Austritt aus Bewegung der globalen Erwärmung: bezeichnet sie als ein „korruptes soziales Phänomen… ausschließlich ein imaginäres Problem der Mittelklasse der 1. Welt

In einem exklusiven neuen Video, das gerade von Climate Depot veröffentlicht wurde, erklärt Dr. Rancourt, dass die gesamte Bewegung zur anthropogen verursachten globalen Erwärmung nichts weiter ist als ein „korruptes soziales Phänomen“. „Es ist genauso ein psychologisches und soziales Phänomen wie irgendwas sonst“, erklärte Rancourt, der einige wissenschaftlich begutachtete Forschungsergebnisse veröffentlicht hat, in einem Essay vom 8. Juni . (Rancourts
e-mail: claude.cde@gmail.com .

Das Rancourt Video gibt es hier.

“Ich sage, dass die bei weitem destruktivste Kraft des Planeten machtbesessene Finanziers und profitbesessene Körperschaften samt ihren Kartellen sind, die durch militärische Macht gestützt werden; und dass der Mythos der globalen Erwärmung ein roter Hering [red herring] ist, der dazu beiträgt, die Wahrheit zu verstecken. Nach meiner Meinung wurden Aktivisten, die den Mythos der globalen Erwärmung aus irgendwelchen erfundenen Gründen unterstützen, effektiv ausgewählt oder bestenfalls neutralisiert“, sagte Rancourt.

 „Die globale Erwärmung ist ausschließlich ein imaginäres Problem der Mittelklasse in der 1. Welt“, stellte er fest.

Umweltpolitische Zensur

Rancourts Vorstoß kam bei vielen seiner grünen Freunde gar nicht gut an. „Wenn ich den anderen Umweltaktivisten erkläre, dass man sich wegen der globalen Erwärmung keine Sorgen machen müsste, greifen sie mich an – sie meiden mich und erlauben mir nicht, meine Erkenntnisse in ihren Magazinen zu veröffentlichen“, erklärte Rancourt [explained to Climate Depot].

Rancourt erklärt gerade heraus, warum seine Gefährten der Umweltbewegung den Klimaalarm so voran treiben. (Beachte: Rancourt macht sich auch lustig über die Umweltsorgen des sauren Regens und des Ozonlochs. Siehe unten)

“Sie suchen nach komfortablen Lügen, in die sie sich flüchten können, um sich von der Schuld freizukaufen, die sie darüber empfinden, im privilegierten Teil des Planeten zu leben – eine Art Schuld des Überlebenden. Viele dieser Umweltexperten sind mit Schuld beladene Individuen, die sich von der Schuld freimachen wollen, ohne Risiken einzugehen“, sagte er. „Sie sind Wochenendaktivisten… auf der Suche nach Lügen, hinter denen sie sich verstecken können.“

 „Die moderne Umweltbewegung hat sich selbst ins Abseits geschossen, indem sie nach einer Entschuldigung suchte, um es weiterhin bequem zu haben und sich von Schlachten fernzuhalten. Ward Churchill hat diesen Pazifismus als Pathologie bezeichnet“, erklärte er. „Falls Sie sich wirklich Sorgen machen, die Wälder der Erde zu retten oder die Umweltzerstörung zu verhindern, dann kämpfen Sie gegen die Umweltzerstörung, verrennen Sie sich nicht in die dünne Konzentration von CO2 in der Atmosphäre. Stellen Sie diese Frage, denn anderenfalls schwächen Sie Ihren Einfluss als Aktivist“.

Gores Film macht ihn ‘krank’

Rancourt erklärt offen seine Feindschaft zum früheren Vizepräsidenten Al Gore und seinem Film “eine unbequeme Wahrheit”. 

 „Ich fühlte mich so unwohl, dass ich aus dem Kino flüchten wollte. Er ist schrecklich. Er respektiert nicht die Intelligenz des Zuschauers.  Der Film erkennt überhaupt nicht an, dass die Leute selbst denken können“, sagte Rancourt.

Rancourt beklagte sich darüber, wie sehr “die Umweltleute das einfach schlucken und mit Gores Film kritiklos übereinstimmen konnten“.

Gore „kommt mir vor wie jemand, der für jemanden arbeitet – als jemand, der davon finanziell profitieren möchte. Er vermittelt mir nicht den Eindruck als einer, der sich wirklich um die Umwelt oder soziale Gerechtigkeit kümmert.“

Rancourt geht auch gnadenlos mit dem umstrittenen IPCC ins Gericht. Die Wissenschaftler sind „ernannt von Regierungen, es sind Wissenschaftler, die akzeptieren, eine politische Rolle zu spielen. Ihre Mission ist es, einen Bericht zu schreiben“, der „von den Regierungen genutzt werden soll. Ihr Ziel ist es, eine Schlussfolgerung zu finden… es ist ein politischer Prozess“. 

[Anmerkung des Herausgebers: Climate Depot’s führender Editor Marc Morano trat in Dr. Denis Rancourt’s Radiosendung eine Stunde lang im Mai 2010 auf: Morano: Das Märchen der globalen Erwärmung…war totaler Quatsch, es war ein übler Job…ein wissenschaftlicher Skandal höchster Ordnung‘]

Der Kohlenstoffhandel ist „ein gigantischer Betrug”

Rancourt steht auch dem Kohlenstoffhandel sowie dem Handel mit Emissionsrechten sehr kritisch gegenüber.

“Irgendjemand wird damit eine Menge Geld verdienen. Ich bin da sehr misstrauisch. Dahinter stecken keine Motive echter Sorge um soziale Gerechtigkeit und der Umwelt. Es kann nur um mächtige Finanziers gehen. Ich sehe es als ein horrenden Betrug“, sagte Rancourt und fügte hinzu, dass er „völlig übereinstimme“ mit dem Umweltguru James Lovelock in UK, der den Kohlenstoffhandel als “auf einen gigantischen Betrug hinauslaufend” bezeichnete.

Aber es sind seine Professorenkollegen, mit denen Rancourt am härtesten ins Gericht geht.

 „Sie sind alle, fast alle dienende Intellektuelle. Sie werden keine wirkliche Kritik äußern auf eine Art und Weise, die die Interessen der Mächtigen bedrohen könnten, die sie in ihren Jobs halten. Die Dauer der Beschäftigung ist ein Prozess, der aus ihnen fügsame und gehorsame Intellektuelle macht, die dann andere Intellektuelle lehren sollen“, sagte Rancourt.

 „Man hat diese Armee von Universitätswissenschaftlern, und sie müssen so tun, als ob sie wichtige Forschungen betreiben, ohne jemals die Interessen der Mächtigen wirklich zu kritisieren. Also was suchen sie? Sie suchen nach trügerisch sauberen Dingen wie sauren Regen, globale Erwärmung“, fügte er hinzu. Dieser gesamte Prozess „hilft, jede Art von Abweichung zu neutralisieren”, so Rancourt.

“Wenn einer von ihnen wirklich etwas Schlimmes herausfindet, wird er schnell lernen und gesagt bekommen, dass er besser auf Linie bleibt – seine Karriere würde davon abhängen“, sagte Rancourt.

Einige Kernauszüge von Denis Rancourt: 

Linker Umweltaktivist & Physiker Dr. Denis Rancourt: Einige große Lügen der Wissenschaft – Juni 2010 

Ein Auszug: Umweltwissenschaftler arbeiten naiv und wissentlich Hand in Hand mit Winkeladvokaten aus der Finanzwelt, Mainstream-Medien, Politikern und staatlichen sowie internationalen Bürokraten, um reale Probleme zu maskieren und Profitmöglichkeiten zu erschließen für ausgewählte Machteliten… Ich habe den Betrug der globalen Erwärmung in einem Essay bloß gestellt, dass der Kolumnist der Zeitung ‚The Nation’ „einen der besten Essays zum Thema Treibhausmythos aus einer linken Perspektive“ nannte. (…)

Mein Essay brachte David F. Noble dazu, der Frage nachzugehen und den Artikel ‚Der Gesellschaftliche Klimacoup’ zu schreiben, in dem er offen legt, wie die Medien umfassend den Möglichkeiten des Finanzsektors folgten und dem beispiellosen Potential der Einkünfte, die das Schwenken zu grün bieten konnte. (…) Ich sage, dass die bei weitem destruktivste Kraft des Planeten machtbesessene Finanziers und profitbesessene Körperschaften samt ihren Kartellen sind, die durch militärische Macht gestützt werden; und dass der Mythos der globalen Erwärmung ein roter Hering [red herring] ist, der dazu beiträgt, die Wahrheit zu verstecken. Nach meiner Meinung wurden Aktivisten, die den Mythos der globalen Erwärmung aus irgendwelchen erfundenen Gründen unterstützen, effektiv ausgewählt oder bestenfalls neutralisiert“.

 „Die globale Erwärmung ist ausschließlich ein imaginäres Problem der Mittelklasse in der 1. Welt“.

Rancourt verhöhnt die Behauptungen über das Ozonloch: ,Kennen Sie jemanden, der durch das Ozonloch ums Leben kam?’

Rancourt macht die Behauptungen über den sauren Regen lächerlich: Als Physiker, der vom Umwelt- zum Erdwissenschaftler [Earth scientist] geworden ist, konnte ich kein einziges Beispiel finden, die negative Auswirkungen des sauren Regens in Seen oder Wäldern zu demonstrieren. Nach meiner Ansicht und im Gegensatz zu den Behauptungen der wissenschaftlichen Autoren zeigt die Forschung zum sauren Regen, dass er unmöglich ein Problem gewesen sein konnte – Ich schlussfolgerte, dass es ein Scheinproblem war. (…) Saurer Regen [ist] sehr, sehr ähnlich der globalen Erwärmung. Ein gewaschenes Problem. Ich fand durch Forschungen seit den Fünfziger Jahren heraus, dass es ein Scheinproblem war. Auswirkungen wie die Versauerung von Seen durch den sauren Regen waren so unterschwellig, so schwierig zu messen – eigentlich unmöglich zu messen in einer Zeit, in der Wälder durch reale Dinge zerstört wurden.

Rancourt steht unter den eher linken Wissenschaftlern und Aktivisten mit seiner abweichenden Meinung über die anthropogene globale Erwärmung nicht allein da. (Auszüge aus einer Rede von Senator James Inhofe, einem hohen Mitglied des Environment & Public Works Komitee)

Senator Inhofe: Es wird immer klarer, dass der Skeptizismus bzgl. der Furcht vor der anthropogenen globalen Erwärmung nicht ein Partisanenkampf zwischen Linken und Rechten ist. Tatsächlich glauben viele Wissenschaftler und Aktivisten, die ebenfalls fortschrittliche Umweltexperten sind, dass die Bewegung der Klimaangst die grüne Bewegung „übernommen“ oder „entführt“ hat.

Im August 2009 war die Wissenschaft von der globalen Erwärmung so dünn, dass selbst Aktivisten auf grünen Festivals ihren Zweifeln Ausdruck gegeben haben über die Ängste der anthropogenen globalen Erwärmung. Ein College–Professor hat mir in einer privaten Unterhaltung anvertraut, dass er ‚nicht sicher ist, ob dieser Klimawandel real ist’. So hieß es in einem Bericht über ein grünes Festival in New York.

Der linksliberale Blog [der Zeitung] Huffington Post überraschte viele mit der Veröffentlichung eines Artikels vom 3. Januar 2009 von Harold Ambler, der eine Entschuldigung von Gore fordert wegen des Schürens unbegründeter Ängste vor der globalen Erwärmung. In dem Artikel in der Huffington Post wurde Gore vorgeworfen, „der Öffentlichkeit den größten Whopper in der Geschichte der Menschheit verkauft zu haben“, weil er behauptet hatte, dass sich die Wissenschaft einig sei in der Beurteilung der globalen Erwärmung. Zu dem mit der Überschrift „Mr. Gore: Entschuldigung akzeptiert“ versehenen Artikel fügte die Zeitung hinzu, dass „es Mr. Gore und seine Brüder seien, die die Erde als Scheibe betrachten, nicht die Skeptiker.

In dem Artikel heißt es weiter: “lassen wir es niemals zu, dass unsere eigene Wirtschaft verkrüppelt wird durch die Bezeichnung von Kohlendioxid als Giftstoff oder dadurch die Entwicklung in der Dritten Welt verhindert wird, wo sich das Leiden ungebremst fortsetzt, Tag für Tag“.

Der britische Atmosphärenwissenschaftler Richard Courtney, ein links des Zentrums stehender Sozialist, ist ein weiterer Abweichler von den Klimaängsten durch den Menschen. Courtney, ein Begutachter des IPCC und Berater der Klima- und Atmosphärenwissenschaft in Großbritannien, beschreibt sich selbst als Sozialist, der die AGW-Ängste zurückweist. Courtney erklärte im Jahre 2008, dass es “keine Korrelation zwischen den anthropogenen Emissionen von Treibhausgasen und der globalen Temperatur gibt”.

Viele andere fortschrittliche Umweltexperten stimmen Courtney zu:

Das ehemalige Mitglied von Greenpeace, der finnische Wissenschaftler Dr. Jarl R. Ahlbeck, ein Dozent für Umwelttechnologie und chemischer Ingenieur an der Abo Akademi University in Finnland, der 200 wissenschaftliche Publikationen verfasst hat, ist ebenfalls skeptisch hinsichtlich der menschengemachten Klimadämmerung. Ahlbeck schrieb 2008: „Im Gegensatz zum allgemeinen Glauben gab es seit 1995 nur eine sehr geringe oder gar keine globale Erwärmung mehr, und dies wird absolut unabhängig voneinander durch zwei verschiedene Datensätze belegt. Und bis jetzt gibt es aus realen Messungen keinen Grund für Sorgen, dass es in Zukunft zu einer katastrophalen globalen Erwärmung kommen könnte“. (LINK)

Wissenschaftler und Zeit seines Lebens liberaler Demokrat weist Klimaängste zurück.

Der Zeit seines Lebens liberale Demokrat Dr. Martin Hertzberg, ein
Navy–Meteorologe im Ruhestand mit einem Ph. D. in physischer Chemie, erklärte 2008 ebenfalls seine abweichende Meinung zu den Ängsten vor der Erwärmung. „Als Wissenschaftler und lebenslanger liberaler Demokrat finde ich, dass die ständige Wiederholung der anekdotischen, Angst erzeugenden Panikmache über das AGW ein großer Schaden für die Wissenschaft ist“, schrieb Hertzberg. „Die Alarmisten scheren sich nicht einmal um Daten! Alles, was sie haben, sind halbgare Computermodelle, die total fern der Wirklichkeit liegen und sich längst als völlig falsch herausgestellt haben“, fügte Hertzberg hinzu. (LINK)

Der Geologe Dr. Robert Giegengack, der ehemalige Vorsitzende im Fachbereich Erd- und Umweltwissenschaft an der University of Pennsylvania, verkündete öffentlich, dass er im Jahre 2000 für Al Gore gestimmt hat und das wieder tun würde. Aber Giegengack stimmt Gores Ansichten zur Wissenschaft überhaupt nicht zu  und stellt fest, dass die globale Erwärmung nicht einmal unter den ‚Top Ten‘ der Umweltprobleme rangiert, denen die Welt gegenüber steht, und schon gar nicht als Top Thema geeignet ist. „Hinsichtlich des Potentials (der globalen Erwärmung), der Menschheit Schaden zuzufügen, denke ich nicht, dass es dieses Thema bis in die ‚Top Ten’ schaffen wird“, sagte Giegengack in einem Interview in der Ausgabe Mai/Juni der Pennsylvania Gazette. (LINK)

 ‘Intellektuelle Blasphemie‘

Andere lieberale Umweltwissenschaftler und Aktivisten folgen Giegengack inzwischen.

Alexander Cockburn, ein Journalist und Außenseiter, der bei den meisten Themen links orientiert ist, kritisierte scharf den angeblichen Konsens zur globalen Erwärmung auf der politischen Website CounterPunch.org. Er argumentiert, dass es noch keinen Beweis dafür gibt, dass Menschen für den Anstieg der globalen Temperatur verantwortlich sind. Nachdem er sich öffentlich gegen die Befürchtungen der Alarmisten ausgesprochen hatte, schrieb Cockburn am 22. Februar 2008: „Ich wurde behandelt, als hätte ich eine intellektuelle Blasphemie begangen“. Cockburn kritisierte die politische Linke harsch dafür, dass sie sich vom Klimaalarmismus vereinnahmen ließen. „Diese Hinwendung zum Klimakatastrophismus hängt mit der abnehmenden Zustimmung zu den Linken zusammen sowie mit der Ablehnung der optimistischen Vision der Linken, die ökonomische Natur der Dinge durch ein politisches Programm zu verändern. Die Linke hat sich an den Umweltkatastrophismus gehängt, weil sie glaubt, die Welt überreden zu können, dass dort wirklich eine Katastrophe ist. Dann wird das Ergebnis davon, der Notfall nämlich, irgendwie zu positiven Entwicklungen hinsichtlich sozialer und umweltfreundlicher Gerechtigkeit führen“, schrieb Cockburn. (Siehe auch: Berichte vom Juli 2007 und März 2008, die detailliert zeigen, wie sehr skeptische Wissenschaftler bedroht und eingeschüchtert wurden – LINK & LINK )

Bei CNN – nicht gerade eine Bastion der Konservativen – hatte sich einer ihrer Meteorologen von den Erwärmungsängsten distanziert. Chad Myers, seit 22 Jahren Meteorologe und zertifiziert von der Amerikanischen Meteorologischen Gesellschaft (American Meteorological Society), wandte sich im Dezember auf CNN gegen die anthropogenen Klimabehauptungen. „Wissen Sie, der Gedanke, dass wir das Wetter in diesem Ausmaß beeinflussen können, ist ziemlich arrogant“, sagte Myers in der Sendung "Lou Dobbs Tonight" am 18. Dezember 2008 “Mutter Natur ist so groß, die Welt ist so groß, die Ozeane sind so groß – ich glaube, dass wir am Frischwassermangel sterben oder an der Versauerung der Ozeane, bevor wir durch die globale Erwärmung sterben, mit Sicherheit“, erklärte Myers.

Der vielleicht größte Schock in der Debatte um die globale Erwärmung war der kürzliche Wechsel des berühmten französischen Geophysikers Dr. Claude Allegre von einem Befürworter der gefährlichen anthropogenen Erwärmung zu einem Skeptiker. Allegre, früher einmal Vorsitzender der Sozialistischen Partei in Frankreich und Mitglied sowohl in der französischen als auch in der US-amerikanischen Akademie der Wissenschaften, war einer der ersten Wissenschaftler, der die Ängste vor der globalen Erwärmung vor 20 Jahren ansprach. Aber heute sagt er, dass der Grund für Klimaänderungen „unbekannt“ ist. Er machte sich in einem Artikel im September 2006 (LINK) lustig über die, wie er es nannte, „Propheten des Untergangs durch die globale Erwärmung“. Allegre hat über 100 wissenschaftliche Aufsätze verfasst, 11 Bücher geschrieben und zahlreiche wissenschaftliche Orden erhalten, einschließlich der Goldschmidt–Medaille der Geochemischen Gesellschaft der USA. Er glaubt heute, dass die Hysterie um die globale Erwärmung finanzielle Gründe hat. „Die Ökologie hilfloser Proteste ist zu einem sehr lukrativen Geschäft für einige Leute geworden!“ erklärte er.

Die ‘entführte’ politische Linke 

Der linksorientierte Professor David Noble der York University in Kanada hat sich inzwischen in die wachsende Schar desillusionierter liberaler Aktivisten eingereiht. Noble glaubt jetzt, dass die Bewegung „den Hype um das globale Klima in eine Besessenheit erhoben hat“. Noble schrieb am 8. Mai 2007 ein Essay mit dem Titel „Der gesellschaftliche Klimacoup“, in dem er viele Details beschreibt, wie die globale Erwärmung die politische Linke „vereinnahmt“ und eine „gesellschaftliche Klimakampagne“ erschaffen hat“, „die von der Aufmerksamkeit für die radikalen Änderungen der globalen Gerechtigkeitsbewegung ablenken soll“. (LINK)

Der Botaniker Dr. David Bellamy, ein berühmter Umweltaktivist in Großbritannien, ehemaliger Dozent an der Durham University und Moderator einer populären
TV–Serie über die Wildnis, wandelte sich von einem Gläubigen zu einem Skeptiker der globalen Erwärmung. Bellamy, ein überzeugter Umweltexperte, sagt jetzt, dass ihn diese Wandlung seine Karriere beim BBC gekostet hat. Bellamy sagte 2008: „Es ist meine Meinung, dass es absolut keinen Beweis dafür gibt, dass das Kohlendioxid irgendetwas mit irgendeiner bevorstehenden Katastrophe zu tun hat. Die Wissenschaft ist ganz einfach schief gegangen. Tatsächlich ist es nicht einmal mehr Wissenschaft, es ist Anti–Wissenschaft. Es gibt keinen Beweis, sondern nur Projektionen, und wenn man auf die Modelle schaut, so wie es Gore tut, kann man leicht erkennen, dass sie sich daraus nur diejenigen Erkenntnisse herauspicken, die zu ihren Behauptungen passen“. (LINK)

Der Geologe Peter Sciaky fasst diesen zunehmenden Rückzug linker Umweltaktivisten bzgl. der globalen Erwärmung zusammen. Sciaky, der sich selbst als ein „Linker und Liberaler“ sieht, schrieb am 9. Juni 2007: „Ich kenne keinen einzigen Geologen, der glaubt, dass die globale Erwärmung ein menschengemachtes Problem ist“.

Der Ökologe Dr. Patrick Moore, ein Gründungsmitglied von Greenpeace, hat sich ebenfalls den Reihen der Abweichler angeschlossen. „Es ist klar, die Behauptung, dass anthropogenes CO2 und der steigende CO2–Anteil in der Atmosphäre der Grund für die gegenwärtige globale Erwärmung sind, ist eine Hypothese, die bis jetzt noch nicht den Grad einer wissenschaftlich nachgewiesenen Theorie erreicht hat. Diese Ursache wurde nie in aufschlussreicher Weise gezeigt“, schrieb Moore, der Chefwissenschaftler bei Greenspirit, im Jahre 2006. (Ende der Auszüge der Rede von Senator Inhofe)

Weitere Links:

SCHOCK: James Lovelock, ein Guru der Grünen in Großbritannien hat seine Meinung geändert!: Lovelock: Anthropogene Kohlenstoffemissionen ‚haben uns vor einer neuen Eiszeit bewahrt‘ (March 2010)

Marc Morano, Haupteditor auf ClimateDepot, über Dr. Denis Rancourt’s Radio Show im Mai 2010: Morano: Das Märchen von der globalen Erwärmung … war total quatschig, es war ein betrügerischer job… ein wissenschaftlicher Skandal erster Güte‘

Link dieses Textes: http://www.climatedepot.com/a/7477/Leftwing-Env-Scientist-Bails-Out-Of-Global-Warming-Movement-Declares-it-a-corrupt-social-phenomenonstrictly-an-imaginary-problem-of-the-1st-World-middleclass 

Übersetzt von Chris Frey




Die Thermostat – Hypothese!

Die Stabilität der Erdtemperatur über lange Zeiträume der Vergangenheit war schon sehr lange ein klimatologisches Rätsel. Die Variation der Temperatur des Globus’ lag bei +/- 3% (einschließlich der Eiszeiten) während mindestens der letzten halben Milliarde von Jahren, dem Zeitraum also, für den wir die Temperatur abschätzen können. Während des Holozäns variierte die Temperatur um weniger als 1%. Und auch während der Eiszeiten war die Temperatur im Allgemeinen genauso stabil.
Im Gegensatz zur Stabilität der globalen Temperatur gibt es seit langem Hinweise (Gough, 1981; Bahcall et al., 2001), dass die Strahlung der Sonne vor 4 Milliarden Jahren nur etwa drei Viertel des heutigen Wertes erreichte. Jedoch war es auf der Erde in frühen geologischen Zeiten nicht um den gleichen Betrag kälter. Proxy–Daten der Temperatur wie z. B. das Verhältnis zwischen Deuterium und Wasserstoff sowie der Sauerstoff–Isotope O16 und O18 zeigten keine Anzeichen für eine Erwärmung der Erde um 30% während dieser Zeit. Warum hat sich die Erde nicht erwärmt, die Sonne aber schon?
Dies nennt man das “Schwächeparadoxon der frühen Sonne” (Faint Early Sun Paradox) nach Sagan und Mullen, 1972. Normalerweise wird dies damit erklärt, dass in der frühen Erdatmosphäre viel mehr Treibhausgase enthalten waren als in der heutigen Atmosphäre.
Jedoch würde dies eine graduelle Abnahme des GHG–Forcings [Green House Gas] implizieren, die genau zu der  Milliarden Jahre langen Zunahme der solaren Strahlung bis auf den heutigen Wert passen müsste. Dies erscheint sehr unwahrscheinlich.
Viel wahrscheinlicher ist, dass irgendein natürlicher Mechanismus die Globaltemperatur in geologischen Zeiträumen reguliert hat.

Bejan (Bejan 2005) hat gezeigt, dass das Klima grob als eine Wärmekraftmaschine modelliert werden kann, mit dem Ozean und der Atmosphäre als agierende Medien. Die Tropen sind das heiße Ende der Wärmekraftmaschine. Ein Teil der tropischen Hitze wird in den Weltraum abgestrahlt. Die agierenden Medien sorgen dafür, dass der übrige Anteil der Wärme zu den Polen transportiert wird. Dort, am kalten Ende der Wärmekraftmaschine, wird die [restliche] Wärme in den Weltraum abgestrahlt. Bejan hat gezeigt, dass die Existenz und räumliche Verteilung der Hadley–Zellen ein aus diesen Vorgängen ableitbares Ergebnis darstellen. Er zeigte auch, wie die Temperatur durch dieses System bestimmt wird.
“Wir verfolgen dies aus der Sicht der Konstruktion, die darin besteht, dass die (globale) Zirkulation selbst eine fließende Geometrie repräsentiert, die das Ergebnis der Maximierung des globalen Geschehens ist und globalen Einschränkungen unterliegt.
Die größte Kraft, die dieses zusammengesetzte System erzeugen kann, lässt sich mit dem reversiblen Betrieb eine Kraftwerkes vergleichen. Die Energieerzeugung in diesem Rahmen ist proportional zu

 
Hier steht q für den gesamten Energiefluss des Systems (von den Tropen zu den Polen) und TH und TL für die höchsten und tiefsten Werte der Temperatur (aus den Tropen und den Polarregionen in Kelvin). Das System arbeitet unaufhörlich, um jenen Energieausstoß zu maximieren. Hier sieht man das ganze System dargestellt, das die Wärme von den Tropen zu den Polen transportiert.


 
Abbildung 1: Die Erde als Wärmekraftmaschine.

Die subtropischen Hadley–Zellen liefern die Energie für das System. In den Tropen ist die Sonneneinstrahlung (orangene Pfeile) am stärksten, weil die Sonne dort am steilsten steht. Die Länge der orangenen Pfeile repräsentiert die relative Stärke der Sonnenstrahlung. Warme, trockene Luft sinkt um den 30. Breitengrad nördlicher und südlicher Breite ab und bildet die großen Wüstengürtel rings um den Globus. Die Wärme wird durch eine Kombination von Ozeanen und Atmosphäre zu den Polen transportiert. An den Polen wird die Wärme in den Weltraum abgestrahlt.
Mit anderen Worten, variable Systeme wie das Erdklima legen kein stabiles Temperaturregiment fest. Sie regenerieren ihre eigene Entwicklung dergestalt, dass sie die erzeugte und verbrauchte Energie maximieren. Es ist dieser dynamische Prozess, und nicht eine einfache lineare Transformation der Zusammensetzung der Gase in der Erdatmosphäre, der die allgemeine Temperaturspanne des Planeten bestimmt.
Man beachte: das Konstruktionsgesetz besagt, dass jedes sich in einer Umlaufbahn bewegende System danach strebt, sich „quasi zu stabilisieren“ in irgendeinem idealen Status. Dieser ideale Status wird aber nie erreicht. Im Falle des Erdklimas ist dies der Zustand maximaler Energieproduktion und maximalem Energieverbrauch. Und dies wiederum impliziert, dass jeder wasserartige Planet eine ausgeglichene Temperatur aufweist, die aktiv durch das Fließsystem festgelegt wird. Siehe das Papier von Ou (unten) für ein besseres Verständnis dieses Systems.
Mechanismen, die das Klima bestimmen

Jede Wärmekraftmaschine hat ein Ventil. Das Ventil kontrolliert, wie viel Energie in die Maschine einfließt. In einem Auto nennt man dieses Ventil das Gaspedal. Es kontrolliert die eingehende Energie.
Die Stabilität der Temperatur auf der Erde mit der Zeit (einschließlich des Wechsels zwischen Eis- und Zwischeneiszeiten, die jeweils ebenfalls stabil waren), sowie theoretische Überlegungen lassen vermuten, dass diese Wärmekraftmaschine, die wir Klima nennen, irgendeine Art von Regulator haben muss, der das Ventil kontrolliert.
Während alle Wärmekraftmaschinen ein solches Ventil haben, enthalten nicht alle einen Regulator. In einem Auto ist ein solcher Regulator das Tachometer (“Cruise Control”). Es reguliert das Ventil (das Gaspedal). [Fast alle Autos in den USA haben eine Vorrichtung, mit der man eine bestimmte Geschwindigkeit konstant einstellen kann, ohne ständig das Gaspedal zu berühren. A. d. Übers.] Ein Regulator passt den Energiefluss zum Automotor an, um eine konstante Geschwindigkeit zu erreichen, unabhängig von äußeren Einflüssen (z. B. Berge, Wind, Effizienz und Verluste des Motors).
Man kann die Kandidaten für die Regulierung des Klimas eingrenzen indem wir erstens zur Kenntnis nehmen, dass ein Regulator das Ventil kontrolliert (welches im Gegenzug den Energiezufluss einer Wärmekraftmaschine kontrolliert). Zweitens gilt, dass ein erfolgreicher Regulator in der Lage sein muss, das System über das gewünschte Resultat hinaus zu treiben (overshoot).
(Beachte, dass sich ein Regulator, der ein Trägheitsloop enthält, von negativem Feedback unterscheidet. Ein negatives Feedback kann einfallende Energie höchstens reduzieren. Es kann nicht für ein Gleichgewicht sorgen, wenn verschiedene Antriebskräfte, variable Ladungen und veränderliche Verluste auftreten. Dies kann nur ein Regulator.)
Der größte Teil der Absorption von Wärme durch die Erde findet in den Tropen statt. Die Tropen bestehen wie die übrige Welt überwiegend aus Ozeanen; und die Landmassen dort sind nass. Mit einem Wort, die dampfenden Tropen. Es gibt kaum Eis dort, so dass es nur von der Bewölkung abhängt, wie viel Sonnenenergie in die Wärmekraftmaschine des Klimas eingeht.
Ich schlage zwei separate, in Wechselwirkungen stehende Mechanismen vor, die direkt den Wärmehaushalt der Erde regulieren – tropische Kumulus- und Kumulonimbus–Wolken. Kumuluswolken sind die flauschigen „Wattebälle“, die in relativ geringer Höhe über dem Erdboden an warmen Nachmittagen entstehen. Kumulonimbuswolken sind Gewitterwolken, die aber auch als kleine Kumuli beginnen. Beide Wolkentypen sind Teil des Ventils, das die eintreffende Strahlung kontrolliert und ggf. reduziert. Außerdem sind Kumulonimbuswolken selbst aktive Wärmekraftmaschinen, die den notwendigen Überschuss zur Verfügung stellen, um als Regulator des Systems zu fungieren.
Ein einfaches Gedankenexperiment zeigt, wie dieser Wolkenregulator wirkt. Es nennt sich „Ein Tag in den Tropen“.
Ich lebe mitten in den feuchten Tropen auf 9 Grad südlicher Breite mit Blick auf den Pazifik von meinem Fenster aus. Der typische Wetterablauf an einem Tag sieht folgendermaßen aus. Tatsächlich ist es ein typischer Sommertag überall in den Tropen. Der Wetterbericht lautet so:
Klar und windstill bei der Morgendämmerung. Leichter Wind, gegen Mittag aufkommende Wolkenbildung. Weiter zunehmende Bewölkung am Nachmittag mit einzelnen Schauern und Gewittern. Aufklaren zum oder nach Sonnenuntergang, eventuell noch ein einzelnes Gewitter nach Einbruch der Dunkelheit. Fortschreitendes Aufklaren bis zur Morgendämmerung.
Dies ist der allgemeine Tageszyklus tropischen Wetters, einfach genug, um überall in der Welt als Klischee zu dienen.
Dieser Ablauf wird angetrieben durch die Tag-/Nachtvariation der Stärke der Sonnenenergie. Vor der Morgendämmerung ist die Atmosphäre typischerweise ruhig und klar. Sobald der Ozean (oder feuchtes Land) sich erwärmt, steigen Temperatur und Verdunstung. Feuchte, warme Luft beginnt aufzusteigen. Dabei kühlt sich die Luft ab, und die Feuchtigkeit kondensiert zu Wolken. Die Wolken reflektieren das Sonnenlicht. Die Wolken verschließen das Ventil etwas und reduzieren so die einfallende Energie. Damit beginnen sie, das System abzukühlen. Dies ist der Anteil des negativen Feedback der Klimakontrolle durch die Wolken.
Die tropische Sonne ist stark, und trotz des negativen Feedback durch die Kumuluswolken wird es weiter wärmer. Je mehr die Sonne auf den Ozean scheint, umso mehr warme, feuchte Luft entsteht, und umso mehr Kumuluswolken bilden sich. Natürlich reflektieren diese noch mehr Sonnenlicht, so dass das Ventil noch etwas weiter geschlossen wird. Aber der Tag bleibt warm.
Die volle Entwicklung der Kumuli bildet die Bühne für den zweiten Teil der Temperaturregulation. Dies ist kein bloßes negatives Feedback. Es ist das klimaregulierende System. Mit weiter steigender Temperatur und Verdunstung verändern sich die flauschigen Kumuli plötzlich. Sie schießen nach oben und bilden Ambossformen; schießen Tausende von Metern hoch in den Himmel in kurzer Zeit. Die Kumuli haben sich in Kumulonimben oder Gewitterwolken verwandelt. Der säulenförmige Wolkenkörper des Gewitters wirkt wie eine gigantische vertikale Warmluftröhre. Das Gewitter saugt warme, feuchte Luft von den bodennahen Luftschichten und jagt sie in den Himmel. In der Höhe kondensiert der Wasserdampf, so dass die latente Wärme wieder in fühlbare Wärme umgewandelt wird. Die Luft erwärmt sich dadurch wieder [im Vergleich zur Umgebungsluft, A. d. Übers.] und steigt immer weiter nach oben.
An der Wolkenobergrenze wird die Luft aus der Wolke ausgeblasen, weit oberhalb des größten Teils des atmosphärischen Kohlendioxids. In dieser dünnen Atmosphäre kann die Luft viel leichter in den Weltraum ausstrahlen. Durch die Bewegung im Wärmeschlauch des Gewitters umgeht die aufsteigende Luft die meisten Treibhausgase und wird erst wieder an der Obergrenze der Troposphäre ausgeblasen. Während des Transportes nach oben gibt es keine radiative oder interaktive Wechselwirkung zwischen der aufsteigenden Luft einerseits sowie der unteren und mittleren Troposphäre andererseits. Im Inneren des Gewitters wird die aufsteigende Luft kanalisiert und an der Obergrenze wieder ausgeblasen.
Zusätzlich zur Reflektion des Sonnenlichtes an der Obergrenze der Kumuli und des Wärmetransports in die obere Troposphäre, wo die Wärme leicht in den Weltraum abstrahlen kann, kühlen die Gewitter die Erdoberfläche auf vielfältige Weise, besonders über dem Ozean.

1. Durch Wind angetriebene Verdunstungskälte. Hat die Entwicklung des Gewitters erst einmal begonnen, bildet sich an der Basis ein eigenes Windsystem. Dieser selbstgenerierte Wind verstärkt die Verdunstung in vielfältiger Weise, besonders über dem Ozean.

a) Die Verdunstung nimmt linear mit der Windgeschwindigkeit zu. An einer typischen Squall-Linie mit einer Geschwindigkeit von 10 m/s ist die Verdunstung etwa zehnmal größer als unter „ruhigen“ Bedingungen (definitionsgemäß um 1 m/s).
b) Der Wind lässt die Verdunstung durch die Entstehung von Gischt und Sprühnebel sowie durch das Abtrocknen von Bäumen und Blättern zunehmen. Dies vergrößert die für die Verdunstung zur Verfügung stehenden Flächen erheblich, denn an der Gesamtoberfläche der Millionen von Tröpfchen verdunstet das Wasser genau so wie an der Erdoberfläche selbst.
c) In geringerem Umfang trägt auch die Erzeugung von Wellen durch den Wind zur Vergrößerung der Oberfläche bei (eine wellenförmige Oberfläche liefert einen größeren Beitrag zur Verdunstung als eine flache).
d) Durch Wind erzeugte Wellen wiederum lassen die Turbulenz in der Grenzschicht stark zunehmen. Dies verstärkt die Verdunstung, weil trockene Luft aus höheren Luftschichten bis zur Erdoberfläche herunter gewirbelt wird, während gleichzeitig feuchte Luft aufwärts weht.
e) Da sich der aufgewirbelte Sprühnebel rasch auf die Lufttemperatur erwärmt, die in den Tropen häufig höher ist als die Wassertemperatur, verstärkt sich die Verdunstung ebenfalls verglichen mit derjenigen an der Wasseroberfläche.

2. Durch den Wind zunehmende Albedo. Der Sprühnebel, Gischt und die weißen Wellenkämme sorgen für eine erhebliche Zunahme der Albedo der Meeresoberfläche. Dies reduziert die vom Ozean absorbierte Energie.

3. Kalter Regen und kalter Wind. Wenn die feuchte Luft durch den Wärmeschlauch in der Gewitterwolke steigt, kondensiert das Wasser und fällt aus. Da dieses Wasser aus Luftschichten mit Temperaturwerten unter dem Gefrierpunkt fällt, kühlt es die untere Atmosphäre, durch die es fällt, und die Oberfläche beim Auftreffen. Diese [selbst produzierte] Kaltluft weht radial aus dem Zentrum des fallenden Regens heraus und kühlt so auch die umgebende Luft.

4. Zunahme des Gebietes mit Reflektion. Weiße, flauschige Kumuli sind nicht groß und reflektieren [das Sonnenlicht] nur an ihrer Oberseite. Andererseits reflektiert der vertikale Luftschlauch des Gewitters das Sonnenlicht auf der gesamten Länge. Dies bedeutet, dass Gewitterwolken eine viel größere Fläche beschatten als ihr eigener horizontaler Durchmesser, vor allem am späten Nachmittag.

5. Modifizierung hochtroposphärischer Wolken aus Eiskristallen (Linden [Lindzen?] 2001, Spencer 2007). Diese Wolken bilden sich aus den winzigen Eispartikelchen, die aus der Wärmekraftmaschine des Gewitters ausgeblasen werden. Es scheint so, als ob die regulatorische Wirkung dieser Wolken eine größere Auswirkung haben, da man von ihnen glaubt, dass sie eher wärmend (wegen der Absorption von IR) als abkühlend wirken (durch Reflektion).

6. Verstärkte nächtliche Ausstrahlung. Anders als langlebige Stratusbewölkung lösen sich Kumuli und Kumulonimben im Allgemeinen zur Nacht auf, bis zu dem typischen klaren Himmel der Morgendämmerung. Dies gestattet eine verstärkte Wärmeabstrahlung in den Weltraum.

7. Absinken trockener Luft bis zur Oberfläche. Die oben aus dem Gewitter ausgeblasene Luft sinkt als Gegengewicht außerhalb der Wolke wieder ab. Diese absinkende Luft ist sehr trocken, denn beim Aufsteigen hat sie fast ihre gesamte Feuchtigkeit durch Kondensation in der Gewitterwolke abgegeben. Je trockener diese Luft ist, umso mehr Feuchtigkeit kann sie bis zum erneuten Aufsteigen aufnehmen. Dies verstärkt die verdunstungsbedingte Abkühlung der Erdoberfläche.

Indem sie eine solche Fülle abkühlender Mechanismen zur Folge haben, sorgen Kumuli und Gewitterwolken extrem effektiv für eine Abkühlung der Oberfläche. Zusammen bilden sie den Regulator für die Temperatur in den Tropen.

Aber wo ist dieser Mechanismus?

Das Problem bei meinem Gedankenexperiment, [das Wetter an] einem typischen tropischen Tag zu beschreiben, liegt darin, dass es sich ständig ändert. Die Temperatur steigt und fällt, die Wolken bilden sich und fallen wieder zusammen, der Tag wechselt zur Nacht und umgekehrt, die Jahreszeiten kommen und gehen. Wo in all dieser ewigen Änderung ist der regulatorische Mechanismus? Wenn sich alles fortwährend ändert, was sorgt dafür, dass es Monat für Monat und Jahr für Jahr das Gleiche ist? Wenn die Bedingungen immer unterschiedlich sind, was hindert sie daran, den Rahmen zu sprengen (to run off the rails)?
Wenn man die Wirkung des Regulators beobachten will, braucht man einen anderen Standpunkt. Man braucht eine zeitlose Betrachtung ohne Jahreszeiten und ohne den Wechsel von Tag und Nacht. Und komischerweise gibt es in diesem „Ein Tag in den Tropen“ genannten Gedankenexperiment tatsächlich einen solchen zeitlosen Standpunkt, bei dem es nicht nur keinen Tages- und Nachtrhytmus gibt, sondern bei dem es auch immer Sommer ist.
Der Standpunkt ohne Tag und Nacht, von dem aus wir die Wirkung des Regulators beobachten können, ist der Standpunkt der Sonne. Man stelle sich vor, man beobachte die Erde von der Sonne aus. Aus diesem Blickwinkel gibt es Tag und Nacht nicht. Alle Teile der sichtbaren Erde liegen fortwährend im Sonnenlicht. Und unter der Sonne ist immer Sommer.
Wenn wir die allgemeine Definition akzeptieren, dass Norden oben liegt, bewegt sich die sichtbare Erdoberfläche von links nach rechts durch die Erdrotation. Also befindet sich der linke Rand der sichtbaren Erdoberfläche immer beim Sonnenaufgang und der rechte Rand immer beim Sonnenuntergang. Der Mittag liegt in einer vertikalen Linie unterhalb der Sonne in der Mitte. Von diesem zeitlosen Standpunkt aus ist der Morgen immer und ewig links, der Nachmittag rechts zu finden. Kurz gesagt haben wir auf diese Weise die Zeitkoordinaten durch die Koordinaten des Weltraumes ersetzt. Dies macht die Wirkung des Regulators anschaulich.
Die Tropen erstrecken sich von links nach rechts über die runde sichtbare Oberfläche. Am linken Ende der Tropen, nach dem Sonnenaufgang, erkennt man nur sehr wenige Wolken. Die Wolken nehmen immer mehr zu, je weiter man auf diesem Band nach rechts wandert. Um die Mittagszeit gibt es schon recht viele Kumuli, während weiter rechts immer mehr Kumuli und auch eine zunehmende Zahl von Gewitterwolken weite Gebiete der Tropen überdecken.
Es ist, als ob es einen abgestimmten Spiegel [zur Reflektion des Sonnenlichtes] über den Tropen gibt, mit den wenigsten Wolkenspiegeln links, die allmählich immer mehr zunehmen bis zur ausgedehnten Bewölkung und den Gewittern rechts.
Nach der Bildung der Hypothese, dass aus Sicht der Sonne die rechte Seite der Tropen stärkere Bewölkung aufweist als die linke, dachte ich „Hey, das ist eine überprüfbare Position, um meine Hypothese zu stützen oder zu zerstören“. Um zu untersuchen, ob die postulierte stärkere Bewölkung im rechten Teil der Erdoberfläche wirklich existiert, habe ich ein Mittel von 24 Bildern vom Pazifik aneinander gereiht, jeweils aufgenommen am 1. und am 15. eines jeden Monats über ein ganzes Jahr. Daraus ermittelte ich die mittlere Änderung der Albedo und daraus folgend die Änderung des Antriebs zu jeder Zeit. Hier ist das Ergebnis:

 
Abbildung 2. Ein-Jahres-Mittel von Satellitenbildern des Satelliten GOES–West aufgenommen jeweils zur Mittagszeit lokal unter dem Satelliten.

Die innertropische Konvergenz erkennt man an dem hellen Band in dem gelben Rechteck. Die lokale Zeit wird durch die blauen Linien im Bild angezeigt. Die Uhrzeiten stehen unter den zugehörigen Graphen. Die rote Linie in der Graphik zeigt die Anomalie der Sonnenstrahlung (in Watt pro Quadratmeter) in der gelb umrandeten Fläche. Der schwarze Graph zeigt die Albedo in diesem Gebiet.
Die Graphik unter dem Bild zeigt die Albedo und die Solarstrahlung im [Bereich des] gelben Rechtecks um die innertropische Konvergenz. Man beachte die starke Zunahme der Albedo zwischen 10.00 und 11.30 Uhr. Sie sehen den Mechanismus, der dafür sorgt, dass die Erde sich nicht überhitzt. Er sorgt für eine Änderung der Sonnebestrahlung von –60 W/m² zwischen zehn Uhr und Mittag.
Nun überlegen Sie, was passiert, wenn es aus irgendwelchen Gründen in den Tropen etwas kühler ist. Die Sonne braucht dann länger, die Oberfläche zu erwärmen. Die Verdunstung setzt erst später am Tag ein. Wolken bilden sich nur zögernd. Die Gewitter bilden sich später, es bilden sich weniger davon, und wenn es nicht warm genug ist, bilden sich diese riesigen, die Oberfläche kühlenden Wärmekraftmaschinen überhaupt nicht.
Und aus der Sicht der Sonne verlagert sich die Reflektionstätigkeit nach rechts, so dass mehr und längere Zeit die Sonne scheint. Die Reduzierung der Sonnenstrahlung um 60 W/m² findet erst später am Tag statt, so dass die lokale Einstrahlung zunimmt.
Wird es in den Tropen hingegen ein wenig wärmer als normal, verschiebt sich die Reflektion nach links, und Wolken bilden sich früher. Heiße Nachmittage begünstigen die Bildung von Gewittern, die die Oberfläche kühlen. Auf diese Weise sorgt eine sich selbst justierende Abkühlung im Schatten von Gewitterwolken dafür, dass sich die Temperatur am Nachmittag in Grenzen hält.
Nun haben einige Wissenschaftler behauptet, dass Wolken ein positives Feedback haben. Aus diesem Grunde sollen Gebiete mit mehr Wolken wärmer werden als Gebiete mit weniger Wolken. Dieses positive Feedback wird als Ursache dafür gesehen, dass Wolken und Wärme miteinander korreliert sind.
Ich und andere vertreten eine entgegengesetzte Auffassung. Ich sage, dass die Wolken durch die Erwärmung entstehen, und nicht die Erwärmung durch die Wolken.
Glücklicherweise gibt es Wege, um abzuschätzen, ob Änderungen der Reflektivität durch die Wolkenschirme und Gewitter in den Tropen durch steigende Temperaturen begünstigt werden (und diese damit begrenzen), oder ob eine Zunahme der Wolken die Temperatur allgemein steigen lässt. Das heißt, man muss die Änderung in der Albedo zusammen mit der Änderung der Temperatur betrachten. Hier folgen zwei Ansichten der Albedo in den Tropen im Abstand von sechs Monaten. Der August ist der wärmste Monat in der Nordhemisphäre. Die Sonne befindet sich nördlich [des Äquators]. Beachte die hohe Albedo (hellblaue Gebiete) über Nordafrika, China und die nördlichen Gebiete von Süd- und Mittelamerika. Im Gegensatz dazu ist die Albedo in Brasilien, Südafrika und Indonesien/Australien gering.

 
Abbildung 3. Monatliche mittlere Albedo. Beide Darstellungen liegen ein halbes Jahr auseinander.

Im August herrscht auf der Nordhemisphäre, im Februar auf der Südhemisphäre Hochsommer. Hellblaue Gebiete zeigen die höchste Reflektivität (die größte Albedo).
Im Februar steht die Sonne im Süden. Die Verteilung der Albedo ist umgekehrt. In Brasilien und Südafrika sowie Australien ist es warm unter der Sonne. Als Reaktion darauf bilden sich die Wolken, so dass diese Gebiete nun eine hohe Albedo aufweisen. Im Gegensatz dazu ist die Albedo im Norden niedrig, mit Ausnahme der hohen Reflektion in den Wüsten Sahara und Rub Al Khali.
Man erkennt ganz klar, dass die Wolkenalbedo (von Kumuli und Kumulonimben) dem Sonnenstand folgt und die Erde vor der Überhitzung bewahrt. Dies zeigt ziemlich eindeutig, dass die Wolken sich infolge der Wärme bilden und nicht umgekehrt.
Unabhängig davon zeigen diese Bilder auch auf andere Weise, dass die Wärme die Wolkenbildung auslöst. Bekanntlich erwärmt sich das Festland im Sommer stärker als der Ozean. Wenn wirklich die Temperatur die Wolkenbildung steuert, müsste es über Land eine größere Änderung der Albedo geben als über dem Ozean. Und das ist ganz klar der Fall. Man erkennt im Nordpazifik und im Indischen Ozean, dass mit der Sonne die Albedo zunimmt, besonders dort, wo das Wasser flach ist. Aber die Änderungen über Land sind allgemein viel größer als die Änderungen über dem Ozean. Auch dies zeigt, dass sich die Wolken infolge der Erwärmung bilden und diese dadurch limitieren.

Wie der Regulator funktioniert

Die Bildung tropischer Kumulus- und Gewitterwolken wird durch die Dichte der Luft bestimmt. Die Dichte ist eine Funktion von Temperatur (die die Dichte direkt beeinflusst) und Verdunstung (Wasserdampf ist leichter als Luft).
Ein Gewitter ist sowohl eine sich selbst erzeugende als auch eine sich selbst erhaltende Wärmekraftmaschine. Die beteiligten Faktoren sind mit Feuchtigkeit geladene warme Luft und flüssiges Wasser. Sich selbst erzeugend bedeutet, dass immer dann, wenn es über tropischen Ozeanen warm genug wird, was fast jeden Tag geschieht, und wenn Temperatur und Feuchtigkeit ein bestimmtes Maß erreichen, die flauschigen Kumuli plötzlich explodieren. Die Wolken schießen nach oben und zeigen die fortschreitende Entwicklung der feuchtwarmen Luft. In der Höhe verlässt die aufsteigende Luft die Wolke und wird durch von unten nachströmende feuchte Luft ersetzt. Auf einmal wird aus einer friedlichen Wolke ein aktives Gewitter.
Sich selbst erzeugend heißt, dass sich Gewitterwolken spontan als eine Funktion von Temperatur und Feuchtigkeit bilden. Oberhalb des Gemenges, das für die Bildung des ersten Gewitters erforderlich ist, nimmt die Anzahl der Gewitter rasch zu. Diese rasche Zunahme der Gewitteraktivität begrenzt den möglichen Temperaturanstieg, [den es ohne diese Wolken geben würde].
Sich selbst erhaltend heißt, wenn ein Gewitter erst einmal entstanden ist, braucht es nicht mehr die volle Auslösetemperatur, um sich zu erhalten. Der Grund hierfür ist durch das sich bildende Windsystem an der Basis sowie durch von oben absinkende trockene Luft die Verdunstungsrate erheblich zunimmt. Das Gewitter wird durch die Dichte der Luft getrieben. Es braucht eine Quelle leichter, feuchter Luft. Die Dichte der Luft wird bestimmt sowohl durch die Temperatur als auch durch den Feuchtegehalt (komischerweise ist Wasserdampf mit einem Molekulargewicht von 16 nur wenig mehr als halb so schwer wie Luft mit einem Molekulargewicht etwa bei 29).
Die Verdunstung ist nicht nur abhängig von der Temperatur, sondern vielmehr von einer komplexen Mischung aus Windgeschwindigkeit, Wassertemperatur und Dampfdruck. Die Verdunstung wird mit einer statistischen Formel berechnet […by what is called a „bulk Formula“], was bedeutet, dass diese Formel ein Erfahrungswert ist und nicht auf irgendeiner Theorie basiert. Eine allgemein benutzte Formel lautet:

E = VK(es – ea)

Hier bedeutet:
E = Verdunstung
V= Windgeschwindigkeit (als Funktion des Temperaturgegensatzes[?T])
K = ein konstanter Koeffizient
es = Dampfdruck an der verdunstenden Oberfläche (als Funktion der Wassertemperatur in Grad Kelvin zur vierten Potenz [?])
ea = Dampfdruck der darüber liegenden Luft (Funktion von relativer Luftfeuchtigkeit und Lufttemperatur in Grad Kelvin zur vierten Potenz)
In dieser Formel ist hauptsächlich zu beachten, dass die Verdunstung linear von der Windgeschwindigkeit abhängt. Das heißt, dass die Verdunstung in der Nähe eines Gewitters um eine Größenordnung höher sein kann als in kurzer Entfernung davon.
Zusätzlich zur Änderung der Verdunstung gibt es zumindest noch einen anderen Mechanismus zunehmender Wolkenbildung bei zunehmendem Wind, und zwar die Entstehung von Salzkristallen aus dem Ozean. Sich brechende Wellen bei starkem Wind erzeugen diese mikroskopisch kleinen Salzkristalle. Sie bilden die Hauptquelle der Kondensationskerne für Wolken, die sich über dem Ozean bilden. Die Erzeugung dieser zusätzlichen Kondensationskerne zusammen mit einer verstärkten Verdunstung führt zu größeren und schnelleren Änderungen der Wolkenbildung mit steigender Temperatur.
Also bedeutet zusätzliche Verdunstung durch den Wind, dass die Temperatur bei der Gewitterbildung bei gleicher Luftdichte unter der Auslösetemperatur liegen kann. Dies wiederum bedeutet, dass das Gewitter auch dann aktiv bleibt, wenn es die Oberfläche bis weit unter die Auslösetemperatur abkühlt.
Dieses Vermögen, die Temperatur unter die Auslösetemperatur zu drücken, unterscheidet den Regulator vom negativen Feedback. Ein Gewitter kann mehr als nur die Bodenerwärmung zu begrenzen. Es kann mechanisch die Oberfläche unter die erforderliche Auslösetemperatur abkühlen. Das erlaubt es dem Gewitter, eine bestimmte Temperatur in der Region rings um das Gewitter festzulegen.
Eine Schlüsselfunktion dieser Kontrollmethode (Veränderungen einfallender Energie, Arbeit, zunehmende Wärmeverluste, die den Temperaturanstieg bremsen) liegt darin, dass das Gleichgewicht der Temperatur nicht bestimmt wird durch Änderungen der [Wärme]verluste oder durch Änderungen des Antriebs im System. Das Gleichgewicht der Temperatur wird bestimmt durch Wind, Wasser und Wolken in Abhängigkeit von steigender Temperatur, und nicht durch die Effizienz oder die Menge der in das System eingehenden Energieflüsse.
Außerdem wird das Gleichgewicht der Temperatur nur unwesentlich durch Änderungen der Stärke der Solarstrahlung beeinflusst. Nimmt diese Strahlung ab, verringert sich die Verdunstung, was die Wolkenbildung vermindert und wiederum mehr von der Sonnenstrahlung zur Erdoberfläche durchkommen lässt. Dies ist die wahrscheinliche Antwort auf die schon lange im Raum stehende Frage, wie die globale Temperatur selbst in den geologischen Zeiträumen so stabil sein konnte, in denen die Stärke der Sonnenstrahlung markant zugenommen hat.
Allmähliche Variationen des Gleichgewichts und des Antriebs
Falls die Thermostat–Hypothese zutrifft und die Erde tatsächlich ein aktiv bestimmtes Gleichgewicht der Temperatur aufweist, was ist dann der Grund für die langsamen Veränderungen und Verschiebungen der Temperatur, die man sowohl in historischen als auch in geologischen Zeiträumen beobachtet hat?
Wie Bejan gezeigt hat, ist ein bestimmender Faktor der Temperaturentwicklung, wie effizient die ganze globale Wärmekraftmaschine die Terawatt von Energie von den Tropen zu den Polen transportiert. In geologischen Zeiträumen sind die Anordnung, die räumliche Verteilung und die Höhe von Landmassen offensichtlich ein sehr großer Faktor in dieser Hinsicht. Darin liegt auch der heutige Hauptunterschied zwischen der Arktis und der Antarktis. Die fehlende Landmasse in der Arktis bedeutet, dass unter dem Eis warmes Wasser zirkuliert. In der Antarktis ist es kalt bis in die Knochen… 
Außerdem stellt die ozeanische Geographie, die die Meeresströme beeinflusst, die warmes Wasser in Richtung der Pole und kaltes Wasser in Richtung Äquator transportieren, ebenfalls einen großen Faktor der aktuellen Temperatur in der globalen Wärmemaschine dar.
In kürzeren Zeiträumen könnte es allmähliche Änderungen der Albedo geben. Die Albedo ist eine Funktion von Windgeschwindigkeit, Verdunstung, Dynamik der Wolken und (zu einem geringeren Grad) Schnee und Eis. Verdunstungsraten werden durch die Gesetze der Thermodynamik bestimmt, so dass lediglich Windgeschwindigkeit, Dynamik der Wolken sowie Schnee und Eis das Gleichgewicht beeinflussen können.
Die Veränderlichkeit des Gleichgewichts der Temperatur könnte beispielsweise das Ergebnis einer weltweiten Änderung der mittleren Windgeschwindigkeit sein. Die Windgeschwindigkeit reguliert den Wellengang in den Ozeanen, und es kommt zu langfristigen Änderungen in der Wechselwirkung zwischen Ozean und Atmosphäre. Diese Änderungen der Windgeschwindigkeit könnten das Gleichgewicht der Temperatur auf zyklische Weise verändern.
Oder es könnte zusammen hängen mit einer generellen Änderung von Farbe, Typ oder Ausdehnung von Wolken und/oder Schnee und Eis. Die Albedo hängt ab von der Farbe der Oberfläche, die die Energie reflektiert. Wenn sich diese Reflektionen aus irgendwelchen Gründen ändern, könnte dies das Gleichgewicht der Temperatur beeinflussen. Die Reflektionseigenschaften von Schnee und Eis ändern sich durch Russablagerungen auf der Oberfläche, was zu verstärktem Schmelzen führen könnte. Die Reflektion von Wolken ändert sich durch eine Farbveränderung durch Aerosole oder Staub.

Schließlich könnten die Veränderungen des Temperaturgleichgewichtes auch mit der Sonne zusammen hängen. Die Variation der magnetischen [Felder] und des Sonnenwindes könnten groß genug sein, um Veränderungen hervorzurufen. Es gibt starke Hinweise darauf, dass die Bewölkungsmenge beeinflusst wird durch den 22-jährigen Hale–Zyklus, und diese 14-jährige Aufzeichnung überdeckt nur einen Teil davon.

Schlussfolgerungen und Ausblick
1. Die Sonne stößt mehr Energie aus, als nötig ist, um die Erde zu rösten. Aber sie wird daran gehindert durch die Wolken, die etwa ein Drittel der einfallenden Sonnenstrahlung zurück in den Weltraum reflektieren. So weit wir heute wissen, hat dieses System der Wolkenbildung zur Begrenzung des Temperaturanstiegs noch nie versagt.

2. Dieser reflektierende Wolkenschirm bildet sich in den Tropen als Folge steigender Temperatur.

3. Sofern die Temperatur weiter steigt, wird der reflektierende Wolkenschirm verstärkt durch Wärmekraftmaschinen, genannt Gewitter. Diese kühlen die Erdoberfläche auf vielfältige Weise, transportieren Wärme nach oben und verwandeln Wärme in Arbeit.

4. Wie auch die Kumuli bilden sich Gewitter als Folge steigender Temperatur.

5. Weil sie von der Temperatur angetrieben werden, wenn die Temperatur in den Tropen steigt, nimmt die Bildung von Gewittern und Kumuluswolken zu. Diese Kombination reguliert und begrenzt den Temperaturanstieg. Wenn die Temperatur der Tropen niedrig ist, klart der tropische Himmel auf, und die Erde erwärmt sich rasch. Aber wenn es in den Tropen heißer wird, begrenzen Kumuli und Kumulonimben diese Erwärmung. Dieses System hält die [Temperatur der] Erde innerhalb eines schmalen Bandes von Temperaturwerten.

6. Das System zur Regulierung der Erdtemperatur basiert auf den unveränderlichen Gesetzen der Physik von Wind, Wasser und Wolken.

7. Dies ist eine vernünftige Erklärung dafür, wie die Temperatur der Erde Hunderte von Millionen Jahren so stabil war (oder besser, zweifach stabil in Kalt- und Warmzeiten).

Willis Eschenbach, Tuvalu. Die Originalversion erschien zuerst bei Watts Up hier

dankenswerterweise übersetzt von Chris Frey EIKE
Weiterführende Literatur

Bejan, A, and Reis, A. H., 2005, Thermodynamic optimization of global circulation and climate, Int. J. Energy Res.; 29:303–316. Available at http://homepage.mac.com/williseschenbach/.Public/Constructal_Climate.pdf
Richard S. Lindzen, Ming-Dah Chou, and A. Y. Hou, 2001, Does the Earth Have an Adaptive Infrared Iris?, doi: 10.1175/1520-0477(2001)082<0417:DTEHAA>2.3.CO;2
Bulletin of the American Meteorological Society: Vol. 82, No. 3, pp. 417–432.
Available online at http://ams.allenpress.com/pdfserv/10.1175%2F1520-0477(2001)082%3C0417:DTEHAA%3E2.3.CO%3B2
Ou, Hsien-Wang, Possible Bounds on the Earth’s Surface Temperature: From the Perspective of a Conceptual Global-Mean Model, Journal of Climate, Vol. 14, 1 July 2001. Available online at http://ams.allenpress.com/archive/1520-0442/14/13/pdf/i1520-0442-14-13-2976.pdf




Solardächer der Stadt können zur tödlichen Falle werden; Feuerwehrmännern droht Stromschlag

Die Gefahr geht nicht von den Solar-Modulen an sich aus, sondern von den Kabeln, die den Strom aus den Zellen vom Dach in den Keller leiten. Dort wird er über eine Umschaltanlage ins Netz eingespeist.

Werden die Kabel durch das Feuer beschädigt und die Feuerwehr richtet den Wasserstrahl auf das Haus, droht ein tödlicher Stromschlag.

Vor allem große Anlagen auf Scheunen, wie sie häufig im ländlichen Raum zu sehen sind, hält Penningh für ein Risiko: "Wenn das mal lichterloh brennt, weiß ich nicht, ob die Feuerwehr löschen würde."

Solange es hell sei, produzierten die Solarzellen weiter Strom, sagt Frank Hermanns von der Feuerwehr Braunschweig. "Im Prinzip müsste man bei einem Brand am Tag also die Sonne ausschalten."

Den ganzen Artikel (Braunschweiger Zeitung) finden Sie hier




Gibt es einen Zusammenhang zwischen Sonnenfleckenaktivität und Erdbeben-/Vulkantätigkeit?

 

 

 

Um jegliche Sorge vorweg zu nehmen, ich möchte hier unseren Lesern keine solchen Kausalzusammenhänge zumuten, wie dies am vergangenen Donnerstag Frau Illner in Ihrer Talksendung versuchte, als sie einen Zusammenhang zwischen dem aktuellen Deutschlandwetter und der Ölkatastrophe im Golf von Mexiko herstellte durch ihre Fragestellung, ob sich die Natur an uns rächen wolle. Unnötig zu erwähnen, dass Aberglaube nicht zur Tradition unserer abendländischen Kultur gehört, die wir solchen Größen wie Kepler, Kopernikus, Newton und nicht zuletzt Luther zu verdanken haben. Aber zurück zum obigen Thema.

 

Wie sieht es jedoch mit den Einflüssen (Kräften) aus, die die magnetische Tätigkeit der Sonne modulieren, sind diese in der Lage, auch Einfluss auf die tektonische und vulkanische Tätigkeit in der Erde auszuüben und kann daher ein Zusammenhang, also eine Kausalität abgeleitet werden? Einer Beantwortung der Frage, soll sich der Bericht nähern. Sich dieser Fragestellung zu nähern, bedarf zuerst eines Blickes, was die magnetische Aktivität der Sonne antreibt.

 

Wohl jeder hat schon einmal Sonnenflecken entweder selbst (nicht ohne geeigneten Schutz, insbesondere bei Verwendung eines optischen Verstärkers) oder auf Photos betrachtet.

 

Sonnenflecken während des Aktivitätsmaximums in einem 11-jährigen Sonnenzyklus, dem sog. Schwabezyklus und als Größenvergleich die Erde.

 

Sonnenflecken treten in einem Band, nördlich und südlich des Sonnenäquators auf und bilden die Fußpunkte von magnetischen Dipolen (folgende Abbildungen).

 

Die Abbildung zeigt die Verteilung der Sonnenflecken im Zeitraum von 1875 – 2005, Quelle: NASA. Es ist eine deutliche Steigerung in der 2. Hälfte des 20. Jahrhunderts zu verzeichnen, die bis zur Jahrtausendwende anhält!

 

 

Im Bild links sind recht transparent die magnetischen Plasmabögen zu sehen, die sich zwischen Sonnenfleckenpaaren (magn. Süd- und Nordpol ausbilden und Energieinhalte, mit einer Temperatur von bis zu 2 Mio. Kelvin annehmen können). Die im Bild rechts zu sehende Kräuselung der Sonnenoberfläche entsteht dadurch, dass sich die Oberfläche ständig hebt und senkt (pulsiert und dabei Wellen ausbildet), ähnlich der Meeresoberfläche, Quelle: SOHO (Solar and Heliospheric Observatory).

 

Alle 11-Jahre (es handelt sich dabei um einen Mittelwert zwischen 8 und 15 Jahren, der letzte Sonnenzyklus hatte eine Dauer von 14 Jahren und war damit ungewöhnlich lang) wechselt die magnetische Polarität und der Schwabezyklus beginnt erneut. Es dauert also 2 Zyklen, bis die magn. Polarität wieder gleich ist. Dieser Zyklus wird Hale-Zyklus genannt. Diese, einer breiten Öffentlichkeit bekannten Grundzyklen der Sonne sind nur ein Teil der  solaren Aktivitätszyklen. Darüber hinaus gibt es z.B. den Gleißberg-Zyklus, der den Schwabezyklus in seiner Intensität steuert und den magnetischen de Vries-Suess-Zyklus, der als Hauptsonnenzyklus bezeichnet werden kann (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/) (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Dieser hatte in 2003 sein im Mittel 208-jähriges Maximum. Dem Jahr, als Politik und Medien vom Jahrhundertsommer sprachen und im Oktober 2003 in Göttingen Polarlichter zu sehen waren. Der magnetische Hauptsonnenzyklus ist übrigens nicht im sog. TSI (Total Solar Irradiance) abgebildet, da der TSI lediglich den Wellenlängenbereich von 200 nm – 2.000 nm erfasst und die Wellenlängenbereiche der höchsten solaren Variabilität, gar nicht abbildet. Von „Total“ kann also keine Rede sein.

 

Wie sehr der im Mittel 208-jährige de Vries-Suess-Zyklus Einfluss auf das Klimageschehen auf der Erde hat, zeigt exemplarisch die folgende Abbildung.

  

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Zum Verständnis des 11-jährige Sonnenzyklusses, hat der renommierte Astrophysiker H.W. Babcock (Gold Medal of the Royal Astronomical Society) die Dynamotheorie entwickelt:

 

 ·        Zu Beginn des Zyklus vertikale Feldlinien in großer Tiefe.

·        Die differentielle Rotation „wickelt“ die Feldlinien um die Sonne.

·        Die Feldstärke wird dadurch verstärkt.

·        Starke Flussröhren steigen auf und bilden dadurch die Sonnenflecken. Am  Ende des Zyklus neutralisieren sich die am Äquator entgegen gesetzten Felder.

 

Die Basistheorie geht demnach davon aus, dass die Dynamik des magnetischen Sonnenfleckenzyklus von der Rotation der Sonne angetrieben wird. Dabei wird der Eigendrehimpuls berücksichtigt, der an die Rotation der Sonne um ihre Achse anknüpft. Die Rotationsgeschwindigkeit der Sonne ist übrigens nicht konstant. In unregelmäßigen Zeitabständen werden Änderungen der äquatorialen Rotationsgeschwindigkeit der Sonne von mehr als 5% beobachtet (die Sonne rotiert nicht gleichmäßig um ihre Achse), die mit Änderungen der Sonnenaktivität einhergehen. Zu dem Eigendrehimpuls, gibt noch einen weiteren Drehimpuls, den Bahndrehimpuls, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammen hängt. Hierzu hat der Astrophysiker Dr. Landscheidt eine Theorie entwickelt.

 

Die Abbildung zeigt, wie der Masseschwerpunkt des Sonnensystems im Lauf der Jahre wandert. Dies wird durch die räumliche Verteilung der Massen der großen Gasplaneten Jupiter, Saturn, Uranus und Neptun gesteuert. Die kleinen Kreise zeigen den Masseschwerpunkt. Zu sehen sind die relativen ekliptikalen Positionen von Massenzentrum und Sonnenzentrum für die Jahre 1945 – 1995 in heliozentrischer Sicht. Die gelbe Scheibe stellt die Sonne dar. Es ist leicht verständlich, dass sich durch Veränderung des Drehimpulses, der mit der Verlagerung des Massenschwerpunktes einhergeht, die Sonne moduliert wird, was sich in einer veränderten Energieabgabe auswirkt. Die blauen und roten Zahlen stehen jeweils für einen engen Zyklusumlauf. Ergänzt nach Quelle: Dr. Theodor Landscheidt, Schroeter Institute for Research in Cycles of Solar Activity Nova Scotia, Kanada (kleine Photos: NASA).

 

Die Erweiterung zur klassischen Dynamotheorie besteht darin, dass zusätzlich der dyna-mische Bahndrehimpuls berücksichtigt wird, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammenhängt und durch die vier großen Gasplaneten verursacht wird. Der Unterschied zwischen Massezentrum der Sonne selbst (ruhiger Pol) und Massezentrum des Sonnensystems beträgt zwischen 0,01 und 2,19 Sonnenradien. Letztendlich sind es die Gravitationskräfte der großen Gasplaneten, die die magnetische Aktivität der Sonne (mit) anstoßen und deren Varianz verursachen.

 

Das Minimum liegt an, wenn Jupiter auf der einen Seite und Saturn, Uranus und Neptun ihm im Planetenorbit gegenüberstehen. Das Maximum, wenn alle Gasplaneten in Konjunktion stehen. Zwischen diesen Extremen entwickelt sich ein komplexes Schwingungsmuster, was durch die Gravitationskräfte und den Bahndrehimpuls moduliert wird (folgende Abbildung). Der flüssige Sonnenmantel und die oberen Sonnenschichten werden dadurch bildhaft durchgeknetet (es entstehen Fließänderungen), wodurch das magnetische Feld, die magnetische Stärke und die Energieabgabe der Sonne beeinflusst werden. Der Betrag des Bahndrehimpulses zum Eigendrehimpuls der Sonne kann bis zu 25% betragen. Wogegen der Eigendrehimpuls der Sonne relativ stabil ist, kann sich der Bahndrehimpuls auf das 40-fache der Ausgangswerte verändern.

 

 

Die Abbildung zeigt den Verlauf des Masseschwerpunkts des Sonnensystems von 1900 – 2020, Quelle: Solar System Dynamics Group, Jet Propulsion Laboratory Pasadena (http://users.qld.chariot.net.au/~carls/ephemerides/SSB_1900-2019.htm). Deutlich ist eine 20-Jahres-Schwingung erkennbar (Hale-Zyklus hat im Mittel 22,1 Jahre), deren Extrema mit der Aktivität der Sonne im Schwabe-Zyklus korreliert. Auffallend ist weiter, dass 1970 die Schwingung gering ausfiel – der entsprechende Sonnenzyklus (Sonnenzyklen werden durchnummeriert und dieser trägt die Nr. 20) war schwach und 2009 die Schwingung ebenfalls klein ist, was einen schwachen 24. Sonnenzyklus erwarten lässt, zumal beide aus dem Grundmuster herausfallen.

 

Wäre es nun möglich, dass die flüssigen und ebenfalls magnetischen Schichten der Erde, also der Erdmantel, auf dem die Erdplatten „schwimmen“, ähnlichen Einwirkungen der großen Gasplaneten unterliegen, wie dies bei der Sonne, mit ihren flüssigen Schichten der Fall ist? Zumal durch die sog. Milankovi?-Zyklen bekannt ist, dass die großen Gasplaneten, sowohl den Bahnradius der Erde um die Sonne, als auch die Neigung der Erde um ihre Achse verändern, also nachweislich bereits Einfluss auf Erdparameter besitzen.

 

Betrachten wir die Änderung der vulkanischen- und Erdbebentätigkeit über die letzten Jahrzehnte hierzu.

 

 

Die Abbildung links gibt die Anzahl vulkanischer Aktivität >VEI = 1 und größerer Eruptionen für die Jahre 1875 – 2004 an, Quelle: (http://www.michaelmandeville.com/earthchanges/gallery/Quakes/) nach Daten des Smithsonian Instituts “Volcanoes of the World“. Die rechte Abbildung zeigt die Erdbebenaktivität von 1973 – 2004 nach den Daten der U.S. Geological Survey. Beide Datenreihen zeigen zum ausgehenden 20. Jahrhundert einen starken Aktivitätsanstieg.

 

Auffallend ist, dass die Sonnenaktivität im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus ihren Höhepunkt 2003 hatte und diese in der zweiten Hälfte des 20. Jahrhunderts stark anstieg, wie die folgende Abbildung zeigt.

 

Die Abbildung zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Der Anstieg der magnetischen Sonnenaktivität (de Vries-Suess-Zyklus) zeigt Parallelitäten zum Anstieg der vulkanischen Aktivität. Wird nun die vulkanische Aktivität über die vergangenen 400 Jahre betrachtet, so fällt auf, dass immer in Verbindung mit dem Maximum des de Vries/Suess-Zyklus die vulkanische Aktivität ebenfalls ihr Maximum hatte, wie die folgende Abbildung zeigt.

 

Die Abbildung zeigt die vulkanische Aktivität, ergänzt mit den Daten der Abbildung 8, links für das ausgehende 20. Jahrhundert. Darunter ist der im Mittel 208-jährige de Vries-Suess-Zyklus, der durch die großen Gasplaneten bestimmt wird, wieder gegeben. Es fällt auf, dass die vulkanische Aktivität Schwankungen unterliegt und starke Aktivitäten synchron zum Sonnenzyklus auftreten. Insbesondere in den Jahren nach dessen Maximum ist eine verstärkte vulkanische Aktivität zu verzeichnen, wie auch in diesem Jahr der Fall.

 

Insbesondere schwere Erdbeben stiegen seit dem Beginn der (leichten) Erwärmung im Jahre 1980, die durch Satellitendaten bestätigt ist und die auf die ansteigende solare Aktivität zurückzuführen ist,  deutlich an, wie die beiden folgenden Abbildungen zeigen.

 

Die Abbildung links zeigt die Erdbeben ab einer Magnitude von >4. Die Daten stammen vom ANSS-Katalog (Advanced National Seismic System). Die rechte Abbildung listet die Ereignisse auf die verschiedenen Magnituden nach den Daten der USGS-NEIC  (U.S. Geological Survey – National Earthquake Information Center) World-Database auf.

 

Da die solaren Aktivitätsänderungen auf Flussänderungen in der Konvektionszone der Sonne zurückzuführen sind, folgende Abbildung, die durch die Planeten mit beeinflusst werden, ist es denkbar, dass deren Auswirkungen auch auf den flüssigen Erdmantel einwirken und dadurch relative Änderungen auf die Platentektonik ausgeübt werden könnten.

 

Die Ursache für die Sonnenzyklen (Schwabe-Zyklus) in der Sonne selbst, ist nach Ansicht der NASA ein Transportband im Sonnenmantel.

 

Das große Förderband besteht aus Materie von heißem Plasma und hat aufgrund der Sonnenrotation (Theorie nach Babcock) einen nördlichen und südlichen Zweig. Deren Materie benötigt ca. 40 Jahre für einen Umlauf in der Sonne. Die NASA-Wissenschaftler gehen davon aus, dass dessen Umläufe die magn. Sonnenaktivität steuern. Die Umlaufgeschwindigkeit lag in der Vergangenheit bei ca. 1 m/s, hat sich aber mittlerweile deutlich verlangsamt und liegt auf der Nordhalbkugel bei 0,75 m/s und auf der Südhalbkugel bei nur noch 0,35 m/s. Es ist daher davon auszugehen, dass die nächsten Sonnenzyklen sehr schwach ausfallen und die Erdtemperaturen zurückgehen werden.

 

Nach der Theorie von Dr. Landscheidt, würde dieses Transportband darüber hinaus, sowohl durch die Gravitationseinflüsse der großen Planeten, als auch durch den Bahndrehimpuls beeinflusst.

 

Der Klimatologe Cliff Harris und der Meteorologe Randy Mann untersuchten, inwieweit Vulkaneruptionen auf Klimawechsel im Holozän Einfluss ausübten (folgende Abbildung).

 

Die Abbildung zeigt die Klimawechsel für die vergangenen 4.500 Jahre. Es zeigt sich, dass Klimawechsel mit gesteigerter vulkanischer Tätigkeit einhergehen. Während die beiden Autoren davon ausgehen, dass Vulkane dass Klima ändern (was für sich auch zutrifft, so hatte der Ausbruch des Pinatubo in 1991 die globalen Temperaturen für zwei Jahre um bis zu 0,8°C sinken lassen), triggert jedoch die Vulkantätigkeit nicht das Klima, sondern könnten durch die selben Einflüsse getriggert werden, die die Sonnenzyklen (mit) verursachen – die Einflüsse der großen Gasplaneten. In der klimatischen Betrachtung verstärken anschließend Vulkanausbrüche die Abkühlung auf kürzeren Zeitskalen.

 

Auf diesem Gebiet wäre sicherlich noch eine Menge Forschungsarbeit notwendig, inwieweit eine Verknüpfung zwischen den Ursachen der solaren Aktivitätsschwankungen und der Erdbeben- und Vulkantätigkeit zulässig ist und, sofern die erste Fragestellung bejaht werden kann, wie groß ihr Einfluss ist und ob sich daraus ein „Frühwarnsystem“ für erdbebengefährdete Gebiete ableiten lässt.

 

Aus Sicht des Verfassers wäre es sinnvoller, in diese Richtung Forschungsaktivitäten zu treiben, als Milliarden an Forschungsgelder auszugeben, für nicht vorhandene, bzw. in der Realität nicht nachweisbare Zusammenhänge zwischen Klima und CO2 zu finden oder sonstigen auf CO2 basierenden Horrorszenarien nachzugehen, die von den allseits bekannten Aktivistengruppen flankiert werden.

 

Raimund Leistenschneider – EIKE

Mehr zu Landscheidts Arbeiten und Nachfolger hier




Alarmist sagt: Die Schlacht über den Klimawandel ist verloren; er empfiehlt neue Strategie für CO2 Reduktionspropaganda

"Klimatologen, hört auf, über die Klimatologie zu reden. Wir haben verloren. Es ist vorbei. Denkt nicht mehr daran," rief Foley am letzten Tag der dreitägigen Veranstaltung während einer Podiumsdiskussion einem überraschten Auditorium zu.

Er sagte weiter, dass er nichts so sehr schätze, wie den Versuch, Konservative zu überzeugen. "Ich gehe gern in Säle wie dieser hier und sage, ’Hört mit dem Klimawandel auf. Liebt Ihr Amerika?’ Und dann kommt ’Ja’. Dann sage ich, ’bringt es Euch nicht ein bisschen aus der Fassung, dass wir uns Geld von China borgen, es dann nach Saudi Arabien schicken, um die Energie-Industrie zu mästen … An vielen Knöpfen dreht Ihr. Da stimmen sie zu", sagte Foley.

Die Umweltschützer und die Klimaskeptiker sollten mit dem Kampf aufhören und gemeinsame Dinge anpacken, auch wenn sie von verschiedenen Standpunkten herkommen, meinte er und sagte weiter: "Die Skepsis wegen des Klimawandels hat uns in eine Falle stürzen lassen. Hört auf, Euch nur noch tiefer hineinzuwühlen. Kommt raus. Redet anders darüber. Packt die Sache anders an." 

Das Umweltforum wurde vom ASPEN-Institut und von NATIONAL GEOGRAPHICS organisiert. Mehr als 300 Teilnehmer und viele Vortragende hat es in seinem dritten Jahr angelockt. An den ersten beiden Tagen wurden trübe Beurteilungen verschiedener Umweltprobleme dargestellt, von der Versauerung der Meere bis zur Herausforderung, wie man die Menschen ernährt, wenn um 2050 die Weltbevölkerung von 7 Mrd. auf 9 Mrd. angeschwollen sein wird. 

Der Mittwoch war für die Lösungen reserviert. Foley war in einem Ausschuss, der sich damit beschäftigte, wie das Verhalten verändert werden kann, um für die Führung und Leitung der Erde in einer Zeit des "Anthropozäns" zu ermutigen, oder für die Zeit, wenn der Mensch die beherrschende Kraft der Evolution auf der Erde sein wird.

Der Schlüssel zur Hervorbringung dieses Wandels ist die Beendigung der Schlacht um die Frage, ob die Wissenschaft das Konzept vom Klimawandel unterstützt, sagte Foley. Einige wenige von den Teilnehmern im Auditorium bezweifelten die Weisheit seiner Strategie, sie bestanden darauf, dass die Menschen über die Einzelheiten der Wissenschaft vom Klimawandel belehrt werden müssten, bevor sie sich wirklich hinter die Bestrebungen zur Reduzierung der Kohlenstoffemissionen stellen würden.

Foley beharrte auf seinen Forderungen. Diskussionen über die Veränderung der globalen Durchschnittstemperatur begeisterten die Menschen, trügen aber wenig zum Verständnis des Problems bei, sagte er. "Sprecht über Dinge, die etwas bringen – Nahrung, Wasser, Lebensstil, Wohnorte, solche Sachen."
Und er legte nach: "Ich sage nicht:  Ignoriert das Problem. Dreht es stattdessen um, bingt es in neue Zusammenhänge."

Etwa 10 Prozent der Amerikaner werden mitmachen, wenn man den Klimawandel thematisiert, fügte er später hinzu, aber 70 Prozent werden mitmachen, wenn man über die Sicherheit der Energieversorgung spricht.

Die Einsätze bei dieser Debatte sind viel zu hoch, um darüber zu hadern. Wirksame Maßnahmen müssen ergriffen werden, um die Kohlenstoffemissionen binnen weniger als einem Jahrzehnt zu vermindern.

Ein weiteres Ausschussmitglied, Pfarrer Richard Cizik, Präsident der Neuen Evangelikalen Partnerschaft für das Gemeinwohl (New Evangelical Partnership for the Common Good) war einverstanden, dass der Krieg gegen den Klimawandel so geführt werden müsste, dass die Menschen einverstanden seien.

Der Mensch ändert sein Verhalten nur, wenn sein Leben hier unbequem wird – und wenn eine gangbare Lösung angeboten wird. "Man muss wirklich Sorgfalt walten lassen, denn wenn man etwas anbietet, was nicht funktioniert und kein Echo erzeugt, dann hat man ein Problem", sagte Cizik.

Scott Condon 29.7.10
Aspen correspondent Post Independent Glenwood Springs, CO Colorado

Anmerkung der Redaktion: Wieder einmal hat ein Klimaalarmist die Katze aus dem Sack gelassen: Es geht nicht um den Klimawandel, der ist völlig normal und wurde/wird nur als Vorwand missbraucht! Es geht um etwas ganz anderes: Es geht um die Kontrolle jedes einzelnen Menschen auf dieser Erde! Das Instrument dazu: Die Steuerung (Zuteilung) seines Energieverbrauches. Das ist das Motiv!
Man sehe auch hier: Zitat Löschke:

"Ein hochrangiger deutscher Politiker aus einer großen Volkspartei – dessen Namen ich hier nicht nennen mag – sagte jüngst bei einer ähnlich gelagerten Veranstaltung im Brustton ernster Überzeugung: „… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

Kein Kommentar!

*Update: Die amerikanische Wirtschaft, besonders die grünen Vorzeige-Kalifornier des Governators Schwarzenegger beginnen sich zu wehren. Die Zeit schreibt:

US-ENERGIEPOLITIK

Schwarzeneggers letzte Schlacht

Zwei Öl-Konzerne wollen Kaliforniens Klimaschutzgesetz kippen – das fortschrittlichste der USA. Sie gefährden das Prestige-Projekt von Gouverneur Schwarzenegger.

Unser Kommentar: Was nun Herr Schwarzenegger? Erst die achtgrößte Volkswirtschaften der Welt – den Staat Kalifornien- ruiniert, und jetzt soll auch noch Werkzeug zum Ruinieren weggenommen werden.

Die Übersetzung des obigen Artikels besorgte Helmut Jäger EIKE





Rekord–Hitzewelle in Ost- und Nordosteuropa – Menetekel für die Skeptiker?

Schauen wir uns das mal detaillierter und in größerem Rahmen an. Die Abb. 1 zeigt die Geopotentialverteilung im 500–hPa–Niveau von Sonnabend, dem 31.7.2010 um 00 UTC (02 Uhr MESZ). Man erkennt die mäandrierende Höhenströmung mit den hemisphärischen Wellen, wie sie Kollege Puls in seinem Beitrag „Heißer Sommer – kalter Winter … w a r u m ?“ so anschaulich beschrieben hat. Daran ist also zunächst erst einmal gar nichts ungewöhnlich.

Abb. 1 Geopotential im 500–hPa–Niveau am 31.7.2010, 00 UTC Markiert ist das Gebiet, in dem die Hitzewelle auftritt. Man erkennt, dass sie am westlichen Rand eines Hochdruckkeiles im Bereich einer südlichen Strömung herrscht. Auf der Ostseite dieses Keiles reicht ein mit arktischer Kaltluft angefüllter Trog weit nach Süden, der weite Teile Mittel- und Ostsibiriens überdeckt. Dort ist es genauso zu kalt, wie es weiter westlich zu warm ist. Auch in Mitteleuropa erkennt man das mit kühler Meeresluft angefüllte Wellental. Weil aber hier die Luft vom Atlantik kam und nicht direkt aus der Arktis, hält sich die Abkühlung bei uns in Grenzen.
Aber zurück zur Hitzewelle. Sie überdeckt ein vergleichsweise kleines Gebiet und ist eindeutig sowohl räumlich als auch zeitlich der Kategorie „Wetter“ und nicht Klima zuzuordnen. Kurz gesagt, Katastrophe ja, Klimakatastrophe eindeutig nein!

Nun ist es tatsächlich normal, dass im Sommer auch mal Hitzewellen auftreten. Dennoch bleibt die Tatsache bestehen, dass diese Hitzewelle unbestritten extrem stark ausgeprägt ist. Hier ist also eine Luftmasse im Spiel, die so weit nördlich an sich nichts zu suchen hat. Wie kommt diese Luftmasse nun aber trotzdem dorthin?
Wie die hemisphärischen Wellen den Wärmeaustausch zwischen Polen und Äquator bewirken, kann man ebenfalls bei Herrn Puls nachlesen. Hier soll es jetzt nur um die Luftmassen gehen. 
Unstrittig dürfte sein, dass eine so extrem heiße Luftmasse nie und nimmer so weit nördlich von selbst, das heißt durch die reine Erwärmung des Bodens durch die Sonneneinstrahlung entstehen kann. Sie muss also aus viel südlicheren Breiten dorthin transportiert worden sein. Wir Meteorologen sprechen von Advektion (= horizontaler Luftaustausch). Klar dürfte auch sein, dass Luftmassen bei einem solchen Transport modifiziert werden, soll heißen, eine Warmluftmasse kühlt sich beim Transport in nördliche Breiten ab, umgekehrt wird sich eine Kaltluftmasse auf dem Weg nach Süden erwärmen. Die Art und Weise dieser Modifizierung hängt von zwei Faktoren ab, einem räumlichen und einem zeitlichen: Je länger der Weg ist, den die Luftmasse zurücklegt, und je länger sie dafür braucht, umso stärker wird die Modifizierung sein. 
Man betrachte noch einmal die Abb. 1. Unschwer ist eine durchgehende südliche Strömung zu erkennen, die aus Nordafrika über das östliche Mittelmeer hinweg bis nach Nordosteuropa reicht. Damit können wir feststellen, dass die Heißluft den kürzestmöglichen Weg genommen hat!
Nebenbei: Der so weit nach Süden reichende mitteleuropäische Trog, der selbst in Nordafrika noch Gewitter bringt, ist genauso ungewöhnlich. Normalerweise herrscht um diese Jahreszeit im Mittelmeer im Bereich der Hadley–Zirkulation das Wetter, das wir derzeit in Nordosteuropa antreffen.
Bleibt noch die Zeit. Tatsächlich ist die Konstellation der Tröge und Keile schon seit Wochen stabil. Wie Herr Puls beschrieben hat, ändert sich ein bestimmtes Wellenmuster, wenn es sich erst einmal eingestellt hat, nicht gleich wieder. Gerade im Sommer und Winter sind diese Wellenmuster bemerkenswert stabil, während in den Übergangsjahreszeiten Umstellungen häufiger vorkommen. In unserem Falle bedeutet dies, dass der Zustrom der heißen Luft seit Wochen anhält. Selbst wenn sich also die ersten Schübe der afrikanischen Luft tatsächlich modifizierend abgekühlt haben sollten, so sorgt der ständige Nachschub auf kürzestem Weg dafür, dass sich diese Luft früher oder später doch bis weit nach Norden mit den Originalwerten durchsetzen kann. Hinzu kommt, dass die Sonne zwar in Nordeuropa längst nicht so steil steht wie über der Wüste, doch wird dies kompensiert durch die viel längere astronomische Sonnenscheindauer. Ist also heiße Luft tatsächlich erst einmal dort angekommen, reicht diese lange Sonnenscheindauer aus, die Luftmasse längere Zeit auf ihrem Temperaturniveau zu halten. Die trotzdem vorhandene allmähliche Abkühlung wird durch den ständigen Nachschub kompensiert.
Bleibt noch die Frage, ob die Luft in der Wüste vielleicht besonders heiß gestartet ist. Auch das wird ja von den Alarmisten gerne und immer wieder behauptet. Hierzu reicht ein Blick in jeden beliebigen Klimaatlas: In der Wüste ist es derzeit keineswegs ungewöhnlich heiß, sondern die Werte entsprechen ziemlich genau den dort um diese Jahreszeit zu erwartenden.
Mit anderen Worten: Die in der Überschrift gestellte Frage muss also eindeutig verneint werden!

Fazit: Die Heißluft ist auf kürzestem Weg in relativ kurzer Zeit und vor allem mehrere Wochen lang nach Norden transportiert worden. Dieser Wettervorgang ist in dieser Form gang und gäbe, egal ob nun eine Eis- oder Warmzeit herrscht. Im Jahre 2003 lag diese Konstellation weiter westlich, so dass damals ausgerechnet Mitteleuropa in der heißen südlichen Strömung lag. „Ungewöhnliche“ Hitzewellen hat es immer gegeben, und es wird sie auch weiterhin geben – genauso wie auch ungewöhnliche Kältewellen. Und zwar ganz unabhängig von der weiteren Entwicklung des Klimas! In dieser Hinsicht sind auch die wiederholten Schneefälle der letzten Tage auf der Zugspitze durchaus normal.

Aber sind Extreme nicht überhaupt normal? Gab oder gibt es irgendwann mal keine Extreme? Wäre das Fehlen jeglicher Extreme nicht das größte Extrem überhaupt?

Dipl.-Met. Christian Freuer




NASA Klimainstitut GISS interpoliert die arktischen Daten!

Alle Daten beziehen sich auf eine Reihe von 1958 bis 2002.

Die erste Graphik zeigt die Anomalien im Juni 2010, vom GISS interpoliert aus einem Gitterpunktsabstand von 1200 km . Die grüne Linie markiert den 80. Breitengrad Nord. Man erkennt, dass die Darstellung von GISS im Wesentlichen in der Region nördlich von 80° eine Temperaturabweichung bis +4 K zeigt.

Die folgende Graphik zeigt das Gleiche, jedoch mit einem Abstand der Gitterpunkte von 250 km. Wie man sieht, hat das GISS nur sehr wenige oder gar keine Daten nördlich von 80° N.

Jetzt lassen Sie uns diese Interpolation vergleichen mit den Daten des DMI für Juni 2010.

 

Tägliche mittlere Temperatur in der Arktis nördlich von 80° im Vergleich zu den mittleren klimatologischen Werten von 1958 – 2002.

http://ocean.dmi.dk/arctic/meant80n.uk.php

Das DMI zeigt im Wesentlichen, dass die Temperatur im gesamten Monat unter den Mittelwerten von 1958 – 2002 lag. Das GISS zeigt dagegen Werte weit über diesem Mittel. Obwohl GISS nördlich von 80° überhaupt keine Daten hat.

Schlussfolgerung: Die Interpolationen des GISS bzgl. der Arktis sind weit jenseits von gut und böse […way off the mark]. Falls sie einen globalen Temperaturrekord von 0,01 Grad in diesem Jahr melden, dies ist der Grund dafür.

——————————————————————

Original aus dem Schandmaul: [Straight from the horse’s mouth]:

…die über 12 Monate gleitende mittlere globale Temperatur hat in den Analysen des GISS im Jahre 2010 einen neuen Rekord erreicht… . Die GISS–Analysen weisen das Jahr 2005 als das wärmste Kalenderjahr aus, während die Analyse vom HadCRUT 1998 als das wärmste Jahr zeigen. Hauptursache [für diese Diskrepanz] ist, dass wir die geschätzte Temperatur der Arktis mit einbezogen haben. 

– James Hansen

Mit anderen Worten, die Daten vom GISS basieren auf inkorrekten, konstruierten Daten. Warum hat es Hansen offensichtlich gefallen, die gemessenen Daten des DMI zu ignorieren und stattdessen auf „geschätzte“ Daten aus der Arktis zurückzugreifen? Die Temperaturanomalien in der Arktis sind nach GISS bis zu 4 K zu hoch, und doch behauptet er, einen gemessenen Rekord um ein paar Hundertstel Grad zu haben. Wie [die Physiker] Penn und Teller sagen würden… Nun, das kann ich hier nicht zitieren.

 Steve Goddard

Den Originalartikel finden Sie hier

Alle Einschübe in eckigen Klammern vom Übersetzer. Alle anderen Hervorhebungen im Original!

Übersetzt von Chris Frey. EIKE




120 Jahre heiße Sommer und Extremwetter? Eine Übersicht!

1903

4.-8.7. Dauerregen in Schlesien. Großflächige Überschwemmungen.

Hochwasser in Osteuropa, Warschau überflutet

11.7. Starke Regenfälle Norddeutschland. Viele Überschwemmungen.

An der Ems viele Überschwemmungen.

 

1904

extrem trocken und heiß. Hitzewelle stoppt die Fluss- schifffahrt. Tropische Hitze ganz Mitteleuropa. Berlin 16.7. 35,5°. Wasserstand Weichsel und Oder tiefster Stand seit 1811. Elbe in Dresden fast ausgetrocknet.

 

1905

Juli warm mit vielen Gewittern

 

1906

8.7. schwerer Wirbelsturm über Tunis, Hunderte Tote.

 

1907

Juli kälter als Juni

sehr kühl und regnerisch, vor allem im Osten, Berlin 230 mm

15.7. Wolkenbrüche und schwere Überschwemmungen in Schlesien,

viele Tote.

 

1908

29.7. verheerendes Unwetter im Zillertal, Tirol, 25 Tote

 

1909

kühl und nass, fast überall doppelt soviel Niederschlag wie normal.

12.7. Unwetter und lang anhaltende Regenfälle Elsass und Süd-Deutschland,

Überschwemmungen, schwere Schäden.

 

1910

23.6. verheerende Unwetter Norditalien. Mailand viele Zerstörungen,

66 Tote, viele Verletzte.

 

1911

Hitzewelle Mitteleuropa. Berlin am 23.7. 34,6°

Hitzewelle Osten USA, New York 40°, Tausende sterben an Hitzschlag.

 

1913

Juli teilweise kälter als (der auch kühle) Juni.

30.7. Hagelunwetter Südtirol. teilweise 30 cm Eisschicht, Weinernte

zerstört, viele Schäden.

 

1916

10. Juli schweres Unwetter bei Wien, erhebliche Schäden.

 

1917

Ende Juli Starkregen, Überschwemmungen Ostfrankreich, Belgien bis

Rheinland

 

1921

lang anhaltende Hitzewelle Europa. Probleme bei der

Wasserversorgung, Einschränkungen im Schiffsverkehr.

20.7. Karlsruhe 39°

 

1922

nach sonnigem Juni kurze Hitzewelle, 6.7. Frankfurt/M. 37°,

7.7. danach Stürme und Unwetter, Temperatursturz, Verwüstungen,

Bäume entwurzelt, Notstand in einigen Gebieten, Überschwemmungen,

Restsommer kühl und regnerisch, Ernteausfälle.

 

1923

10.7. sechsstündiges Gewitter London, 14 Häuser zerstört.

13.7. heftige Unwetter und Gewitter in Nordspanien, Über-

schwemmungskatastrophe Saragossa , viele Schäden.

 

1925

2.7. Andauernder heftiger Regen Südosteuropa, „folgenschwere“

Überschwemmungen Karparten.

 

1926

3.7. weiter Hochwasser, im Riesengebirge wolkenbruchartiger Regen,

viele Zerstörungen.

dann oft schwül und warm.

lange Hitzewelle im Osten der USA, Hunderte Tote.

18.7. Heuschreckenplage UdSSR, Heuschreckenwolke 6,5 km lang, 4 km breit.

24.7. heftige Gewitter in Norddeutschland, schwere Schäden.

28.7. Kälteeinbruch, Schneesturm (!) in den Schweizer Alpen.

 

1927

8.7. schwere Unwetter Erzgebirge, stundenlange Gewitter, 145 Tote,

viele Häuser völlig zerstört, Überschwemmungen, Zerstörungen.

 

1928

3.7. schwere Unwetter Südwestdeutschland, Gewitter, Stürme,

Hagel, Verwüstungen.

4.7. Unwetterfront zieht nach Osten, schwere Gewitter in Berlin,

Schlesien, Stürme, Verletzte, viele Schäden.

 

1930

Juli kälter als Juni, sehr nass.

12. Juli Schnee bis auf 1000 m., Jungfraujoch 30 cm Neuschnee,

München Höchsttemperatur 12°.

Hitzewelle Mittlerer Westen/USA, über 200 Tote, Missouri bis 48°.

 

1932

16.7. sintflutartige Regenfälle in Nord- und Mittelitalien, heftige

Verwüstungen, Verkehrswege und Ernten vernichtet, viele Orte

abgeschnitten

 

1934

Presse: „Wetterkatastrophen in allen Teilen der Welt“

„beispiellose“ Hitzewelle an der Ostküste der USA,

am 5.7. New York 55°C (!), viele Opfer, Kansas City an 27 Tagen

hintereinander über 40°, verdorrte Felder, ausgetrocknete Flüsse,

Heuschrecken- und Käferplage.

18.7. nach kurzer Hitze schwere Unwetter in Großbritannien, 3 Tote.

19.7. schwere Unwetter in Oberitalien, Hagelkörner bis 200 Gramm,

gesamte Weinernte vernichtet.

schwere Überschwemmungen in China, 200 Tote, Tausende obdachlos.

21.7. tagelanger ununterbrochener Regen in Polen,

Überschwemmungskatastrophe, 150 Tote 50 000 Obdachlose.

 

1935

8.7. starke Regenfälle im Osten der USA, Hochwasser, viele Schäden,

60 Tote.

25.7. schwere Überschwemmungen in China, 70% der Provinz Hupeh

überschwemmt, 200.000 Tote.

Hitzewelle im Mittleren Westen/USA setzt die Dürre fort. 150 Tote.

 

1937

erstmals seit 1932 weniger Trockenheit im Mittleren

Westen/USA, trotzdem noch Sandstürme in Texas und

New Mexico.

 

1939

25.7. eine heftige Gewitterfront bringt einen plötzlichen

Kälteeinbruch mit Temperaturstürzen um 20°, Zugspitze –7°.

 

1949

Hitzewelle in Mittel- und Südeuropa, am Mittelmeer teilweise über 40°,

Wasserknappheit überall, Ernteausfälle, 10.7. Fußball-Endspiel :„Glutspiel

von Stuttgart“.

 

1950

sehr sommerlich, 3.7. München 34,4°, heißester Tag seit 50

Jahren

 

1951

eine der schwersten Überschwemmungskatastrophen in

der Geschichte der USA im Raum Kansas, Missouri und

Kansas-River nach schweren Regenfällen sehr plötzlich über

die Ufer getreten, 400 000 Obdachlose, viele Tote.

 

1952

Hitzewelle in Europa, 200 Tote, BRD bis 39,6°, Florenz 40°

 

1954

sehr kühl und nass

9.7. sintflutartige Regenfälle in Südostdeutschland und Bayern,

Hochwasserkatastrophe, 30 Tote, 50 000 Obdachlose, betroffen ist die

Donau, alle Nebenflüsse, alle Flüsse in Sachsen, teilweise höchste

Wasserstände seit 1899.

 

1955

21.7. schwere Unwetter mit Wolkenbrüchen und Hagelschlag in

Österreich, Wassermassen, Überschwemmungen, Millionenschäden.

 

1956

sehr nass, viel Regen, viele Überschwemmungen.

Wieder wird in der Presse die Frage aufgeworfen, ob die Atomversuche

für das schlechte Wetter verantwortlich sind.

 

1957

Hitzewelle hält an bis zum 10.7., Wasserknappheit, 15 Tage durchgehend

über 30°, 7.7. bis 39°, 4.7. Zugspitze 14°, Wassernotstand in Nieder-

sachsen, Nordsee ist 22° warm.

1959

„Jahrhundertsommer“ im nördlichen Mitteleuropa, Dürre, Trockenheit.

Sintflut-Regenfälle in den Alpen, Erdrutsche, Überflutungen, Tausende

Obdachlose.

 

1962

kältester Sommer seit 111 Jahren, nur einmal über 25°,

 

1963

Hitzewelle und Trockenheit, oft über 30°, Rekorde.

 

1965

4.7. nach kurzer Hitzewelle schwere Unwetter in Oberitalien,

Hagelschlag und Wirbelstürme, schwere Schäden, Sizilien bis 42°.

18.7. schwere Gewitter in Nordhellen und Niedersachsen, 10 Tote,

über 150 Obdachlose.

25.7. –80,6° werden am Südpol gemessen

 

1967

9.7.heftige Unwetter, Gewitter und Stürme beenden die Hitzewelle,

Temperatursturz um 15°, Schneefälle in den Alpen.

 

1968

11.7. Ein Tornado verwüstet die Stadt Pforzheim und Umgebung

auf einer 20 km langen und 400 m breiten Front, innerhalb einer

Viertelstunde werden 1000 Wohnungen zerstört, Dächer ganzer

Häuserreihen werden abgedeckt, Bäume umgestürzt

und Autos zertrümmert, „wie nach einem Luftangriff“, 2 Tote,

400 Verletzte.

 

1969

7.7. Orkanartige Stürme über Westeuropa, besonders französische

Atlantikküste und England betroffen, 36 Tote, schwere Schäden

 

1975

5.7. schwere Unwetter in Bayern, Millionenschäden.

 

1976

„Europas große Dürre“, einer der Jahrhundertsommer, extreme

Trockenheit, ausgetrocknetes Land, verdorrte Äcker, niedrige

Pegelstände, Vieh muss notgeschlachtet werden, bis 38°

 

1977

4.7. schwere Unwetter in der Schweiz, sintflutartiger Regen, Straßen

unterspült, Erdrutsche, Hagel.

13.7. Hitzewelle im Osten der USA, Blitzschlag legt die gesamte

Stromversorgung New Yorks lahm.

31.7. erneute Unwetter in den Schweizer Alpen, Katastrophenalarm,

Gotthardstrecke tagelang durch umgestürzte Bäume unterbrochen.

Unwetter auch im Südwesen Frankreichs, manche Flüsse steigen innerhalb

weniger Minuten um 6 m an, viele Schäden, 10 Tote, manche Häuser

in Minuten bis zum Dachstuhl überschwemmt.

 

1978

Juli kühl und nass in Deutschland, Hitzewelle in Italien und Süd-

Frankreich , 19.7. schwere Unwetter mit Hagel und Wirbel-

stürmen in Italien und Jugoslawien, Millionenschäden, Hagel

liegt meterhoch auf den Straßen.

 

1980

Sommer kalt und nass

Juli seit 1874 nicht mehr so regenreich, „Katastrophensommer“,

Freibäder schließen.

10.7. Wintereinbruch in den Alpen, Pässe gesperrt.

 

1981

12.7. schwere Unwetter und Gewitterstürme in Süd-Deutschland,

Wolkenbrüche, Hagel, Millionenschäden, Bayern Katastrophenalarm,

Schäden in der Landwirtschaft.

 

1982

Hitzewelle Nord-Europa, 2.8. Oslo 35°

 

1983

Sommer heiß und trocken, einer der Jahrhundertsommer,

Deutschland bis 40,1°, Trinkwasserknappheit.

 

1984

12.7. schwerstes Hagelunwetter „seit Menschengedenken“

im Raum München, schwere Schäden,, tennisballgroße Hagelkörner,

abgedeckte Dächer, Felder und Gärten verwüstet, Temperatur-

sturz von über 30° auf 16°, 300 Verletzte.

Gewitter in ganz Westeuropa.

 

1985

6.7. schwere Unwetter im Rheinland, Millionenschäden

12.7. heftige Schneefälle in Südafrika

19.7. heftigste Monsunregenfälle in Indien seit 20 Jahren,

Überschwemmungen, viele Obdachlose, Tote.

Ende Juli Hitzewelle auf dem Balkan, Athen 41°

30.7. schweres Unwetter in Bayern und Österreich, Millionenschäden.

.

 

1987

1.7. schwere Unwetter über Süddeutschland, sintflutartiger Regen,

5 Tote, Millionenschäden.

 

1988

Dürre USA hält an, „Erinnerungen an die 30ger Jahre“.

Hitzewelle in Griechenland.

26.7. schwere Unwetter in ganz Deutschland, Millionenschäden.

 

1989

9.7. nach kurzer Hitzewelle heftige Gewitter, Hagel meterhoch

auf den Straßen.

Ende Juli erneut heftige Gewitter in Norddeutschland, Rendsburg

150 mm Regen in 24 Stunden.

 

1993

Juli kühl und nass.

Hitzewelle Ostküste der USA, Washington bis 40°, Regen im Mittleren

Westen, Mississippi- Hochwasser, 16 Tote, weite Gebiete überschwemmt.

 

 

1994

4.7. schweres Hagelunwetter im Raum Köln, hühnereigroße

Hagelkörner, schwere Schäden.

Hitzewelle in Deutschland, einer der Jahrhundertsommer,

teilweise wärmster Juli seit B.d.A.

Wetteramt widerspricht Klaus Töpfer, der für das Wetter die

Klimakatastrophe verantwortlich macht.

 

1996

Juli sehr kühl und nass.

7.7. schwere Gewitter mit Hagel und Sturm in Süd-Deutschland,

Millionenschäden.

Unwetter in Südeuropa, Stürme auf den Balearen, 7 Tote.

24.7. Hagel-Gewitter im Raum Köln, Schäden.

Hitzewelle in Ägypten, 22 Tote.

sehr kalter Winter in Südafrika.

 

1997

Juli erheblich zu nass.

verheerende Überschwemmungen nach starken Dauerregenfällen

im Einzugsbereich der Oder, „Jahrtausend“ – Oderflut, Deiche

brechen, weite Landstriche überflutet, Milliardenschäden.

 

1998

Juli sehr kühl.

Hitzewelle in Italien und Griechenland.

 

1999

Hitzewelle in Russland, 142 Tote.

6.7. Unwetter mit sintflutartigem Regen im Erzgebirge, bis 100 mm/Tag.

 

 Wolfram v. Juterzenka