1

12. IKEK am 23. und 24.11.18 Nir Shaviv – Der Einfluss kosmischer Strahlung auf das Klima

Außerdem ist er einer der profiliertesten Kritiker der aktuellen Klimavorhersagen aus dem Umfeld des Weltklimarates (IPCC). Kurz nach seinem Vortrag auf der IKEK-12 war er als Sachverständiger im Bundestagsausschuss in Berlin zu Gast. Er bezeichnet das Hauptargument des IPCC, dass das irdische Klima höchst empfindlich auf CO2-Emissionen reagiere, als irrational und falsch. Die Wissenschaft sei keine Demokratie; wenn also 97% der Klimatologen weltweit behaupteten, dass uns eine Katastrophe bevorstehe, müsse das nicht automatisch korrekt sein.

Video des Vortrages von Prof. Nir Shaviv anlässlich der 12. IKEK im Nov. 2018 in München

Als typisches Beispiel für die Irrationalität der Argumentation führte er die berühmten Fotos von Eisbären auf ihrer schwimmenden Eisscholle an. Der Weltklimarat behaupte, dass die Erwärmung des Planeten hoch wie nie zuvor sei und daher anthropogen sein müsse. Daß das Unsinn sei, zeige schon die Affäre „Climate gate“ im Jahre 2008, als durch ein internes Leck die Kommunikation von Klimaforschern bekannt wurde, die zeigte, dass führende Wissenschaftler um die Unvereinbarkeit ihrer Klimatheorien mit Messdaten wußten und sich überlegten, wie man dies verbergen könne. Shaviv erinnerte in diesem Zusammenhang, dass der IPCC noch 1990 ein völlig anderes Bild zur Klimaentwicklung präsentierte als heute. Damals wurden die mittelalterliche Warmphase, die frühneuzeitliche „Kleine Eiszeit“ und die moderate Aufwärmung seit 1850 noch streng wissenschaftlich benannt. 2001 plötzlich, der Professor erwähnt hier den Begriff „Orwell“, sehe die Klimakurve des IPCC aus wie ein liegender Hockeyschläger, dessen fast rechtwinklig nach oben abstehende Schlagfläche für die angeblich industriell hervorgerufene Erhitzung stehe. Nir Shaviv hingegen verwies darauf, dass das Klima hingegen seit Urzeiten hauptsächlich von der Aktivität des elfjährigen Zyklus der Erdsonne, der mit dem Auftreten von Sonnenflecken und der Umpolung des Magnetfeldes einhergehe, bestimmt werde. Als Effektor wirkt hier der sogenannte Sonnenwind. Zusätzlich seien astronomische Einflüsse wie kosmische Strahlung und die pulsierende Heliosphäre zu beachten. Im Folgenden benannte der Professor mehrere Probleme des alarmistischen Klimabildes, das in den Massenmedien verbreitet wird. Problem Nummer eins: Der Weltklimarat gebe das Ausmaß der Erwärmung viel zu hoch an. Da wir seit etwa 1850 in einer moderaten Warmphase leben, stiegen die Temperaturen tatsächlich leicht; aber längst nicht so stark wie vom IPCC vorhergesagt. Problem Nummer zwei: Die Klimamodelle des IPCC sagten eine gleichmäßige Erwärmung der Luftsäule bis 15 km Höhe voraus. Tatsächlich würde sich nur die Temperatur der bodennahen Luftschichten erhöhen. Problem Nummer drei: Die IPCC-Klimamodelle reagierten viel zu empfindlich auf Veränderungen. Zum Beispiel sei die Reaktion auf Vulkanaktivität viel zu groß. Problem Nummer vier: Die IPCC-Klimamodelle könnten ihre Empfindlichkeit nicht genau angeben, zum Beispiel in Bezug auf Wolkenbildung. Verdoppele sich der CO2-Eintrag in die Atmosphäre, steige die mittlere Temperatur um 1,5 bis 5°C. Problem Nummer fünf: Es gebe gar keinen historischen Beweis für einen Anstieg der Temperatur infolge Anstieg der CO2-Konzentration der Atmosphäre („Fingerabdruck“). Es könne, zum Beispiel in den von Ex-US-Vizepräsident Al Gore präsentierten Klimadaten, auch genau andersherum sein. Damit zusammenhängend, Problem Nummer sechs: Die CO2- und die Temperaturdaten der letzten 500 Millionen Jahre korrelierten gar nicht miteinander. Ein deutlicher Anstieg der CO2-Konzentration in der Atmosphäre trete manchmal gemeinsam mit einer Aufheizung des Klimas auf, manchmal aber auch nicht. Problem Nummer sieben: Der Einfluß der Sonne auf das Erdklima sei eindeutig stärker als der anderer Faktoren. So korrelierten die Anstiege des radioaktiven Kohlenstoff-Isotopes C14 (Anzeiger für Sonnenaktivität) und des radioaktiven Sauerstoff-Isotopes O18 (Klima-Anzeiger) am Beispiel von Stalagmiten in Oman. Das Fazit von Professor Shaviv: Das Klimageschehen sei äußerst komplex und nicht nur auf CO2-Eintrag zurückzuführen. Wir Menschen mit unserer Industrie hätten nur wenig Einfluß; die Hauptklimafaktoren seien Vulkane, kosmische Strahlung und zyklische astronomische Phänomene. Zusammengenommen könnten diese Hauptfaktoren das Klimageschehen im 20. Jahrhundert zum Beispiel sehr gut erklären.




12. IKEK am 23. und 24.11.18 Nils-Axel Mörner Das Kattegat u.a. als Testgebiete für die Höhe des Meeresspiegels

Video des Vortrags von Prof. Nils-Axel Mörner anlässlich der 12. IKEK am 23. und 24.11.2018 in München

 Der tatsächliche ozeanische Anstieg könne hier in den letzten 125 Jahren moderat mit 0,9 mm pro Jahr angesetzt werden. Die Aufzeichnung der Gezeiten von Stockholm sei die zweitlängste in Europa; die mittlere langfristige Veränderung des Meeresspiegels sei ein Rückgang von 3,8 mm pro Jahr. Das Land selbst steige um 4,9 mm pro Jahr aufgrund des postglazialen Aufstiegs der kontinentalen Landmasse. Die Differenz – 1,1 mm/Jahr – ist die wahre ozeanische Komponente der Ostsee. Neben den europäischen Schauplätzen erforscht Mörner auch den Indischen Ozean und den Pazifik. Er ist gerade aus dem Gebiet der Insel Ouvéa vor Neuschottland zurückgekehrt. Im 17. Jahrhundert war der Meeresspiegel um 70 cm höher, wie unverrückbare geomorphologische Fakten belegten. Damals herrschte in den Alpen die „Kleine Eiszeit“ mit größeren Gletschern (wie Professor Patzelt zeigte). Wie konnte mehr flüssiges Wasser zur gleichen Zeit im Äquatorbereich vorhanden gewesen sein? Das Phänomen beweise somit, dass der Weltklimarat falsch liegt; in warmen Zeiten steigt der Meeresspiegel nicht global an. Der Grund dafür sei die sogenannte Rotations-Eustasie des Planeten: Im Norden steige die Wasservolumen etwas an, am Äquator bleibe es ungefähr gleich. Auch andere Inseln oder Küstenregionen wiesen einen Verlauf des Meeresspiegels auf wie die Insel Ouvéa, so die Fidschi-Inseln, die Malediven und Goa in Indien. Auch hier sanken die Ozeane um 1700, stiegen um 1800 an und sanken nach 1950 wieder. Die Veränderungen des globalen Meeresspiegels folgten den Gezeiten-Superzyklen des Mondes, die wiederum auf die großen Sonnenzyklen zurückzuführen seien. Die Sonne beeinflusst auch den Golfstrom im Nordatlantik, der Wärme nach West- und Nordeuropa bringt. Bei maximaler Sonnenaktivität fließt der Golfstrom in Richtung Nordosten und der Meeresspiegel steigt. Während eines solaren Minimums fließt der Golfstrom von Osten nach Südosten und der Meeresspiegel fällt im Norden ab. Mörner betonte, dass die Sonnenzyklen und die Schwerkraft unserer benachbarten Planeten, der Sonnenwind und der Mond unser Klima und unsere Umwelt bestimmten. Der Kohlendioxid-Treibhauseffekt habe dabei keinen Platz. Mit seinem Vortrag in München wollte der Referent eine Nachricht an die Weltklimakonferenz COP24 in Kattowitz/Polen senden, die kurz nach der EIKE-Konferenz stattfand: „Einige Ihrer Aussagen fallen in den Bereich des anti-wissenschaftlichen Unsinns. Das Polareis schmilzt nicht so schnell und der Meeresspiegel steigt nicht in kurzer Zeit.“ Für das Verfahren zur Bestimmung des Meeresspiegels empfiehlt Mörner, die physikalischen Gesetze und die Beweise in der Natur zu beachten



Fühlen statt wissen – Klimahysterikerin trifft auf Klimaskeptiker Lord Monckton

Fairerweise, es geht ja immerhin um einen englischen Viscount, muß man sagen, dass Lord Monckton argumentativ besser vorbereitet ist und daher flüssiger formulieren kann. Dennoch fällt auf, dass die Dame in der Debatte so gar nichts Greifbares vorbringen kann.

Wenn es nur die eine Frau wäre, wäre es unfair, das Video zu verlinken. Die Klimabewegte ist aber repräsentativ für die Szene. Hört man sich zum Beispiel die aktuellen Reden von Greta Thunberg an, hört man keine Argumente, sondern Anklagen, Weltuntergangsszenarien und sogar Beschimpfungen („Schurken“). Dabei ist Gretas heiliger Ernst nicht wenigstens noch unterhaltsam, sondern sogar etwas unheimlich. Schauen Sie lieber das Video unseres Klima-Lords. Vielleicht trifft er ein einer Debatte ja einmal auf Greta Thunberg……

 




12. IKEK am 23. und 24.11.18 Michael Schnell – Experimentelle Verifikation des Treibhauseffektes

Die Idee des Treibhauseffektes stammt ursprünglich von dem französischen Wissenschaftler Joseph Fourier, der sie bereits 1827 publizierte. Dr. Michael Schnell baute für seine Klimaforschung eine Versuchsapparatur, die die Auswirkungen der erdnahen Infrarotstrahlung (IR), einem Teilaspekt des Treibhauseffektes, nachstellt.

Video des Vortrages von Dr. Michael Schnell zur Verifikation der Treibhauswirkung infrarot sensibler Gase in der Atmosphäre anlässlich der 12. IKEK in München. Ausführliche Beschreibungen seiner Versuche finden Sie hier und hier und hier
Sie besteht, kurz gesagt, aus einem aufrecht stehenden wärmeisolierten Aluminiumzylinder mit rund 100 Litern Volumen und zwei kuppelartigen Enden, in denen jeweils eine heiz- oder kühlbare Aluminium- bzw. Kupferplatte verbaut ist, die einerseits die Erdoberfläche („Erdplatte“) und andererseits die IR-Strahlung der Wolken („Aerosolplatte“) simuliert. In einem Experiment untersuchte Schnell die Frage, ob Kohlendioxid, obwohl kälter als die „Erdplatte“, trotzdem die Temperatur dieser Platte erhöhen kann, was er mit „ja“ beantworten konnte. Da zum komplexen Klimageschehen aber viele Komponenten gehörten, IR-aktive Gase und IR-erzeugende Wolken (Aerosole), verfeinerte er seinen experimentellen Ansatz.



12. IKEK am 23. und 24.11.2018 – Nils Axel Mörner – Das Kattegat u.a. als Testgebiete für die Höhe des Meeresspiegels

Die Aufzeichnung der Gezeiten von Stockholm ist die zweitlängste in Europa; die mittlere langfristige Veränderung des Meeresspiegels ist ein Rückgang von 3,8 mm pro Jahr. Das Land selbst steiget um 4,9 mm pro Jahr aufgrund des postglazialen Aufstiegs der kontinentalen Landmasse. Die Differenz – 1,1 mm/Jahr – ist die wahre ozeanische Komponente der Ostsee.

Neben den europäischen Schauplätzen erforscht Mörner auch den Indischen Ozean und den Pazifik. Er ist gerade aus dem Gebiet der Insel Ouvéa vor Neuschottland zurückgekehrt. Im 17. Jahrhundert war der Meeresspiegel um 70 cm höher, wie unverrückbare geomorphologische Fakten belegten. Damals herrschte in den Alpen die „Kleine Eiszeit“ mit größeren Gletschern (wie Professor Patzelt zeigte). Wie konnte mehr flüssiges Wasser zur gleichen Zeit im Äquatorbereich vorhanden gewesen sein?

Video des Vortrages von Prof. em. Axel Mörner anlässlich der 12. IKEK in München

Das Phänomen beweise somit, dass der Weltklimarat falsch liegt; in warmen Zeiten steigt der Meeresspiegel nicht global an. Der Grund dafür sei die sogenannte Rotations-Eustasie des Planeten: Im Norden steige die Wasservolumen etwas an, am Äquator bleibe es ungefähr gleich.
Auch andere Inseln oder Küstenregionen wiesen einen Verlauf des Meeresspiegels auf wie die Insel Ouvéa, so die Fidschi-Inseln, die Malediven und Goa in Indien. Auch hier sanken die Ozeane um 1700, stiegen um 1800 an und sanken nach 1950 wieder.

Die Veränderungen des globalen Meeresspiegels folgten den Gezeiten-Superzyklen des Mondes, die wiederum auf die großen Sonnenzyklen zurückzuführen seien. Die Sonne beeinflusst auch den Golfstrom im Nordatlantik, der Wärme nach West- und Nordeuropa bringt. Bei maximaler Sonnenaktivität fließt der Golfstrom in Richtung Nordosten und der Meeresspiegel steigt. Während eines solaren Minimums fließt der Golfstrom von Osten nach Südosten und der Meeresspiegel fällt im Norden ab.

Mörner betonte, dass die Sonnenzyklen und die Schwerkraft unserer benachbarten Planeten, der Sonnenwind und der Mond unser Klima und unsere Umwelt bestimmten. Der Kohlendioxid-Treibhauseffekt habe dabei keinen Platz.

Mit seinem Vortrag in München wollte der Referent eine Nachricht an die Weltklimakonferenz COP24 in Kattowitz/Polen senden, die kurz nach der EIKE-Konferenz stattfand

Sie lautet: „Einige Ihrer Aussagen fallen in den Bereich des anti-wissenschaftlichen Unsinns. Das Polareis schmilzt nicht so schnell und der Meeresspiegel steigt nicht in kurzer Zeit.“
Für das Verfahren zur Bestimmung des Meeresspiegels empfiehlt Mörner, die physikalischen Gesetze und die Beweise in der Natur zu beachten




Impressionen 12. Internationale Klima- und Energiekonferenz am 23. und 24. November 2018 in München.

Dr. Holger Thuss, EIKE Präsident auf der 12. IKEK in München bei seinem Grußwort, Bild EIKE

Die Konferenz war sehr gut besucht und brachte viele neue Erkenntnisse. Ua. auch die, dass CO2 – schon garnicht das anthropogene CO2 – einen erkennbaren Anteil an der jüngsten Erwärmung der Atmosphäre hat. Die Spannbreite der vorsichtigen Schätzungen der vortragenden Wissenschaftlern reichen von max. 40 % (rein geschätzt) bis nicht erkennbar. Die Vorträge werden als Videos Stück für Stück als Einzelvorträge auf der EIKE Website und der Videowebsite veröffentlicht.

Impressionen 12. Internationale Klima- und Energiekonferenz




12. IKEK am 23. und 24.11.2018 – Michael Limburg – Wie glaubwürdig sind Zeitreihen historischer Klimadaten?

Die westliche Welt begann im ausgehenden 19. Jahrhundert, fast nur in den entwickelten Ländern Klima- und Wetterdaten mittels Messstationen aufzuzeichnen, von denen wir heute noch glauben profitieren zu können. Doch auch um 1900 war die Nordhalbkugel der Erde immer noch sehr spärlich mit Messstationen ausgestattet, das änderte sich erst in der zweiten Hälfte des 20. Jh. Erst ab 1960 waren, auf Grund des kalten Krieges die USA, Europa und weite Teile der damaligen Sowjetunion vglw. dicht bestückt.

Video des Vortrages von Michael Limburg anlässlich der 12. IKEK am 23. und 25.11.18

Für die Südhalbkugel galt das jedoch nie, die war und blieb spärlich versorgt, was sowohl der Entwicklung der dort befindlichen Länder, als auch an der geringen Landbedeckung geschuldet ist.

Hinzu kam, dass über den Ozeanen eine genügende Abdeckung, die diesen Namen auch verdient, außerhalb der Hauptschifffahrtsrouten nicht vorhanden war.

Doch selbst wenn die besser wären, sind die verfügbaren historischen Klimadaten viel zu dünn, sowohl in der Flächenabdeckung, als auch in der kontinuierlichen Langzeit-Messdauer, um als Basis für die präzise Berechnung einer globalen Mitteltemperatur dienen zu können.

Und nicht nur das, denn sie sind auch viel zu ungenau, als dass Klimatologen mit ihrer Hilfe eine präzise Bestimmung der globalen Mitteltemperatur durchführen und somit als valide Quellenlage gelten könnten.

Die Klimatologen glauben aber, es sei so, obwohl jeder, der sich mit Messtechnik und Fehlerstatistik auskenne, feststellen muss, dass die Daten dafür nicht taugten. Schuld an diesem Irrglauben ist ein Artikel der Klimawissenschaftler Hansen & Lebedeff von 1988, in dem sie behaupteten, dass die Werte einer Messstation für eine Kreisfläche von 2.400 km Durchmesser als „Normal“ stehen könne.

Als „Beweis“ dafür führten sie lediglich an, dass die Trendverläufe der Teststationen innerhalb dieser Fläche immer noch eine Korrelation von ≥ 0,5 (als „gut“ bezeichnet) aufwiesen. Mittels einfachem direkten Vergleiches von realen Verläufen hätten sie jedoch erkennen müssen, dass auch bei Korrelation von ≥ 0,5 die Zeitreihen der Temperatur viel zu unterschiedlich seien, als dass eine Station im Zentrum als Maß für alle stehen könnte. Beispielsweise fänden sich im Umkreis des Nordpols zwei Messstationen mit je rund 1.000 km Abstand zum Pol, was viel zu weit weg sei, um das Wetter und seine Daten dort genau genug erfassen zu können.

Ein weiterer Fehler ist anzunehmen, das die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n sich von selbst und nur von ihrer Zahl abhängig, in Richtung Null korrigieren, unbekümmert für sämtliche Messwerte angewendet werden darf.

Dem ist jedoch nicht so, weil die Messempfindlichkeit eine Untergrenze darstellt, bis zu der sich zufällige – also gleich verteilte – Messfehler ausgleichen könnten.

Die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n – wobei n die Zahl der Messungen ist – gegen Null tendieren, findet da ihre Untergrenze.

Ein weiterer wichtiger Einflussfaktor auf die Messgenauigkeit ist bspw. das Material des Schutzbehälters, in denen sich der Messfühler befindet, das sogenannte Wetterhäuschen (z.B. Englische Hütte). Allein dadurch entsteht ein systematischer Messfehler von etwa 0,2°C (+/-). Bei einem Wechsel des Wetterhäuschens oder des Messgerätes erhalte man so „sprunghafte systematische Fehler“. Diese schlagen 1:1 auch bei Anomalienbildung mit dem „Stationsnormal“ durch, und gleichen sich nicht – wie weit und breit geglaubt- gegenseitig aus.

In Berlin beispielsweise würden seit 1990 elektronische Fühler eingesetzt, was die örtliche mittlere Temperatur scheinbar um 0,1°C erhöht habe. Korrigiert wurde das bis heute nicht.

Zusammenfassend kann festgestellt werden, dass die systematischen Fehler bei der Erhebung von Klimadaten sehr vielfältig und zum allergrößten Teil nicht mehr zu korrigierbar sind, da die Umstände unter denen sie entstanden, nicht mehr rekonstruierbar sind. Das hat zur Folge, dass jeder ehrliche Versuch, eine globale Mitteltemperatur aus den vorhandenen Daten zu berechnen, mit einen Unsicherheitsband von mindestens vier Grad umgeben sein muss.

Das wiederum ermögliche keinerlei Bestimmung von Änderungen im Bereich von einem Grad, und damit auch keinerlei Bestimmung einer evtl. Ursache. All das verschwinde im Rauschen der Messfehler.

Die einzig gute Nachricht ist, dass oszillierende Einflüsse (periodisches auf und ab) von diesem Problem nicht betroffen sind,  und damit sehr wohl sichtbar seien. Ihre Präsenz erlaubt die Bestimmung ihrer Zykluszeiten, jedoch nur sehr unsicher, bezüglich ihrer Amplituden.

Hinzu kommt, dass Rohdaten der Vergangenheit auf breiter Front offensichtlich gefälscht wurden, mit dem Ziel, die Vergangenheit kühler erscheinen zu lassen, damit die Gegenwart wärmer erschiene. Das folgende Video zeigt einige verblüffende Zusammenhänge.

Video von Tony Heller zu der Manipulation historischer Temperaturdaten




12. IKEK vom 23.11. bis 24.11.18 – Prof. Dr. Friedrich-Karl Ewert: CO2 verringern – das Gegenteil wäre richtig

 In der Erdgeschichte bestand die Atmosphäre zunächst zu großen Teilen aus CO2 (etwa 10%), was durch die photosynthetische Tätigkeit der Cyanobakterien und später der grünen Pflanzen auf den heutigen Wert einiger Promille gedrückt worden sei. Allerdings gab es Zwischenphasen, in denen der CO2-Wert gewaltig anstieg, wie zum Beispiel vor rund 50 Millionen Jahren. Das via Photosynthese aus der Atmosphäre entfernte Kohlendioxid steckt heute zu fast 100% in der Biomasse aller Lebewesen. Für die Photoreaktion der Pflanzen ist ein CO2-Gehalt von 0,06 % bis 0,1 %in der Luft optimal; unter 0,015 % können Pflanzen nicht mehr existieren.

Video des Vortrags von Prof. Ewert anlässlich der 12. IKEK am 23.11.18 bis 24.11.18 in München

Ewert führt an, dass die aktuelle CO2-getriebene Klimakatastrophentheorie seit 1992 auf der UN-Klimakonferenz in Rio de Janeiro propagiert werde. Der Weltklimarat IPCC verwende für seine Modelle Daten ab 1860, obwohl Messungen seit 1659 dokumentiert seien. Es werde stets nur ein globaler Temperatur-Mittelwert im überzeichneten Maßstab angegeben, aber keine örtliche Temperaturentwicklung. Vor 1992 habe es in der Klimawissenschaft keinen Konsens gegeben, dass Kohlendioxid das Klima aufheize. Im Gegenteil; in einem Lexikon aus dem Jahre 1959 sei sogar vermerkt, dass das Gas für den Treibhauseffekt bedeutungslos sei. Betrachte man örtliche Messungen, stelle man fest, dass 109 Einzelmeßstationen seit 100 Jahren keine Erwärmung anzeigten, mit Ausnahme der in Kalkutta/Indien. Messstationen in derselben kontinentalen Region, zum Beispiel Wien und Prag, zeigen Ähnlichkeit in der Temperaturentwicklung. Trotz vermehrten Kohlendioxideintrages in die Atmosphäre sei auf den Kontinenten mit 1.097 Einzelmeßstationen seit 1995 eher eine Abkühlung der Luft zu verzeichnen.



12. IKEK am 23. und 24.11.2018 Stefan Kröpelin – Die Grüne Vergangenheit der Sahara

 Dr. Kröpelin gab in seinem Vortrag zunächst einen Überblick über die von ihm erforschte Ost-Sahara, die sich auf dem Gebiet des Sudan, des Tschad, Libyens und Ägyptens befindet. Die Region ist der heute der trockenste Ort des Planeten Erde, was aber dank des natürlichen Klimawandels über die Jahrtausende längst nicht immer so war. Im Gegenteil: Wenn man an den ungarischen Forscher László Almásy denkt, bekannt aus dem Buch und Film „Der englische Patient“, der bereits in den 1930er Jahren „Schwimmer“ auf Höhlenmalereien in der Ost-Sahara entdeckte, weiß man, dass das Gebiet einst ein Paradies war. Der Forschungsreisende Kröpelin konnte durch seine Arbeit die Vermutungen Almásys bestätigen – und sogar noch um einen schier unglaublichen Fakt ergänzen.
Die paradiesischen feuchten Zustände im Osten der Sahara herrschten zwischen etwa 8.500 und 5.300 vor Christus, also nach der letzten Kaltzeit und am Beginn der Jungsteinzeit, als höhere Temperaturen zu häufigen Regenfällen führten, damit den Grundwasserspiegel kräftig anhoben, und Oberflächengewässer und reiche Vegetation ermöglichten. Als Folge der allmählichen Austrocknung der Region seit rund 7.000 Jahren wanderten die menschlichen Bewohner Richtung Süden in den heutigen Sudan oder ins spätere Ägypten, wo sie am Nil mit seinen fruchtbringenden Überschwemmungen die erste Hochkultur der Erde begründeten.

Video des Vortrages von Dr. Stefan zur langsamen Austrocknung der Sahara anlässlich der 12. IKEK am 23.11.18 bis 24.11.18 in München

Die langsame Austrocknung der Sahara sei hervorgerufen worden durch eine sukzessive Abkühlung des Klimas, analog zur Savannenbildung durch Aufwärmung. Interessanterweise habe die heutige Sahara-Wüste längst nicht die Ausmaße, die sie während des Maximums der letzten Eiszeit vor etwa 20.000 Jahren hatte. Damals habe sich die Wüste hunderte Kilometer weiter nach Süden in die heutige Sahel-Zone erstreckt. Wie konnte Dr. Kröpelin das Klimageschehen in Nordafrika über die Jahrtausende rekonstruieren? Welche natürlichen Klima-Anzeiger bietet die Region? Eine der besten Quellen für Klimadaten sind die Ablagerungen am Boden des größten Sees der Sahara, dem Yoa-See in der Oase von Ounianga im Nordost-Tschad, aus dem täglich so viel Wasser verdunstet, wie die Stadt Köln täglich verbraucht.
Der Verlust wird dabei durch die üppigen fossilen Grundwasservorkommen ausgeglichen. Aber nicht nur verborgene Daten tief im Boden eignen sich, um die Vergangenheit des Klimas in den letzten Jahrzehntausenden präzise zu rekonstruieren – auch die menschliche Besiedelung der Region und ihre Hinterlassenschaften sind ein zuverlässiger Klimaanzeiger. Besonders eindrucksvoll in diesem Zusammenhang sind die besagten Höhlenbilder, die den Sandstürmen und der Hitze erstaunlich gut trotzen konnten. Diese prähistorischen Kunstwerke wurden nicht in kurzer Zeit angefertigt, sondern über Jahrtausende. Die abgebildeten Objekte wie die schwimmenden Menschen oder Rinderherden stehen für verschiedene Phasen der Besiedelung.
Die nachgewiesene Allmählichkeit der damaligen Klimaveränderung widerspreche der „Tipping Point“-Katastrophentheorie, die einen „Klimakollaps“ mit drastischen Veränderungen der Umwelt in nur einer menschlichen Generation vorhersagt. Tatsächlich zeigen Kröpelins Forschungsergebnisse, dass der Klimawandel in der Sahara so langsam vonstattenging, dass ein Mensch innerhalb seiner Lebenszeit kaum etwas davon mitbekam.
Stefan Kröpelin verweist in dem Zusammenhang auch auf die politische Nutzung der aktuellen Klimakatastrophentheorie, die sogar für die Massenimmigrationspolitik missbraucht werde. Der exponentielle Anstieg der Weltbevölkerung in den nächsten 50 Jahren – das sei das tatsächliche Problem, vor dem unsere Zivilisation stehe.



12. IKEK am 23. und 24.11.2018 Horst-Joachim Lüdecke – Jüngste Forschungsergebnisse zu Klimazyklen

In seinem Vortrag auf der IKEK-12 stellte er den Verlauf der einschlägigen Forschungsergebnisse vor, die mit einer Entdeckung des deutschen Astronoms Wilhelm Herschel am Ende des 17. Jahrhunderts beginnen und bis zu stetig an Anzahl zunehmenden aktuellen Studien reichen, wie stellvertretend etwa über die Korrelation der Sonnenaktivität mit dem Abfluss des bayerischen Ammersees. Lüdecke berichtete auf der IKEK-12 insbesondere auch über zwei seiner eigenen Veröffentlichungen zum Thema „Sonne/Klima“. Die erste, zusammen mit den Koautoren Dr. Hempelmann und Prof. Carl Otto Weiss, wurde veröffentlicht in Climate of the Past der Geophysikalischen Europäischen Union, die zweite, zusammen mit C. O. Weiss, im Open Atmospheric Science Journal.

Video des Vortrages von Prof. Lüdecke anlässlich der 12. IKEK in Düsseldorf

Die erstgenannte Studie basiert auf Thermometerreihen mit Anfangsjahren um die Mitte des 18. Jahrhunderts. Besonders auffällig zeigt sich hier der De Vries/Süss – Zyklus von etwa 200 Jahren Länge, der bereits in zahlreichen anderen Fachveröffentlichungen entdeckt und dort durchgängig dem Einfluss der Sonne zugeschrieben wurde. Die zweite Arbeit verwendet unzählige, weltweit verstreute Proxy-Temperaturreihen und erzeugt daraus eine gemittelte Global-Temperaturreihe. Diese zeigt die gut bekannten Warmperioden der Römerzeit, des Mittelalters und der Gegenwart sowie die kleine Eiszeit. Die Globalreihe kann, so weisen es Lüdecke und sein Mitautor Prof. Carl Otto Weiss nach, mit nur 4 Zyklen von etwa 1000, 500, 200 und 60 Jahren Periodenlänge bei überraschend guter Korrelation rekonstruiert werden. CO2 wird dabei überhaupt nicht benötigt. Die Rekonstruktion erlaubt zudem einen Blick in die Zukunft, denn man darf erwarten, dass eine extrem gute Übereinstimmung über 2000 Jahre auch noch für die nächsten 100 oder 200 Jahre anhält. Es zeigt sich eine zukünftige Abkühlung! Ähnliche Aussagen in Richtung zukünftiger Abkühlung finden sich auch in Fachpublikationen anderer Autoren und Forschungsvorhaben wieder.

EIKE-Pressesprecher Lüdecke vergleicht alle Ergebnisse des Sonneneinflusses aus der Fachliteratur mit den Veröffentlichungen des Weltklimarates (IPCC), der im Gegensatz zu diesen Arbeiten ausschließlich von einem menschgemachten Einfluß auf die Temperaturentwicklung ausgeht. Der Mensch soll sogar, so das IPCC, ca. 30 mal stärker auf die Klimaentwicklung einwirken als die variable Sonne. Dies bezeichnet Lüdecke als „bereits absurd“ und führt zur Bestätigung die IPCC-Klimamodelle an, welche in der Beschreibung der Erdtemperatur seit etwa 1995 im Vergleich mit den Messungen dramatisch falsch liegen. Aktuell beschäftigt sich Prof. Lüdecke mit Regenreihen und ihrer Korrelation mit der Sonnenvariabilität.




Schweizer Medien sind das neue Westfernsehen! Oderrrr??

Am 02. September 2018 um 21Uhr40 wurde im Schweizer Fernsehen ein 23-minütiger Film-Bericht über den Schweizer Klimaforscher Thomas Stocker gezeigt, an dessen Dreharbeiten wir vom „Klimamanifest-von-Heiligenroth“ seit April 2018 mitbeteiligt waren und wo wir auch mit unserer Kritik zu Wort kommen, hier: [SRF Reporter, Youtube, ab Minute 4:40.] Auch wenn wir uns als Ergebnis in dem am 02.09.2018 gesendeten SRF-Filmbericht etwas mehr Detail-Kritik an den Thesen von Thomas Stocker gewünscht hätten, so ist doch der Filmbericht in Verbindung mit den beiden ergänzenden SRF-Blogtexten von Simon Christen eine im Vergleich zu ARD, ZDF (und auch ORF) wohltuend-hinterfragende Auseinandersetzung mit den abstrusen Thesen eines bekannten Klima(folgen)forschers, in diesem Fall Thomas Stocker:

Klimaforscher Thomas Stocker und seine Gegner

Klimaforscher Thomas Stocker beantwortet Fragen von Kritikern

Auf der obigen SRF-Blogwebseite sind nur vier (4) Fragen und Antworten an und von Thomas Stocker aufgelistet. Insgesamt hatte der SRF-Autor Simon Christen dem Schweizer Klimaforscher Thomas Stocker aber insgesamt neun (9) Fragen gestellt, die wir ergänzend ebenfalls kommentiert bzw. beantwortet haben und die wir nachfolgend alle neun (9) veröffentlichen und zusätzlich mit Beleg-Links ausgestattet haben:

#1
Die Schweizer Bevölkerung ist über den Klimawandel besorgt, wie eine Studie der Uni Lausanne zeigt. Aber nur 44% der Befragten glauben, dass der Klimawandel auf menschliche Aktivitäten zurückzuführen ist. Wie erklären Sie sich das?

Thomas Stocker, Uni Bern:
Diese Zahl verwundert mich, da SFR eine kürzliche Umfrage gemacht hat, in welcher die Sorge um den menschgemachten Klimawandel Platz #1 der Schweizer Bevölkerung einnahm. Generell beobachte ich aber, dass die öffentliche Meinung zu dieser Frage recht schnellen Veränderungen in beide Richtungen unterworfen ist. Deshalb muss die Wissenschaft und die Medien noch besser und differenzierter informieren.

Rainer Hoffmann, www.klimamanifest.ch
Es ist stattdessen wahrzunehmen, dass immer mehr Menschen die Widersprüche begreifen, die die Klima(folgen)forscher seit über 30 Jahren bei Ihren Thesen über die angeblich gefährliche globale Erwärmung fabrizieren. Vergleicht man die Begründungen der Klimafolgenforscher aus den 1980er-Jahren für die angebliche Existenz einer gefährlichen globalen Erwärmung, insbesondere aus der Zeit seit Gründung des IPCC, des Weltklimarates, so stehen diese Begründungen im krassen Gegensatz zu den heute publizierten Begründungen der Klima(folgen)forscher. Diese grundlegenden Widersprüche in den Begründungen, die wir auch mit zunehmenden Erfolg öffentlich machen, erkennen und begreifen immer mehr Menschen, da es auch einfachste logische Widersprüche sind.

#2
Die «Klima-Zweifler» lassen sich grob in 2 Gruppen einteilen. Die einen sagen: Es gibt keinen Zusammenhang zwischen der Erderwärmung und menschlichen Aktivitäten. Die anderen sagen: Es gibt einen Zusammenhang, aber er wird stark übertrieben – ergänzt wird die Aussage mit dem Hinweis darauf, dass nur 3% des CO2 in der Atmosphäre menschgemacht seien. Der Einfluss könne also gar nicht gross sein. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Beide Gruppen stellen Behauptungen auf, die keine wissenschaftliche Basis haben. Die Behauptung der Gruppe 1 ist klar widerlegt durch tausende von wissenschaftliche Studien, die in den letzten 50 publiziert wurden, die von den Wissenschaftern vor der Publikation kritisch begutachtet, und im Rahmen der IPCC Berichte gründlich beurteilt wurden. Diese Studien umfassen die theoretischen Grundlagen, Messungen der letzten 150 Jahre in der Atmosphäre und im Ozean, aber auch die paläoklimatischen Informationen der letzten 40 Millionen Jahre.

Die Behauptung der Gruppe 2 ist ebenfalls falsch: Der Anstieg der atmosphärischen Konzentration von CO2 seit 1750 ist vollständig menschgemacht durch die Verbrennung von Kohle, Erdöl und Erdgas, sowie die Abholzung. Das hat zu einer gemessenen Erhöhung der CO2 Konzentration um 35% geführt. Heute ist die CO2 Konzentration höher als je zuvor in den letzten 800’000 Jahren.

Neben der Konzentration von CO2 ist diejenige des drittwichtigsten Treibhausgases, Methan, seit 1750 sogar um 150% angestiegen!

Rainer Hoffmann, www.klimamanifest.ch
Man benötigt keine (natur-) wissenschaftliche Ausbildung, um die Widersprüche in den Behauptungen der Klima(folgen)forschung zu erkennen, sondern nur ein gesundes logisches Verständnis bzw. einen gesunden Menschenverstand. Und „tausende von wissenschaftliche Studien“ sind definitiv kein Beweis für die Kausalität des menschengemachten Kohlendioxids (oder anderer angeblicher Treibhausgase), die bodennahe Luft messbar zu erwärmen. Denn das notwendige wissenschaftliche Experiment, dass die Hypothese von der atmosphärischen Wärmerückstrahlung durch CO2 beweist, fehlt bis heute. Damit ist auch die obigen Antwort von Thomas Stocker zur „kritischen Gruppe 2“ als argumentationslos und inhaltsleer entlarvt, weil Thomas Stocker nur eine Korrelation als angebliche Begründung beschreibt, aber eben keine Kausalität, die aber als Beweis für den angeblichen Einfluss der menschgemachten „Treibhausgase“ zwingend wissenschaftlich notwendig ist. Und das angeblich so effektive und angeblich Fehler vermeidende „peer-reviewed-Verfahren“, auf das Thomas Stocker in seiner Antwort anspielt, ist letztendlich spätestens seit Öffentlichwerdung des „Himalaya-Fehlers“ im 4. IPCC-Bericht (und weiterer Fehler) im Januar 2010 kläglich gescheitert. Und in diesen Tagen wurde bekannt, dass z.B. Hans Joachim Schellnhuber, der bekannte deutsche „Klimapapst“ die peer-reviewed Begutachter mancher seiner Publikationen selbst aussucht. Damit ist dokumentiert, dass dieses „peer-reviewed-Verfahren“ der Klima(folgen)forscher nur Augenwischerei und Täuschung der Öffentlichkeit ist

#3
Diejenigen, die den Zusammenhang zwischen CO2 und Erderwärmung bestreiten, sagen: In der Physik müssten Theorien bewiesen werden. Es existiere aber weltweit noch kein Experiment, in dem nachgewiesen werden konnte, dass die erdnahen Luftschichten infolge CO2 erwärmt werden. Ihr Kommentar?

Thomas Stocker, Uni Bern (1. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –15°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Auch diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-15°C“ sind falsch, denn die mittlere Temperatur an der Erdoberfläche wurde mit „-18°C“ behauptet und von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat satte 3 Grad (Differenz -15°C zu -18°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ endlich ernst nehmen soll. Zum wiederholten Male stellen wir fest, dass Thomas Stocker seine eigene Wissenschaft nicht korrekt und nicht-logisch-konsistent erklären kann. Das ist z.B. so ein Widerspruch, von denen ich oben bei meinen Antworten bereits gesprochen hatte. Über diesen und weitere Widersprüche in den Behauptungen von Thomas Stocker haben wir auch bereits ein eigenes Video gemacht.

Am 30.08.2018, 8:32 erhielten wir von Simon Christen (SRF) die folgende Nachricht:

Stocker hat soeben seine Antwort […] korrigiert. Es müsse nicht -15 Grad, sondern -18,3 Grad heissen.
Er habe sich hier selbst falsch zitiert:
http://climatehomes.unibe.ch/~stocker/papers/stocker18icm.pdf …

Damit sieht die (2.) Antwort dann von Thomas Stocker zu dieser Frage zwangsläufig wie folgt aus:

Thomas Stocker, Uni Bern (2. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –18,3°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-18,3°C“ (Stocker vorher: „-15°C“) sind nach offizieller Lehrmeinung, die sogar auch in Schulbüchern nachzulesen ist, auch falsch. Denn bezeichnend ist, dass Stocker für die „-18,3°C“ keine andere Quelle angibt, ausser seine eigene Publikation. Denn die mittlere Temperatur an der Erdoberfläche „ohne Atmosphäre“ wurde mit genau „-18°C“ behauptet und explizit von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat also 0,3 Grad (Differenz: -18°C zu -18,3°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ mit jeder wichtigen Nachkommenstellen-Änderung endlich ernst nehmen soll. Man muss wissen: Thomas Stocker bindet die „-18,3°C“ in seinen Publikationen in einen vollständigen Zusammenhang wie folgt ein:

„Wäre die Erde ein perfekter schwarzerKörper, also e =1, so würde die Temperatur –18.3°C betragen. Die ca. +33°C sind dem natürlichen Treibhauseffekt der Erde zuzuschreiben, der hauptsächlich durch Wasserdampf verursacht wird.“

Da aber jedes Kind weiss, dass die Erde bekanntlich kein „perfekter schwarzer Körper“ ist, ist zwingend anzunehmen, dass die Klima(forscher)forscher sich bei dieser Argumentation ein „Möchte-Gern-Konstrukt“ gebastelt haben. Aber wenn man dieses „Konstrukt“ mal trotzdem als korrekt voraussetzt, ist zu beachten, dass der globale Absoluttemperaturwert aus dem natürlichen Treibhauseffekt (kurz: THE) – nach Stocker – bei 14,7°C (-18,3°C + 33°C = 14,7°C) liegen würde, was gleichwohl bedeutet, dass sich die Erdmitteltemperatur in den letzten über 150 Jahren nur um 0,1°C (wenn überhaupt) über ein gefährliches Mass hinaus erhöht hat, da die WMO in Genf für die Jahre 2016 und 2017 eine absolute Globaltemperatur von rund 14,8°C [2016: 14,83°C und 2017: 14,76°C] vermeldet hatte. Stocker bestätigt also mit seiner heutigen Antwort, dass die Menschheit mit dem angeblich mensch-verstärkten Treibhauseffekt eine gefährliche globale Erderwärmung seit über 150 Jahren, d.h. seit Beginn der Industrialisierung, lediglich bei höchstens 0,1°C liegt (14,8°C [WMO] – 14,7°C [THE lt. Stocker]) und eben nicht bei 0,8°C bis 1°C, was aber Klima(folgen)forscher laufend in den (TV-)Medien behaupten. Wenn der natürliche Treibhauseffekt (THE) aber bei 15°C (anstatt: 14,7°C lt. Stocker) definiert wird, wie es einschlägige und offizielle wissenschaftliche Publikationen bis heute ausweisen, gibt es sogar per definitionem seit über 150 Jahren überhaupt keine gefährliche Erderwärmung. (siehe dazu auch: #7)

Video nicht mehr verfügbar

 

 

Paul Bossert, www.klimamanifest.ch
Thomas Stocker weicht in Sachen wissenschaftlicher Beweisführung aus, mit dem Hinweis auf die angebliche Treibhausgas-Hypothese. Thomas Stocker muss den wissenschaftlichen experimentellen Beweis erbringen, dass das CO2 die erdnahen Luftschichten erwärmt. So will es die wissenschaftliche Terminologie der Physik.

 

 

#4
Zudem sagen diese Kreise, die Infrarot-Rückstrahlungstheorie sei nicht möglich, weil damit der zweite Hauptsatz der Thermodynamik verletzt werde. Werde auf dieser Theorie beharrt, wäre ein Perpetuum-Mobile zweiter Ordnung möglich, was aber bekanntermassen niemals funktionieren werde. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Der natürliche Treibhauseffekt, verursacht durch die Infrarot-Rückstrahlung durch die Treibhausgase in der Atmosphäre (vor allem H2O und CO2), zeigt deutlich, dass der Treibhauseffekt, sowohl der natürliche menschgemachte, sehr wohl im Einklang mit der Thermodynamik ist. Dieselbe Physik gilt für den zusätzlichen Treibhauseffekt, der durch die Erhöhung der Treibhausgaskonzentrationen zustande kommt.

Die Infrarot-Rückstrahlung wird weltweit gemessen und zeigt, in Übereinstimmung mit dem durch menschliche Aktivitäten verstärkten Treibhauseffekt, einen deutlichen Anstieg seit Messbeginn.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist mit seiner Antwort definitiv nicht in der Lage, den Vorwurf der Verletzung des zweiten Hauptsatzes der Themodynamik bei der Hypothese vom Treibhauseffekt zu entkräften.

Dabei lässt sich bereits bei den wissenschaftlichen Erklärungen zu „Der natürliche Treibhauseffekt“ von Bakan/Raschke aus dem Jahr 2002, auf die auch ein Stefan Rahmstorf häufig verweist, und die auch ein Mojib Latif in seinen Büchern zum Klimawandel nachweislich verwendet, dokumentieren, dass der angebliche Treibhauseffekt auf einer Iteration, d.h. auf einen wissenschaftlich unstatthaften Zirkelschluss basiert. Der angebliche Treibhauseffekt wird nur mit sich selbst begründet und wird bis heute nicht – nach den sonst üblichen wissenschaftlichen Standards – erklärt. Beispiel: So findet sich z.B. auch in Publikationen von Thomas Stocker die bekannte globale Energiebilanzgrafik mit einer angeblichen Bodenabstrahlung von 396 W/m² [390 W/m²], die gleichbedeutend ist mit einer Bodentemperatur von 16°C [15°C] nach dem Stefan-Boltzmann-Gesetz. Diese „16°C“ [15°C] können aber alleine schon durch das Stefan-Boltzmann-Gesetz begründet (denn die „-18°C“ wurden mit der gleichen Logik begründet) und hergeleitet werden, trotzdem behauptet die Klima(folgen)forschung, diese „16°C“ [15°C] seien die Ursache für einen angeblichen „Treibhauseffekt“. In diesem Sachverhalt steckt die wissenschaftlich-unstatthafte Iteration und (mindestens) ein logischer Widerspruch, auf den der angebliche Treibhauseffekt basiert.

Paul Bossert, www.klimamanifest.ch
Thomas Stocker glaubt an eine Infrarot Rückstrahlung, obwohl es auf der Welt noch keinen einzigen Thermo-Scanner gibt, der diese so genannte atmosphärische Gegenstrahlung messen kann. Die von den „Klimaforschern“ verwendeten Pyranometer und Pyrgeometer (z.B. von Kipp & Zonen) sind für eine Rückstrahlungsmessung nicht geeignet. Dass eine nichtmessbare Rückstrahlung die Erde erwärmen soll, kann Thomas Stocker wissenschaftlich nicht beweisen. Gemäss IPCC beträgt diese Rückstrahlung 342 W/m2. Das ist mehr als die gesamte Sonnenstrahlung von 340 W/m2. Wäre diese Strahlung vorhanden, könnte weltweit auf Heizungen verzichtet werden. Dass die Wärmeabstrahlung der Erde [398 W/m²] um 58 W/m2 grösser als die Sonneneinstrahlung [340 W/m²] sein soll, ist ebenfalls nicht nachvollziehbar.

aus: 5. IPCC-Bericht 2013 (deutsche Übersetzungen von P. Bossert)

#5
Die Erderwärmung wird in einer Verlaufkurve der «globalen Mitteltemperatur» ausgedrückt. Was ist das genau?

Thomas Stocker, Uni Bern:
Das ist eine mathematische Grösse, die aus Millionen von Thermometermessungen berechnet wird.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verschleiert mit seiner Antwort, dass die „Millionen von Thermometermessungen“ trotzdem nur in Wahrheit auf wenigen Tausend Messstationen weltweit basieren, die in Wahrheit nicht in der Lage sind, eine „globale Mitteltemperatur“ in notwendiger Weise objektiv und glaubwürdig abzubilden. So gibt es zum Beispiel grosse Gebiete auf den Weltmeeren und in der Antarktis, wo überhaupt keine Messstationen vorhanden sind.


#6

In den Jahren 1988 bis 1995, also in den Anfangsjahren des Weltklimarates IPCC, wurde nach mehreren übereinstimmenden Quellen die absolute globale Mitteltemperatur zwischen 15,4 °C bis 15,5 °C ausgewiesen. Seit dem wissenschaftlichen 4. IPCC-Bericht 2007, für den auch Sie mitverantwortlich waren, verläuft aber die globale Absoluttemperatur einer globalen Erderwärmung nur noch zwischen einem absoluten Temperaturfenster von 13,67 °C (für das Jahr 1850) und bis zu 14,8°C (laut WMO in Genf für das Jahr 2017). Wurde es in den letzten 30 Jahren also kälter?

Thomas Stocker, Uni Bern:
Die Wissenschaft steht nicht still, das heisst, dass auch diese Zahlen ständig hinterfragt und kritisch beurteilt werden. Wenn in einem nachfolgenden IPCC Bericht Zahlen korrigiert werden, erfolgt dies erst nach einem langwierigen Begutachtungsverfahren, eingehender Debatte und genauer Nachprüfung, bis schliesslich ein Konsens gefunden wird. Das bedeutet, dass die erwähnten Zahlen von einem früheren Bericht nicht mit denjenigen eines nachfolgenden Berichts verrechnet werden können.

Rainer Hoffmann, www.klimamanifest.ch
Die Antwort von Thomas Stocker ist ausweichend und verfälschend, denn Thomas Stocker ignoriert, dass in den ersten Jahren seit der Gründung des IPCC eine ganz bestimmte, auch damals noch logisch-nachvollziehbare Begründung für eine gefährliche Erderwärmung der Weltöffentlichkeit vorgelegt worden ist, die auch heute noch nachweislich in Schulbüchern nachzulesen ist. Es behauptet auch niemand, dass die erwähnten Zahlen von einem früheren IPCC mit denjenigen eines nachfolgenden Berichts – so Stocker wörtlich – „verrechnet“ worden sein sollen. Es ist vielmehr durch Recherchen in den IPCC-Berichten 1 bis 5 erkennbar, dass im 5. IPCC-Bericht die ursprünglichen Temperaturgrundlagen für den „greenhouse-effect“ (Treibhauseffekt) und „Globaler Absoluttemperatur“ still und heimlich entfernt worden sind, obwohl diese Informationen im 4. IPCC-Bericht noch vorhanden waren. Seit dem 5. IPCC-Bericht sind die argumentativen Grundlagen, mit denen vor über 30 Jahren eine gefährliche Erderwärmung begründet worden ist, entfernt worden. Es wurde nicht „verrechnet“, sondern es wurden wichtige Informationen im 5. IPCC-Bericht „beseitigt“, womöglich deshalb, weil die heutigen Widersprüche zu der damaligen Argumentation einer angeblich gefährlichen Erderwärmung, mittlerweile offensichtlich geworden sind.

 


#7

In den Anfangsjahren des IPCC wurde der Wert aus dem «natürlichen Treibhauseffekt» durch die verantwortlichen Klimaforscher mit einer globalen Absoluttemperatur von 15 Grad begründet. Ein Wert, der auch heute noch in zahlreichen klima-wissenschaftlichen Publikationen und auch in aktuellen, deutsch-sprachigen Schulbüchern zu finden ist, um die Gefährlichkeit einer Erderwärmung zu erklären und zu begründen. Nach dem Ende der „Kleinen Eiszeit“ im Jahr 1850 ist aber die globale Absoluttemperatur nur von 13,76 °C (1850) bis auf 14,8 °C (2017) angestiegen. Der Wert eines Treibhauseffekts von „+ 15 °C + X“ wurde also seit 1850 bis heute nicht überschritten. Inwiefern kann also überhaupt von einer „gefährlichen, mensch-verstärkten Erderwärmung“ gesprochen werden?

Thomas Stocker, Uni Bern:
Diese Behauptung entbehrt jeder Grundlage (siehe vorherige Antwort). Schulbücher sind nicht geeignet, um eine wissenschaftliche Debatte zu führen. Mit „gefährlicher Erderwärmung“ ist nicht die bisher erfolgte Erwärmung von 1°C seit dem Jahr 1900 gemeint, sondern die mögliche weitere Erwärmung von 4.5°C in den kommenden 80 Jahren, falls die CO2 Emissionen nicht schnell sinken.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verleugnet mit seiner Antwort seine eigene Wissenschaft. Denn in Schulbüchern steht nachweislich die gleiche wissenschaftliche Argumentation, mit denen bereits vor über 30 Jahren die Klima(folgen)forschung eine gefährliche Erderwärmung begründet hatte, siehe z.B. die Seiten 27 bis 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 der wissenschaftlichen Enquete-Kommission, zu denen u.a. auch ein Hartmut Graßl und ein Paul Crutzen gehört haben. Es lässt sich durch weitere, unzählige Publikationen in diversen Archiven nachweisen, dass die Klima(folgen)forschung in den Jahren 1988 bis 1995, also insbesondere in den Anfängen des IPCC, eine gefährliche, mensch-verstärkte Erderwärmung („gefährlicher Klimawandel“) bei einer globalen Absoluttemperatur von oberhalb von 15°C definiert hatte:

aus: Seite 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 (Blaue Pfeile, Kreis und blaue Temperaturwerte nachträglich zur Verdeutlichung ergänzt)


Es ist deshalb auch historisch nachvollziehbar, dass diese Argumentation auch heute noch in Schulbüchern zu finden ist. Kein geringer als Stefan Rahmstorf vom PIK in Potsdam hat im Februar 2018 unsere Recherchen als korrekte Prämissen bestätigt. Denn es steht defacto auch im Schellnhuber/Rahmstorf-Buch „DER KLIMAWANDEL“, dass auf Basis der ursprünglichen und historischen Definition für eine gefährliche Erderwärmung seit über 150 Jahren keine gefährliche Erderwärmung existiert.

#8
Das «2-Grad-Ziel» ist in aller Munde. Bei welchem globalen Absoluttemperaturwert wird der Anfang der „2-Grad-Ziel-Leitplanke“ definiert?

Thomas Stocker, Uni Bern:
Die Absoluttemperatur ist in dieser Diskussion nicht relevant, sondern die Änderung bezüglich der vorindustriellen Temperatur.

Rainer Hoffmann, www.klimamanifest.ch
Da Thomas Stocker oben in einer Antwort bestätigt hat, dass „Millionen von Thermometermessungen“ relevant sind, um eine globale Mitteltemperatur zu errechnen, wird Thomas Stocker nicht abstreiten können, Temperaturwerte in absolut-gemessener Form auch die Grundlage für ein „2-Grad-Ziel“ darstellen müssen. Thomas Stocker wird bestätigen müssen: Temperaturveränderungen sind definitiv nur durch den Vergleich mindestens zweier Absoluttemperaturwerte errechenbar. Soweit Thomas Stocker in seiner Antwort die „vorindustrielle Temperatur“ erwähnt, müsste Stocker zuerst einmal korrekt den Zeitpunkt (= Jahreszahl) für eine „vorindustrielle Temperatur“ bestimmen und mitteilen. Noch im November 2017 definierte der bekannte Wissenschaftsjournalist Harald Lesch auf der Webseite des ZDF diesen Zeitpunkt auf das Jahr 1994. Kein Witz:

In der NZZ konnte man am 03.02.2017 lesen, dass amerikanische Wissenschaftler sich dafür ausgesprochen hätten, dass der Beginn der Industrialisierung ab dem Jahr 1750 zu definieren sei. Ja, was denn nu?

Wir haben auf unserer Klimamanifest-Webseite bisher sage-und-schreibe 27. (!) verschiedene Varianten eines „2-Grad-Zieles“ recherchiert. Deshalb: Es wäre endlich mal an der Zeit, dass die Klima(folgen)forschung- und eben auch ein Thomas Stocker – der Weltöffentlichkeit mitteilt, welches „2-Grad-Ziel“ denn das richtige, das korrekte ist. Auch Thomas Stocker ist mit seiner heutigen Antwort dieser wichtigen Frage erneut ausgewichen.

#9
Wenn der CO2-Ausstoss auf dem aktuellen Niveau weitergeht, wann wird dieser Absoluttemperaturwert des «2-Grad-Zieles» erreicht sein?

Thomas Stocker, Uni Bern
Die 2°C Marke wird um etwa 2040 erreicht sein, falls die CO2 Emissionen auf heutigem Stand bleiben. Sie steigen jedoch immer noch an, also wird +2°C früher erreicht. Um +2°C nicht zu überschreiten, müssen die CO2 Emissionen sehr schnell sinken und um ca. 2050 auf Null gehen, in einigen Szenarien sogar netto negativ werden.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist erneut dem gefragten Absoluttemperaturwert ausgewichen, obwohl deutlich danach gefragt worden ist. Da der deutsche „Klimapapst“ Schellnhuber in der Vergangenheit laufend das globale „2-Grad-Ziel“ mit „2-Grad-Fieber“ beim Menschen verglichen hat, ist es ebenfalls legitim, zu fragen, wo denn vergleichbare Absoluttemperaturwerte bei der Erde liegen, wenn der Absolutwert beim Menschen für zwei Grad Fieber bei 39°C liegt? Das nachfolgende Schaubild verdeutlicht diese elementare Fragestellung:


Zusatz-Info:
Wir beabsichtigen ausserdem erneut ein Aufklärungs-Video über den Auftritt von Thomas Stocker in der SRF-„Schawinski“-Sendung am 27.08.2018 und über die zwei „Unschärfen“ in der REPORTER-Sendung vom 02.09.2018 in Kürze zu erstellen.

Übernommen von www.klimamanifest.ch

 




Prof. Dr. Karl Ewert: Baugrundunter­suchungen für Windener­gieanlagen (11. IKEK)

Für die vielen tausend Tonnen schweren Windenergieanlagen sind Baugrundanlagenuntersuchungen vorgeschrieben. Je nach bekanntem oder nicht so bekanntem Untergrund sind sie aufwendiger oder weniger aufwendig. Die Errichter bevorzugen natürlich die weniger aufwendigen, denn sie gehen schneller und sie sind viel billiger.
Und zwar genügt dann oft die geoelektrische Widerstandsbestimmung zwischen zwei Orten im Boden um zu einer glaubhaften Aussage über dessen Festigkeit zu kommen. Diese bringen aber besonders in schwierigen Böden falsche Ergebnisse.
Die konventionelle Bohrung hingegen fordert die Einbringung von Kernbohrungen, deren Ergebnisse nach festen Regeln sorgsam ausgewertet werden müssen. Der Preisunterschied zwischen beiden Verfahren liegt beim Faktor 1:1000. Deswegen werden sie oft unterlassen.
Doch gerade das Paderborner Land zeichnet sich durch eine Vielfalt von Untergrundstrukturen aus, die durch die Karstlandschaft aus welchem es in weiten Bereichen besteht, gekennzeichnet ist.

Video des Vortrages anlässlich der 11. IKEK am 10.11.17 in Düsseldorf
Diese besteht aus sowohl aus weiten, örtlich überraschend auftretenden Höhlengebieten, hervorgerufen durch unterirdische Quellen, die über verkarsteten Kalkstein (wasserlöslich) verbunden sind.
Die Untersuchung zeigt, dass ein verkarsteter Baugrund erst nach gründlicher Untersuchung und evtl. entsprechenden Maßnahmen zur Abstützung als Baugrund für diese Windkraftanlagen hergerichtet werden muss. Diese Untersuchung wurde anfangs beim hier vorgestellten Projekt im Gebiet Hassel unterlassen. Die Windkraftanlage wurde trotzdem gebaut.
Auf Grund dieser Befunde sind viele WKA im Paderborner Land eine direkte Bedrohung der Anrainer und Verkehrsteilnehmer der umliegenden Verkehrsadern




Prof. Dr. Henryk Svensmark: Der Einfluss kosmischer Strahlung auf das Klima Teil II (11. IKEK)

Prof. Svensmark beschreibt hier den Prozess wie der solare Wind, über die Modulation der kosmischen Höhenstrahlung Einfluss auf die Wolkenbildung nimmt. Obwohl dieser Prozess im Großen und Ganzen schon seit längerem, dank Henryk Svensmarks, Nir Shavivs und Jan Veizers Forschung in der Diskussion ist, waren die Details wie er im einzelnen ablaufen könne, nicht bekannt.


Insbesondere hatte die Fachwelt lange Jahre starke Zweifel an dieser Theorie, weil sie der herrschenden Lehre vom Einfluss des CO2 widersprach, obwohl jede neue Versuchsanordnung in Kopenhagen und beim CERN sie bestätigte, weil von der Gruppe um Svensmark nicht klar gezeigt werden konnte, wie die atomaren Teilchen der kosmischen Höhenstrahlung auf die Größe anwachsen (verklumpen) können, um als Nuklei für die Wasseranlagerung als Voraussetzung der Wolkenbildung wirken zu können. Das war der „missing link“ der verhinderte, dass diese brillante Theorie such weltweit durchsetzte.
Dieser „missing link“ wurde nun von Svensmark und seinem Team gefunden.
Der Verstärkungsmechanismus von ca. 1 Million fach über Ionisierung macht aus den kleinsten Partikeln der kosmischen Höhenstrahlung mit nachprüfbarer Wahrscheinlichkeit große Nuklei (Kerne) die als Basis der Wassertropfenanlagerung als Beginn der Wolkenbildung dienen.
Damit ist nach langer Forschung klar bewiesen, dass der solare Sonnenwind über die Modulation der kosmischen Höhenstrahlung die Wolkenbildung steuert. Deren Wirkung auf das Klima ist um Größenordnungen stärker, als die nur vermutete Wirkung des CO2.

Video des Vortrags von Prof. Dr. Nir Shaviv anlässlich der 11. IKEK am 10.11.17 in Düsseldorf Details dazu hier




Günter Ederer: Fakten statt Propaganda – zur Machtfrage durch Klimapropaganda (11.IKEK)

G. Ederer beschreibt seine Erfahrungen bezüglich des Umgangs von Politik und Medien mit kritischen Stimmen, welche gegen die Weltuntergangspropaganda vom gefährlichen menschengemachten Klimawandel vorgehen. Das Motiv für dieses stringente Ausgrenzen kritischer Stimmen ist – wie Ederer darlegt- das Ausüben von Macht. Und das weltweit!

Video des Vortrags von Günter Ederer, gehalten anlässlich der 11. IKEK in Düsseldorf am 10.11.17 im Nikko-Hotel

Macht die überdies überall und damit grenzenlos ist. An vielen Beispielen, wie dem FAZ Journalisten Müller-Jung, macht er diese Beobachtung fest. Ebenso legt er an div. Beispielen dar, welche Sogwirkung der versprochene Milliardensegen auf die Zustimmung der so Beschenkten hat. Wie auch schon zuvor von M. Limburg gezeigt, wird dieses Geld ausnahmslos an korrupte oder hoch korrupte Länder bzw. deren Regierungen verteilt.




Prof. Dr. Nir Shaviv: Der Einfluss kosmischer Strahlung auf das Klima – Teil 1 (IKEK-11) 323 Aufrufe

Teil I: Prof. Dr. Nir Shaviv Racah Institute of Physics, The Hebrew University of Jerusalem (hier Teil I)

Video des Vortrags von Prof. Dr. Nir Shaviv anlässlich der 11. IKEK in Düsseldorf
Prof. Dr. Shaviv erklärt, weshalb die Hauptargumente der sogenannten „Klimaalarmisten“ entweder falsch oder irrelevant sind und erläutert weitere Probleme mit Szenarien dieser Klimaalarmisten. Er erklärt den Zusammenhang von Sonne und Klima und wie diese Auswirkungen auf vergangene Klimawandel hatte und auf zukünftige haben wird. Im 2. Teil geht Prof. Dr. Henrik Svensmark auf die Auswirkungen der atmosphärischen Ionisation auf das Wachstum von Wolkenkondensationskerne ein.