1

12. IKEK am 23. und 24.11.18 Nir Shaviv – Der Einfluss kosmischer Strahlung auf das Klima

Außerdem ist er einer der profiliertesten Kritiker der aktuellen Klimavorhersagen aus dem Umfeld des Weltklimarates (IPCC). Kurz nach seinem Vortrag auf der IKEK-12 war er als Sachverständiger im Bundestagsausschuss in Berlin zu Gast. Er bezeichnet das Hauptargument des IPCC, dass das irdische Klima höchst empfindlich auf CO2-Emissionen reagiere, als irrational und falsch. Die Wissenschaft sei keine Demokratie; wenn also 97% der Klimatologen weltweit behaupteten, dass uns eine Katastrophe bevorstehe, müsse das nicht automatisch korrekt sein.

Video des Vortrages von Prof. Nir Shaviv anlässlich der 12. IKEK im Nov. 2018 in München

Als typisches Beispiel für die Irrationalität der Argumentation führte er die berühmten Fotos von Eisbären auf ihrer schwimmenden Eisscholle an. Der Weltklimarat behaupte, dass die Erwärmung des Planeten hoch wie nie zuvor sei und daher anthropogen sein müsse. Daß das Unsinn sei, zeige schon die Affäre „Climate gate“ im Jahre 2008, als durch ein internes Leck die Kommunikation von Klimaforschern bekannt wurde, die zeigte, dass führende Wissenschaftler um die Unvereinbarkeit ihrer Klimatheorien mit Messdaten wußten und sich überlegten, wie man dies verbergen könne. Shaviv erinnerte in diesem Zusammenhang, dass der IPCC noch 1990 ein völlig anderes Bild zur Klimaentwicklung präsentierte als heute. Damals wurden die mittelalterliche Warmphase, die frühneuzeitliche „Kleine Eiszeit“ und die moderate Aufwärmung seit 1850 noch streng wissenschaftlich benannt. 2001 plötzlich, der Professor erwähnt hier den Begriff „Orwell“, sehe die Klimakurve des IPCC aus wie ein liegender Hockeyschläger, dessen fast rechtwinklig nach oben abstehende Schlagfläche für die angeblich industriell hervorgerufene Erhitzung stehe. Nir Shaviv hingegen verwies darauf, dass das Klima hingegen seit Urzeiten hauptsächlich von der Aktivität des elfjährigen Zyklus der Erdsonne, der mit dem Auftreten von Sonnenflecken und der Umpolung des Magnetfeldes einhergehe, bestimmt werde. Als Effektor wirkt hier der sogenannte Sonnenwind. Zusätzlich seien astronomische Einflüsse wie kosmische Strahlung und die pulsierende Heliosphäre zu beachten. Im Folgenden benannte der Professor mehrere Probleme des alarmistischen Klimabildes, das in den Massenmedien verbreitet wird. Problem Nummer eins: Der Weltklimarat gebe das Ausmaß der Erwärmung viel zu hoch an. Da wir seit etwa 1850 in einer moderaten Warmphase leben, stiegen die Temperaturen tatsächlich leicht; aber längst nicht so stark wie vom IPCC vorhergesagt. Problem Nummer zwei: Die Klimamodelle des IPCC sagten eine gleichmäßige Erwärmung der Luftsäule bis 15 km Höhe voraus. Tatsächlich würde sich nur die Temperatur der bodennahen Luftschichten erhöhen. Problem Nummer drei: Die IPCC-Klimamodelle reagierten viel zu empfindlich auf Veränderungen. Zum Beispiel sei die Reaktion auf Vulkanaktivität viel zu groß. Problem Nummer vier: Die IPCC-Klimamodelle könnten ihre Empfindlichkeit nicht genau angeben, zum Beispiel in Bezug auf Wolkenbildung. Verdoppele sich der CO2-Eintrag in die Atmosphäre, steige die mittlere Temperatur um 1,5 bis 5°C. Problem Nummer fünf: Es gebe gar keinen historischen Beweis für einen Anstieg der Temperatur infolge Anstieg der CO2-Konzentration der Atmosphäre („Fingerabdruck“). Es könne, zum Beispiel in den von Ex-US-Vizepräsident Al Gore präsentierten Klimadaten, auch genau andersherum sein. Damit zusammenhängend, Problem Nummer sechs: Die CO2- und die Temperaturdaten der letzten 500 Millionen Jahre korrelierten gar nicht miteinander. Ein deutlicher Anstieg der CO2-Konzentration in der Atmosphäre trete manchmal gemeinsam mit einer Aufheizung des Klimas auf, manchmal aber auch nicht. Problem Nummer sieben: Der Einfluß der Sonne auf das Erdklima sei eindeutig stärker als der anderer Faktoren. So korrelierten die Anstiege des radioaktiven Kohlenstoff-Isotopes C14 (Anzeiger für Sonnenaktivität) und des radioaktiven Sauerstoff-Isotopes O18 (Klima-Anzeiger) am Beispiel von Stalagmiten in Oman. Das Fazit von Professor Shaviv: Das Klimageschehen sei äußerst komplex und nicht nur auf CO2-Eintrag zurückzuführen. Wir Menschen mit unserer Industrie hätten nur wenig Einfluß; die Hauptklimafaktoren seien Vulkane, kosmische Strahlung und zyklische astronomische Phänomene. Zusammengenommen könnten diese Hauptfaktoren das Klimageschehen im 20. Jahrhundert zum Beispiel sehr gut erklären.




12. IKEK am 23. und 24.11.18 Nils-Axel Mörner Das Kattegat u.a. als Testgebiete für die Höhe des Meeresspiegels

Video des Vortrags von Prof. Nils-Axel Mörner anlässlich der 12. IKEK am 23. und 24.11.2018 in München

 Der tatsächliche ozeanische Anstieg könne hier in den letzten 125 Jahren moderat mit 0,9 mm pro Jahr angesetzt werden. Die Aufzeichnung der Gezeiten von Stockholm sei die zweitlängste in Europa; die mittlere langfristige Veränderung des Meeresspiegels sei ein Rückgang von 3,8 mm pro Jahr. Das Land selbst steige um 4,9 mm pro Jahr aufgrund des postglazialen Aufstiegs der kontinentalen Landmasse. Die Differenz – 1,1 mm/Jahr – ist die wahre ozeanische Komponente der Ostsee. Neben den europäischen Schauplätzen erforscht Mörner auch den Indischen Ozean und den Pazifik. Er ist gerade aus dem Gebiet der Insel Ouvéa vor Neuschottland zurückgekehrt. Im 17. Jahrhundert war der Meeresspiegel um 70 cm höher, wie unverrückbare geomorphologische Fakten belegten. Damals herrschte in den Alpen die „Kleine Eiszeit“ mit größeren Gletschern (wie Professor Patzelt zeigte). Wie konnte mehr flüssiges Wasser zur gleichen Zeit im Äquatorbereich vorhanden gewesen sein? Das Phänomen beweise somit, dass der Weltklimarat falsch liegt; in warmen Zeiten steigt der Meeresspiegel nicht global an. Der Grund dafür sei die sogenannte Rotations-Eustasie des Planeten: Im Norden steige die Wasservolumen etwas an, am Äquator bleibe es ungefähr gleich. Auch andere Inseln oder Küstenregionen wiesen einen Verlauf des Meeresspiegels auf wie die Insel Ouvéa, so die Fidschi-Inseln, die Malediven und Goa in Indien. Auch hier sanken die Ozeane um 1700, stiegen um 1800 an und sanken nach 1950 wieder. Die Veränderungen des globalen Meeresspiegels folgten den Gezeiten-Superzyklen des Mondes, die wiederum auf die großen Sonnenzyklen zurückzuführen seien. Die Sonne beeinflusst auch den Golfstrom im Nordatlantik, der Wärme nach West- und Nordeuropa bringt. Bei maximaler Sonnenaktivität fließt der Golfstrom in Richtung Nordosten und der Meeresspiegel steigt. Während eines solaren Minimums fließt der Golfstrom von Osten nach Südosten und der Meeresspiegel fällt im Norden ab. Mörner betonte, dass die Sonnenzyklen und die Schwerkraft unserer benachbarten Planeten, der Sonnenwind und der Mond unser Klima und unsere Umwelt bestimmten. Der Kohlendioxid-Treibhauseffekt habe dabei keinen Platz. Mit seinem Vortrag in München wollte der Referent eine Nachricht an die Weltklimakonferenz COP24 in Kattowitz/Polen senden, die kurz nach der EIKE-Konferenz stattfand: „Einige Ihrer Aussagen fallen in den Bereich des anti-wissenschaftlichen Unsinns. Das Polareis schmilzt nicht so schnell und der Meeresspiegel steigt nicht in kurzer Zeit.“ Für das Verfahren zur Bestimmung des Meeresspiegels empfiehlt Mörner, die physikalischen Gesetze und die Beweise in der Natur zu beachten



12. IKEK am 23. und 24.11.18 Helmut Alt – Energiewende zwischen Wunsch und Wirklichkeit

Prof. Dr. Helmut Alt hat eine Berufsausbildung zum Facharbeiter als Elektromechaniker bei der Elektromaschinenfabrik Garbe & Lahmeyer absolviert, an FH und der RWTH Aachen Elektrotechnik und Reaktortechnik studiert und war in der Stromversorgung zuletzt 34 Jahre beim RWE, dort als Ingenieur für Netzplanung der BV Düren und Leiter der Abteilung Verträge und Tarife, tätig. Er ist seit 1972 Lehrbeauftragter und Honorarprofessor an der FH Aachen.

Video des Vortrages von Helmut Alt anlässlich der 12. IKEK am 23. und 24.11.18 in München

 

Zu Beginn seiner Ausführungen beziffert Alt die Kosten der Merkelschen Energiewende auf etwa 25 Milliarden Euro jährlich zu Lasten aller Stromverbraucher. Daher erscheine die Kritik dieser Politik angesichts unserer Probleme, die schärfer würden, sinnvoll. Er pflichtete dem EIKE-Präsidenten Holger Thuss bei, dass es ein Wissensvermittlungs-Problem gäbe.

Der Grund dafür sei ein „Grünes“ Zeitgeistproblem unserer Gesellschaft, das sich seit 1968 zunehmend verschärfe. Der Referent rechnete vor, aus welchen Anteilen sich die Stromkosten zusammensetzen. Es seien die Kosten für die Energieanlagen, den Brennstoff und den Betrieb der Kraftwerke. Erhöhe sich der Strompreis, müssten sich auch die Kosten für die Industrieprodukte erhöhen. Also für Brötchen, Autos, Maschinen, schlicht für alles. Es gebe aber einen weltweiten Wettbewerb der Produktionsstandorte.

Die „grünen“ Produktionsmethoden seien in Deutschland nicht machbar, da unser Land zu wenig Wasserkraft, Sonne und Wind habe. Deutschland habe nicht wie die Schweiz oder Norwegen eine gebirgige Topografie, die z.B. Wasserkraft leicht nutzbar mache. Der Plan, norwegischen Strom einzukaufen, sei nur eine Journalistenidee. Praktisch sähe es so aus, dass die Norweger über die Niederlande tagsüber teuren Strom lieferten; nachts hingegen bezögen sie dann billigen deutschen Braunkohlestrom, mit dem sie ihre Land dann mit Strom versorgen und trotzdem die Wasserspeicher wieder auffüllten. „Elektrischer Strom ist das Blut der Wirtschaft“, meinte Prof. Alt. Je mehr Nutzer an eine Hauptleitung angeschlos- sen seien, desto günstiger würde die klassische Energieerzeugung wegen der Synergieeffekte und günstigen Gleichzeitigkeitsausgleich.

Ein großes Problem der aktuellen Energiewende sei die Stabilität des Stromnetzes in Deutschland. Das Kriterium für die Stabilität sei der sogenannte Frequenzverlauf. Unser Netz arbeite mit 50 Hertz Wechselstrom, wobei Ab- weichungen von 0,05 Hertz tolerabel seien. Durch die Einspeisung von Strom, der aktuell zu 30% durch Sonne und Wind erzeugt werde, gebe es aber mittlerweile zu viele Extreme. Daher seien immer häufiger Regelungs-Ein- griffe durch die Leitstelle erforderlich. Am Muttertag 2016 beispielsweise entstanden rund 92 Millionen Euro an Kosten für die Erhaltung der Netzstabilität durch ans Ausland teuer verschenkten Überschussstrom.

Diese teuren Überschuss-Stromlieferungen kämen aber wesentlich aus erneuerbaren Energien. Die Erfahrung zeige auch, dass Windstille nicht nur Deutschland allein, sondern zum fast denselben Zeitpunkt auch die Nachbarn beträfe. Liefere Deutschland an windreichen Tagen Strom ins Ausland, würden die Betreiber der Anlagen zwar etwa 16 Cent pro kWh erhalten, aber nur Erträge von etwa 5 Cent/kWh bis hin zu negativen Werten erzielten. Ein weiteres Problem der Energiewende sei die Notwendigkeit einer doppelten Infrastruktur. Neben den alten Kraftwerken würde ein neuer Park von Anlagen mit gleicher Leistung errichtet. Die alte Infrastruktur kann aber nicht abgebaut werden, da man sie für den häufigen Fall, dass eine „Dunkelflaute“ herrsche, noch weiter benötige.

Man habe also nun sowohl „Gürtel und Hosenträger“, um die Hose zu halten. Auch die Kosten für den Verbraucher würden immer höher. Nur in Dänemark müssten die Kunden ähnlich viel zah- len wie in Deutschland. Wegen der Energiewende koste eine Kilowattstunde in Deutschland derzeit rund 30 Cent. Darin enthalten seien rund 15 Cent für Steuern und Abgaben. Die EEG-Abgabe sollte laut dem alten grünen Um- weltminister Trittin nur den Gegenwert „von einer Kugel Eis“ im Monat haben. Heute seien es aber 6,8 Cent pro Kilowattstunde, was sich für eine Familie zu rund 330 Euro im Jahr summiere. Dieser Aspekt sei völlig missachtet worden. Übrigens sei nur der Privathaushalt stark mit den EEG-Kosten belastet, die energieintensive Industrie sei aus notwendigen Wettbewerbsgründen weitgehend befreit, so dass sich die Umlage für alle Nichtbefreiten ent- sprechend erhöht. Bezüglich der weltweiten Kohlendioxidproduktion sei die deutsche Energiewende völlig bedeutungslos.

Da unser Land sowieso nur für etwa 2% des CO2-Eintrages verantwortlich sei, sei es völlig gleich, was wir täten und was nicht. Wir retteten dadurch nicht die Welt. Zum Schluss ging der Referent auf die zurzeit stark beworbenen E-Autos ein. Diese könne man in der Masse nur nachts aufladen; für das Laden am Tage benötige man bei größer werdender Zahl der E-Autos weitere erhebliche Investitionen zur Verstärkung der Netze auf allen Spannungsebenen.




12. IKEK am 23. und 24.11.18 Hermann Harde – Wieviel tragen CO2 und die Sonne zur globalen Erwärmung bei?

Die Weltklimarat(IPCC)-Wissenschaftler behaupten eine grundsätzliche Sensibilität unseres Klimas gegenüber den Treibhausgasen. Eine Verdopplung des CO2-Gehaltes der Luft bedeute einen Anstieg der globalen mittleren Temperatur von 1,5 bis 4,5°C, so genau wisse man das auch nicht.

Prof. Dr. Hermann Harde analysiert die Berechnungsverfahren der etablierten Klimatologen und stellt deren Ergebnisse eigenen Resultaten, basierend auf einem erweiterten Zwei-Lagen-Modell, gegenüber.

Dieses Modell beschreibt Erdoberfläche und Atmosphäre als zwei Schichten, die langwellige (lw) oder kurzwellige (kw) Strahlung absorbieren, und selber als Strahler im langwelligen Bereich wirken. Die jeweilige Lage gebe dabei im Gleichgewicht so viel Leistung ab, wie sie aufgenommen habe. Daraus erhalte man ein „gekoppeltes Bilanzgleichungssystem“. Eine „Störung“ von außen, also erhöhte Sonnenaktivität oder Änderung der Konzentration von Treibhausgasen, führe im Modell zu einer Veränderung des Gleichgewichtes und somit zu einer Veränderung der mittleren Temperaturen von Erdoberfläche und Luft.

Video des Vortrages von Prof. Hermann Harde anlässlich der 12. IKEK in München

Hardes Modell berücksichtige dabei auch Streuprozesse (lw, kw) an der Atmosphäre und an der Wolkendecke; außerdem alle üblichen thermisch bedingten Rückkoppelungen wie Änderung der Wasserdampf-Konzentration, Albedo oder thermische Wolken-Rückkopplung; zusätzlich Wärmeflüsse durch Konvektion und Evaporation. In seinem Modell rechnete Prof. Harde 14 verschiedene Konzentrationen atmosphärischen Kohlendioxids durch (0-770 parts per million, ppm). In seinen Simulationen konnte er die Ergebnisse der IPCC-Klimamodelle nur zum geringen Teil reproduzieren. Besonders die negativen (also kühlenden) Rückkoppelungseffekte wie Verdampfung verminderten die mittlere Temperatur im Modell erheblich und wirkten somit klimastabilisierend. Erstaunlicherweise erwähne der Weltklimarat im aktuellen Sachstandsbericht (AR5) diese negativen Rückkoppelungen gar nicht. Prof. Harde favorisiert die Klima-Theorie der Solaraktivität.

Die Tätigkeit der Erdsonne habe sich zwischen 1950 und 2000 erhöht, was sich auf die Temperatur der Atmosphäre verstärkend auswirke; ähnlich wie der vom IPCC behauptete CO2-abhängige Treibhauseffekt. Auch die Sonnenstrahlen seien mit der Wolkenbildung negativ rückgekoppelt. Erhöhe sich also die solare Aktivität, vermindere sich die Wolkendecke. Der Referent schloß mit dem Fazit, dass 65% der mittleren Temperaturerhöhung in 100 Jahren auf die Sonnenaktivität zurückgehen (0,48°C), aber nur 35% auf das in der Luft vorhandene Kohlenstoffdioxid (0,26°C); in der Summe 0,74°C.




12. IKEK am 23. und 24.11.2018 – Nils Axel Mörner – Das Kattegat u.a. als Testgebiete für die Höhe des Meeresspiegels

Die Aufzeichnung der Gezeiten von Stockholm ist die zweitlängste in Europa; die mittlere langfristige Veränderung des Meeresspiegels ist ein Rückgang von 3,8 mm pro Jahr. Das Land selbst steiget um 4,9 mm pro Jahr aufgrund des postglazialen Aufstiegs der kontinentalen Landmasse. Die Differenz – 1,1 mm/Jahr – ist die wahre ozeanische Komponente der Ostsee.

Neben den europäischen Schauplätzen erforscht Mörner auch den Indischen Ozean und den Pazifik. Er ist gerade aus dem Gebiet der Insel Ouvéa vor Neuschottland zurückgekehrt. Im 17. Jahrhundert war der Meeresspiegel um 70 cm höher, wie unverrückbare geomorphologische Fakten belegten. Damals herrschte in den Alpen die „Kleine Eiszeit“ mit größeren Gletschern (wie Professor Patzelt zeigte). Wie konnte mehr flüssiges Wasser zur gleichen Zeit im Äquatorbereich vorhanden gewesen sein?

Video des Vortrages von Prof. em. Axel Mörner anlässlich der 12. IKEK in München

Das Phänomen beweise somit, dass der Weltklimarat falsch liegt; in warmen Zeiten steigt der Meeresspiegel nicht global an. Der Grund dafür sei die sogenannte Rotations-Eustasie des Planeten: Im Norden steige die Wasservolumen etwas an, am Äquator bleibe es ungefähr gleich.
Auch andere Inseln oder Küstenregionen wiesen einen Verlauf des Meeresspiegels auf wie die Insel Ouvéa, so die Fidschi-Inseln, die Malediven und Goa in Indien. Auch hier sanken die Ozeane um 1700, stiegen um 1800 an und sanken nach 1950 wieder.

Die Veränderungen des globalen Meeresspiegels folgten den Gezeiten-Superzyklen des Mondes, die wiederum auf die großen Sonnenzyklen zurückzuführen seien. Die Sonne beeinflusst auch den Golfstrom im Nordatlantik, der Wärme nach West- und Nordeuropa bringt. Bei maximaler Sonnenaktivität fließt der Golfstrom in Richtung Nordosten und der Meeresspiegel steigt. Während eines solaren Minimums fließt der Golfstrom von Osten nach Südosten und der Meeresspiegel fällt im Norden ab.

Mörner betonte, dass die Sonnenzyklen und die Schwerkraft unserer benachbarten Planeten, der Sonnenwind und der Mond unser Klima und unsere Umwelt bestimmten. Der Kohlendioxid-Treibhauseffekt habe dabei keinen Platz.

Mit seinem Vortrag in München wollte der Referent eine Nachricht an die Weltklimakonferenz COP24 in Kattowitz/Polen senden, die kurz nach der EIKE-Konferenz stattfand

Sie lautet: „Einige Ihrer Aussagen fallen in den Bereich des anti-wissenschaftlichen Unsinns. Das Polareis schmilzt nicht so schnell und der Meeresspiegel steigt nicht in kurzer Zeit.“
Für das Verfahren zur Bestimmung des Meeresspiegels empfiehlt Mörner, die physikalischen Gesetze und die Beweise in der Natur zu beachten




Impressionen 12. Internationale Klima- und Energiekonferenz am 23. und 24. November 2018 in München.

Dr. Holger Thuss, EIKE Präsident auf der 12. IKEK in München bei seinem Grußwort, Bild EIKE

Die Konferenz war sehr gut besucht und brachte viele neue Erkenntnisse. Ua. auch die, dass CO2 – schon garnicht das anthropogene CO2 – einen erkennbaren Anteil an der jüngsten Erwärmung der Atmosphäre hat. Die Spannbreite der vorsichtigen Schätzungen der vortragenden Wissenschaftlern reichen von max. 40 % (rein geschätzt) bis nicht erkennbar. Die Vorträge werden als Videos Stück für Stück als Einzelvorträge auf der EIKE Website und der Videowebsite veröffentlicht.

Impressionen 12. Internationale Klima- und Energiekonferenz




12. IKEK am 23. und 24.11.2018 – Michael Limburg – Wie glaubwürdig sind Zeitreihen historischer Klimadaten?

Die westliche Welt begann im ausgehenden 19. Jahrhundert, fast nur in den entwickelten Ländern Klima- und Wetterdaten mittels Messstationen aufzuzeichnen, von denen wir heute noch glauben profitieren zu können. Doch auch um 1900 war die Nordhalbkugel der Erde immer noch sehr spärlich mit Messstationen ausgestattet, das änderte sich erst in der zweiten Hälfte des 20. Jh. Erst ab 1960 waren, auf Grund des kalten Krieges die USA, Europa und weite Teile der damaligen Sowjetunion vglw. dicht bestückt.

Video des Vortrages von Michael Limburg anlässlich der 12. IKEK am 23. und 25.11.18

Für die Südhalbkugel galt das jedoch nie, die war und blieb spärlich versorgt, was sowohl der Entwicklung der dort befindlichen Länder, als auch an der geringen Landbedeckung geschuldet ist.

Hinzu kam, dass über den Ozeanen eine genügende Abdeckung, die diesen Namen auch verdient, außerhalb der Hauptschifffahrtsrouten nicht vorhanden war.

Doch selbst wenn die besser wären, sind die verfügbaren historischen Klimadaten viel zu dünn, sowohl in der Flächenabdeckung, als auch in der kontinuierlichen Langzeit-Messdauer, um als Basis für die präzise Berechnung einer globalen Mitteltemperatur dienen zu können.

Und nicht nur das, denn sie sind auch viel zu ungenau, als dass Klimatologen mit ihrer Hilfe eine präzise Bestimmung der globalen Mitteltemperatur durchführen und somit als valide Quellenlage gelten könnten.

Die Klimatologen glauben aber, es sei so, obwohl jeder, der sich mit Messtechnik und Fehlerstatistik auskenne, feststellen muss, dass die Daten dafür nicht taugten. Schuld an diesem Irrglauben ist ein Artikel der Klimawissenschaftler Hansen & Lebedeff von 1988, in dem sie behaupteten, dass die Werte einer Messstation für eine Kreisfläche von 2.400 km Durchmesser als „Normal“ stehen könne.

Als „Beweis“ dafür führten sie lediglich an, dass die Trendverläufe der Teststationen innerhalb dieser Fläche immer noch eine Korrelation von ≥ 0,5 (als „gut“ bezeichnet) aufwiesen. Mittels einfachem direkten Vergleiches von realen Verläufen hätten sie jedoch erkennen müssen, dass auch bei Korrelation von ≥ 0,5 die Zeitreihen der Temperatur viel zu unterschiedlich seien, als dass eine Station im Zentrum als Maß für alle stehen könnte. Beispielsweise fänden sich im Umkreis des Nordpols zwei Messstationen mit je rund 1.000 km Abstand zum Pol, was viel zu weit weg sei, um das Wetter und seine Daten dort genau genug erfassen zu können.

Ein weiterer Fehler ist anzunehmen, das die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n sich von selbst und nur von ihrer Zahl abhängig, in Richtung Null korrigieren, unbekümmert für sämtliche Messwerte angewendet werden darf.

Dem ist jedoch nicht so, weil die Messempfindlichkeit eine Untergrenze darstellt, bis zu der sich zufällige – also gleich verteilte – Messfehler ausgleichen könnten.

Die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n – wobei n die Zahl der Messungen ist – gegen Null tendieren, findet da ihre Untergrenze.

Ein weiterer wichtiger Einflussfaktor auf die Messgenauigkeit ist bspw. das Material des Schutzbehälters, in denen sich der Messfühler befindet, das sogenannte Wetterhäuschen (z.B. Englische Hütte). Allein dadurch entsteht ein systematischer Messfehler von etwa 0,2°C (+/-). Bei einem Wechsel des Wetterhäuschens oder des Messgerätes erhalte man so „sprunghafte systematische Fehler“. Diese schlagen 1:1 auch bei Anomalienbildung mit dem „Stationsnormal“ durch, und gleichen sich nicht – wie weit und breit geglaubt- gegenseitig aus.

In Berlin beispielsweise würden seit 1990 elektronische Fühler eingesetzt, was die örtliche mittlere Temperatur scheinbar um 0,1°C erhöht habe. Korrigiert wurde das bis heute nicht.

Zusammenfassend kann festgestellt werden, dass die systematischen Fehler bei der Erhebung von Klimadaten sehr vielfältig und zum allergrößten Teil nicht mehr zu korrigierbar sind, da die Umstände unter denen sie entstanden, nicht mehr rekonstruierbar sind. Das hat zur Folge, dass jeder ehrliche Versuch, eine globale Mitteltemperatur aus den vorhandenen Daten zu berechnen, mit einen Unsicherheitsband von mindestens vier Grad umgeben sein muss.

Das wiederum ermögliche keinerlei Bestimmung von Änderungen im Bereich von einem Grad, und damit auch keinerlei Bestimmung einer evtl. Ursache. All das verschwinde im Rauschen der Messfehler.

Die einzig gute Nachricht ist, dass oszillierende Einflüsse (periodisches auf und ab) von diesem Problem nicht betroffen sind,  und damit sehr wohl sichtbar seien. Ihre Präsenz erlaubt die Bestimmung ihrer Zykluszeiten, jedoch nur sehr unsicher, bezüglich ihrer Amplituden.

Hinzu kommt, dass Rohdaten der Vergangenheit auf breiter Front offensichtlich gefälscht wurden, mit dem Ziel, die Vergangenheit kühler erscheinen zu lassen, damit die Gegenwart wärmer erschiene. Das folgende Video zeigt einige verblüffende Zusammenhänge.

Video von Tony Heller zu der Manipulation historischer Temperaturdaten