1

Ein Wissenschaftler, der fälschlicherweise von sich behauptet, ein Nobelpreisträger zu sein, verurteilt ein Museum, wegen Verbindung zu einer Klimaskeptikerin

Gemeint ist Dr. Michael Mann (Hockey-Stick), Professor der Penn State University, der gegen Rebekah Mercer opponiert, eine reiche konservative Spenderin, die im Kuratorium des American Museum of Natural History sitzt.

[Eike berichtete über die Petition von Dr. Willi Soon, zum selben Vorgang bei diesem Museum]

„Ein Naturkundemuseum muss korrekt sein, gewissenhaft die Tatsachen zeigen und das Vertrauen der Öffentlichkeit besitzen“, schrieb Mann am Montag in einem Leitartikel für The News York Times. [Das Aufmacherbild der NYT zeigt Klimaaktivisten vor dem Museum gegen Frau Mercer protestieren] Er drängte das Museum, sich von Mercer, einer Unterstützerin von Präsident Donald Trump, zu distanzieren.

Mann wurde immer wieder erwischt, dass er fälschlicherweise behauptet, er hätte 2007 den Nobelpreis gemeinsam mit dem IPCC und dem ehemaligen Vizepräsidenten Al Gore erhalten.

Der Preis wurde Al Gore für seine „Bemühungen verliehen, größeres Wissen über die vom Menschen verursachte Klimaveränderungen aufzubauen und zu verbreiten und die Grundlagen für Maßnahmen zu schaffen, die notwendig sind, um einem solchen Wandel entgegenzuwirken“, so das Gremium.

Mann behauptete in seiner Klage im Jahr 2012, gegen den konservativen Experten Mark Steyn und National Review, dass er ein Nobelpreisträger wäre – aber das Nobel-Komitee hat diese Behauptung konsequent zurückgewiesen. Mann fuhr fort, das Museum und Mercer herunterzumachen, weil sie sich nicht an die Wahrheit und wissenschaftliche Standards halten würden.

„Viele Wissenschaftler zögerten jahrelang sich zur Wahrheit zu äußern, aus Angst vor persönlichen Angriffen oder der Bedrohung ihrer professionellen Glaubwürdigkeit“ sagte der Mann, der wegen seines gefälschten „Hockeyschläger“ – Graphen Berühmtheit erlangte – Gore verwendete dann die Grafiken des Akademikers in seinem Dokumentarfilm “Inconvenient Truth“ um den gewünschten Temperaturanstieg zu zeigen.

Mann und eine Handvoll Wissenschaftler nutzten einen Super-PAC, um ihre Kollegen dazu zu bringen, sich während der Präsidentschaftswahlen gegen Trump zu stellen, weil der Präsident bereit war, „Verschwörungstheorien, antiwissenschaftliche Einstellungen und Missachtung von Experten“ anzunehmen.

[de.Wiki: Ein Political Action Committee (PAC) ist in den USA die Bezeichnung für eine Lobbygruppe, die sich darauf konzentriert, Abgeordnete oder Wahlbeamte der Regierung zu unterstützen oder zu bekämpfen.]

Die Gruppe „Nicht wer – Wir sind PAC“ war während der Wahl nicht so stark vertreten, verglichen mit den Zigmillionen, die von anderen Super-PACs ausgegeben wurden. Die Gruppe hat vergleichsweise geringe 23.000 US-Dollar für Anzeigen ausgegeben, die nach Aufzeichnungen der staatlichen Wahlaufsicht alle gegen Trump gerichtet waren.

Mann wies die Idee zurück, dass seine Offensive gegen Mercer eine politische Aktion wäre. Später schlug er vor, das Museum solle die Spenden der Mercer-Familie nutzen, um Ausstellungen und Programme zu entwickeln, die die Schande der Klimaverleugnungsmaschinerie aufklären, ihre Propaganda Pro-Klima-Aktionen zu behindern und zu dokumentieren, wie wir zu der aktuellen Krise des Planeten gekommen sind.“

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/06/michael-mann-rebekah-mercer-climate-skeptic-nobel-prize/




Globale Erwärmung: Wer sind jetzt die Leugner?

Eine neue, im Journal Nature Geoscience veröffentlichte Studie gibt vor, Maßnahmen der globalen Regierungen zur Reduktion des CO2-Ausstoßes zu stützen, um das Potential für globale Erwärmung während der nächsten 100 Jahre oder so abzumildern. Aber was die Studie in Wirklichkeit tut ist, praktisch jedes aktuelle Argument für radikale Maßnahmen gegen die Erwärmung zu untergraben.

Warum? In der Studie wird eingeräumt, dass 12 führende Universitäten und Modelle der Regierung, auf welche sich die Prophezeiungen der Klimaerwärmung stützen, fehlerhaft sind.

„Es gab einfach nicht die beschleunigte Erwärmung nach dem Jahr 2000, die in den Modellen zu sehen war“, sagt Myles Allen, Professor für Geowissenschaften bei Oxford und einer der Autoren der Studie. „Aus den Beobachtungen geht das einfach nicht hervor“.

Und natürlich hat er recht. Wie wir hier schon oft geschrieben haben, scheint der so gefürchtete Trend der „globalen Erwärmung“ irgendwann um das Jahr 1998 zum Stehen gekommen zu sein. Wir wissen, dass das so ist, weil die Temperaturmessungen via Satelliten zeigen, dass es seitdem praktisch keine Änderung mehr gegeben hat. Und Satellitenmessungen sind die genauesten Messungen der gesamten Atmosphäre und nicht nur aus Teilen davon.

Den UN-Modellen zufolge hätte die Temperatur um das Jahr 1995 stark zu steigen beginnen sollen. Bis zu diesem Jahr sollten wir demnach einen Temperaturanstieg von fast 1°C erreicht haben, was in geologischen Zeiträumen gedacht ein extrem kurzer Zeitraum wäre. Es waren jene Modelle, aufgrund derer der Welt das Narrativ übergestülpt wurde, dass sich unsere globalen ökonomischen Prioritäten schleunigst ändern müssen.

Die Wirklichkeit: Praktisch keine Änderung der Temperatur. Schlicht und ergreifend: die Modelle sind falsch!

Und doch fahren die Befürworter des Dogmas der globalen Erwärmung ungebremst damit fort, die Karrieren wissenschaftlich Abtrünniger zu ruinieren und Beleidigungen zu verbreiten wie etwa die Skeptiker als „Leugner“ zu bezeichnen – womit all jene, die mit der Wissenschaft der globalen Erwärmung nicht übereinstimmen, mit „Leugnern“ des Holocausts gleichgestellt werden sollen – während sie selbst nur allzu offensichtliche Fakten über „Klimawandel“ leugnen.

Wie wir schon im Mai geschrieben hatten, hatte der Sunday Telegraph in UK berichtet, dass die Temperaturen Anfang dieses Jahres stark zurückgegangen waren, nachdem zuvor 2016 das „heißeste Jahr jemals“ aufgetreten war. Wie kann das sein? 2016 war ein El Nino-Jahr, die immer besonders warm ausfallen.

„Während der letzten Monate sind die globalen Temperaturen um über 0,6°C gefallen: genau wie es vor 17 Jahren nach einem ähnlich starken El Nino der Fall war“. Nicht nur das, denn trotz der doom-and-gloom-Prophezeiungen durch bezahlte „Wissenschafts“-Prognostiker ist das Eis sowohl in der Arktis als auch in Grönland in diesem Jahr gewachsen [teilweise rekordverdächtig, wie man hier erkennen kann {deutschsprachig!}. Anm. d. Übers.].

Die jüngsten Revisionen von Klimadaten gingen allesamt nur in eine Richtung: Ältere Daten wurden zu kühleren Temperaturen hinab korrigiert, während Temperaturen aus jüngerer Zeit nach oben korrigiert worden sind. In einer ordentlichen Statistik würde Rauschen nicht durchweg nur in eine Richtung zeigen.

Aus all dem folgt: es sieht verdächtig danach aus, als ob Wissenschafts-Statistiker, welche große, fette Schecks von Regierungen erhalten, jedes nur denkbare Interesse daran haben, den Gedanken einer unvermeidlichen und katastrophalen Erwärmung weiter zu verbreiten, oder, wenn man so will, Geschäftsbücher zu fälschen.

Link: https://www.thegwpf.com/global-warming-who-are-the-deniers-now/

Übersetzt von Chris Frey EIKE




EXKLUSIV: Forscher behauptet, Beweise dafür zu haben, dass eines der erfolgreichsten EPA-Gesetze bzgl. sauberer Luft auf der Grundlage künstlich fabrizierter Daten beruht

Der Toxikologe Albert Donnay sagt, er habe Beweise zusammengetragen dafür, dass eine im Jahre 1989 von der EPA in Auftrag gegebene Studie über die Auswirkungen von Kohlenmonoxid auf die Gesundheit auf falschen Daten beruht. Falls das stimmt, wären 25 Jahre des Erlasses von Vorschriften und Milliarden Dollar für Auto-Katalysatoren in Frage gestellt.

„Sie behaupteten, eine Auswirkung gefunden zu haben, obwohl es gar keine gab“, sagte Donnay. „Sie haben sogar die Verfahren fabriziert, mit denen sie zu ihren Ergebnissen gekommen sind. Sie haben sich all das erdacht, um der EPA das zu geben, was sie haben wollte und in Auftrag gegeben hat. Die dargestellten Ergebnisse können nicht von Menschen stammen“.

Weniger Hervorhebung der Ausrüstung. Weniger Stress für Sie. Siehe die Nebenleistungen für variable frequency drives [?]

Die EPA stufte die Studie als „primär zu berücksichtigen“ ein. Zusammengestellt wurde sie vom Health Effects Institute (HEI), um eine Vorgängerstudie aus dem Jahr 1981 zu ersetzen, welche auf fabrizierten Daten beruhte. Im Jahre 2011 hat die EPA das getan, was sie seit 1971 getan hat, nämlich den Standard von 9 ppm gemessen während eines 8-stündigen Zeitraumes und 35 ppm während 1 Stunde unverändert gelassen.

Und warum auch nicht? Die EPA war über die Jahre sehr erfolgreich bei der Reduktion von Kohlenmonoxid, was es an die zweite Stelle der am meisten reduzierten Verschmutzer stellte. Dies geht aus Daten der Agentur hervor. „Kohlenmonoxid ist ein farb- und geruchloses Gas, das bei Verbrennungsprozessen freigesetzt wird“. Bei einem extrem hohen Niveau kann es ernste Gesundheitsprobleme und sogar Todesfälle mit sich bringen. Bei Unfällen mit einer Kohlenmonoxid-Vergiftung kommen pro Jahr 400 bis 500 Menschen ums Leben, wie Daten der Regierung zeigen.

Hier folgt ein Poster der Forschung, welches Donnay auf dem Treffen der Gesellschaft für Toxikologie 2015 gezeigt hat:

 

Nach Albert Donnay

[Der Link zu dem Poster steht unten {research poster}. Wenn man in dem PDF auf vergrößern klickt, kann man alles deutlich lesen. Anm. d. Übers.]

Dr. Aronow

Aber Donnay sagte, dass seinen Forschungen zufolge die HEI-Studie voller „wissenschaftlichem Betrug“ steckt, welcher von der EPA und dem HEI näher untersucht werden sollte. „Falls man jemanden beauftragt, einen Betrug zu replizieren, muss man betrügen, um das zu tun“, sagte Donnay bei der Diskussion der Ergebnisse seiner Re-Analyse.

Im Jahre 1983 erkannte die EPA, dass ihr Kohlenmonoxid-Standard „auf fragwürdigen, vielleicht gefälschten Forschungen“ beruhte, durchgeführt von Dr. Wilbert Aronow in den siebziger Jahren. Die New York Times berichtete seinerzeit darüber. Die Federal Drug Administration FDA fand heraus, dass Nachweise der Wirkung von Medikamenten bei Patienten am Veterans Affairs Hospital bei Los Angeles gefälscht worden waren.

Die Agentur handelte rasch und ersetzte Aronows betrügerische Daten und finanzierte eine massive human exposure study mit dem HEI – eine Forschungsgruppe, ins Leben gerufen von der EPA und der Autoindustrie.

Das HEI stellte eine Studie zusammen, um die Auswirkungen von Kohlenmonoxid auf Männer mit Kranzgefäß-Krankheiten zu untersuchen und um festzustellen, wie lange es dauert, bis sie Angina bekamen, nachdem sie dem Gas ausgesetzt waren. Das HEI heuerte drei Teams von verschiedenen Universitäten an, um bei der Forschung zu helfen.

Die HEI-Studie wurde im Jahre 1989 veröffentlicht und kostete 2,5 Millionen Dollar. Auch das New England Journal of Medicine veröffentlichte die Studie 1989, das Medizinjournal Environmental Health Perspectives veröffentlichte sie zwei Jahre später.

Environmental Health Perspectives lehnte es ab, Donnays Anfrage weiter zu bearbeiten. Weder das HEI noch das New England Journal of Medicine antworteten auf die Nachfrage der Daily Caller News Foundation DCNF.

Die HEI-Forscher fanden wenig überraschend, dass „niedrige Niveaus von Kohlenmonoxid Angina-Erkrankungen bei Personen mit Kranzgefäß-Krankheiten verschlimmerten“.

Die EPA rühmte die HEI-Studie und stützte sich darauf, als sie 1994 ihren Kohlenmonoxid-Standard bekannt gab. Die Agentur räumte der HEI-Studie „primäre Berücksichtigung“ ein bei ihrer Überarbeitung der Vorschriften bzgl. Kohlenmonoxid im Jahre 2011.

Donnay trat einer juristischen Klage seitens Umweltaktivisten bei, um die Entscheidung der EPA bzgl. Kohlenmonoxid anzufechten. Die Gerichte urteilten gegen die Aktivisten, so dass sich Donnay im Jahre 2014 entschloss, die Eckpunkte-Studie nachzuvollziehen, auf die sich die EPA während all der Jahre stützte. „Ich brannte darauf, jene Vorschrift anzufechten!“, sagte er.

Extensive Beweise für Daten-Fabrikation

Zunächst benötigte Donnay die Rohdaten der HEI-Forscher, welche sie für ihre Studie herangezogen hatten, aber diese zu bekommen erwies sich als schwieriger als erwartet. HEI-Präsident Daniel Greenbaum sagte Donnay, dass man die Rohdaten für die HEI-Studie 2008 „gelöscht“ habe, weil weder die EPA noch irgendein anderer Forscher deren Ergebnisse in Frage gestellt hatten.

Also trug er die Rohdaten von den drei Journalen zusammen, welche die HEI-Studie veröffentlicht hatten, und stützte sich außerdem auf einige Rohdaten, welche im Jahresbericht 1985 des HEI vorgestellt worden waren.

Im Jahre 2014 hatte Donnay seine Re-Analyse schließlich fertig und konnte sie veröffentlichen. Er fand „extensive Beweise für Daten-Fabrikation und Datenfälschung“, schrieb er im Entwurf eines Abstracts, welchen er seinen Beratern an der University of Maryland vorstellte. „Der offensichtlichste Beweis absichtlichen wissenschaftlichen Betrugs in der HEI-Studie war, dass Allred et al. zwei verschiedene Zusammenfassungen der Ergebnisse in ihrem HEI-Report erstellten und eine dritte Version in ihrem Artikel im New England Journal of Medicine, welcher in der gleichen Woche erschienen war“, erklärte Donnay. „In keiner dieser Versionen erklären sie, wie sie zu den unterschiedlichen Ergebnissen gekommen waren oder räumten diesen Tatbestand auch nur ein. Betrachtet man das, was sie zu bringen und nicht zu bringen gewählt haben, ergibt sich zwangsläufig, dass sie etwas verbergen“, sagte er.

Donnays Berater an der University of Maryland jedoch sagten ihm, dass er seine Verbindung mit der Universität nicht erwähnen dürfe, falls er seine Ergebnisse veröffentlichen würde. Der für Forschungsintegrität zuständige Beamte an der Schule sagte ihm sogar, dass seine Arbeit „UMB gefährde“. Dies geht aus E-Mails hervor, welche der DCNF vorliegen.

„Es gab viel Widerstand gegen die Tatsache, dass dies alles Betrug sein könnte“, sagte Donnay. „Ich erkannte, dass es schwierig werden würde, diese Ergebnisse zu veröffentlichen“.

Aber Donnay ließ nicht locker und sandte im Mai 2014 einen Brief an alle drei akademischen Journale, welche die Allred-Studie veröffentlicht hatten, und forderte sie auf, diese Studie zurückzuziehen. Donnay informierte auch das Büro für Forschungsintegrität der EPA und den Generalinspekteur.

Alle drei Journale lehnten seine Forderung ab. Der Generalinspekteur der EPA war der Ansicht, dass die Vorwürfe Donnays nicht ein kriminelles Niveau erreichten, und die für wissenschaftliche Integrität zuständige EPA-Beamtin Francesca Grifo lehnte es ab, Donnays Arbeit überhaupt anzusehen, war doch die HEI-Studie vor dem Jahr 2012 geschrieben worden – bevor die Polizei der wissenschaftlichen Integrität bei der EPA ins Leben gerufen worden war.

„Angesichts der außerordentlichen Sorgfalt, mit der die Studie durchgeführt und unabhängig begutachtet worden war, haben sie empfohlen, und dem stimmen wir zu, dass es keinen Grund gibt, diese Studie zurückzuziehen“, schrieb der HEI-Vorsitzende Richard Celeste als Antwort an Donnay.

Aber Donnay blieb bei seinen Ergebnissen und trachtete nach Input von Roger McClellan, dem ehemaligen Vorsitzenden des EPA-Wissenschaftskomitees, welches sich auf das HEI stützte, um den Kohlenmonoxid-Standard im Jahre 1992 festzulegen. McClellan war auch im HEI-Übersichtskomitee für die Kohlenmonoxid-Studie tätig.

McClellan sagte Donnay, dass die HEI-Studie zwar „Auswüchse und Fehler“ enthalte, dass aber die „Kern-Ergebnisse der Studie weiterhin fundiert sind. Das einzige ernste Ergebnis ihrerseits, von denen Sie berichteten und welches für mich enttäuschend war, ist meine Erfahrung, dass die Original-Aufzeichnungen der Studie vom HEI im Jahre 2008 gelöscht wurden“.

Donnay präsentierte seine Forschungen in Gestalt eines Posters auf dem Treffen der Society for Toxicology im Jahre 2015 und erntete dafür ein paar „oberflächliche Reaktionen“, aber „niemand war willens, meine Ergebnisse anzusprechen“.

McClellan hat auf die Forderung nach einer Stellungnahme seitens der DCNF nicht geantwortet.

Die Links zu Donnays Beweisen sind diese: [alle drei als PDF]

Research Poster

Roger McClellan’s Letter — Feb 23, 2015

Summary Of Responses To Donnay’s Work

Link: https://wattsupwiththat.com/2017/08/08/exclusive-researcher-claims-to-have-evidence-one-of-epas-most-successful-clean-air-rules-is-based-on-fabricated-data/

Übersetzt von Chris Frey EIKE




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.

Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc

Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/

Übersetzt von Chris Frey EIKE




Climategate 13: Temperaturdatenreihen zwischen Fiktion und Wirklichkeit

Die Abbildung 1 zeigt die anhand vieler Millionen Satellitendaten ermittelte Temperaturkurve von 1979 – 2009 und zwar die Abweichung vom langfristigen Mittel (Nulllinie). Sie wird in Zusammenarbeit der University of Alabama Huntsville (UAH) und der NASA generiert.

Die Abbildung zeigt eine sehr leichte Erwärmung ab 1988 bis 2003 von ca. 0,3°C. Seitdem fällt die Langfristkurve der Temperatur und diese nähert sich wieder der Nulllinie des Langfristmittels. Zusätzlich sind zwei Ereignisse eingezeichnet, die den Trend einmal in die negative Richtung und einmal in die positive Richtung beeinflussen. Dies ist zum einen der Ausbruch des Vulkans Pinatubo auf den Philippinen in 1991, der durch seinen gewaltigen Ausstoß, der letztendlich das Sonnenlicht absorbierte, weltweit die Temperaturen für den Zeitraum von 2 Jahren um ca. 0,6°C fallen lies. In 1999 führte der starke El-Niño zu einem kurzfristigen Temperaturanstieg von ca. 0,7°C. Beides geht auf natürliche Ursachen zurück und hat nichts mit einem menschengemachten CO2-Ausstoß zu tun. Betrachten wir nun die berüchtigte Jones-Temperaturkurve (Abbildung 2), wie sie noch 2007 im 4. IPCC-Bericht um die Welt ging und in Politik und Medien entsprechenden Anklang fand, so ist plötzlich ein Temperaturanstieg zu verzeichnen, der durch Satellitenmessungen nicht bestätigt wird.

 

Abbildung 2

Die Abbildung 2 zeigt die globale Temperaturentwicklung von Jones 2007 (HadCrut3) für den Zeitraum von 1850 – 2007, welche durch Climategate als Fälschung offengelegt wurde. Deutlich ist hier ein Temperaturanstieg seit den 1970-Jahen zu sehen, der in den Satellitendaten nicht vorkommt. Dass gleiche Bild bei den Daten, für die Prof. Hansen (GISS, Abbildung 3, die drei blauen Balken stellen Standardabweichungen, als mathematische Fehlermöglichkeiten dar) verantwortlich ist. Aus beiden Datenreihen stellt das IPCC seine Prognosen zusammen und kommt zu dem Schluss, die Erde würde sich durch Menschenhand drastisch erwärmen.

 

Abbildung 3

Sowohl Jones (HADCrut3), als auch Hansen (GISS) verwenden für die Ermittlung ihrer Temperaturreihen Daten von bodengestützten Messstationen. Seit langem ist bekannt, dass diese unzulänglich, weil stark fehlerbehaftet sind. Zu diesen Fehlern zählen beispielsweise:

·       Wärmeinseleffekt

·       Mangelnde Datendichte (über weite Flächen gibt es keine Messstationen, die Daten werden nur geschätzt

·       Unterschiedliche geographische Höhe der vielen Messstationen. Pro 100m Höhe nimmt die Temperatur um etwa 0,65°C ab, wodurch die Messdaten korrigiert werden müssen, sollen die Daten miteinander vermischt werden.

·       Falsche Aufstellung der Messstationen

·       Änderung der Messerfassungszeiten

·       Software-/Algorithmusfehler, also Auswerte- und Berechnungsfehler u.v.m.

Ich möchte Ihnen die o.g. Punkte kurz erläutern.

Wärmeinseleffekt bedeutet, dass durch zunehmende Besiedlung, Industrialisierung und technische Entwicklungen, ortsgebundene Messstationen heute im Vergleich zu früher zu hohe Temperaturen messen und daher die Daten korrigiert werden müssen. Die Abbildung 4 zeigt, wie die Bevölkerungsdichte bodenbasierte Temperaturdaten beeinflusst.

Abbildung 4

Die Abbildung 4 zeigt den Wärmeinseleffekt nach Goodridge 1996. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht vorrangig durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, sondern durch den Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt. Jedem ist bekannt, dass es z.B. im Winter in Städten wärmer ist als auf dem Land.Datendichte

Die Abbildung 5 zeigt die Messstationen des globalen Temperaturnetzwerks und die bisherige Betriebsdauer. Es ist deutlich erkennbar, dass in weiten Bereichen, insbesondere den Ozeanen, die Erfassungsdichte weit unterdurchschnittlich ist. Da die Ozeane etwa 70% der Erdoberfläche aufweisen, ergibt dies eine starke Schräglage der statistischen Messwerteerfassung und Auswertung.

Abbildung 5

Mangelnde Aufstellung der Messstationen

Im Gegensatz zu Deutschland, gibt es in den USA Audits (Überprüfungen) von unabhängiger Seite, inwieweit die dortigen Messstationen, den Ansprüchen genügen. Sozusagen ein Tüv. Bei der letzten durchgeführten Überprüfung in 2009 wurde festgestellt, dass 61% aller Temperaturmessstationen nicht geeignet für Temperaturreihen sind (Abbildung 6).

 

Abbildung 6

Das folgende Beispiel gibt die Antwort, warum dem so ist.

 

Abbildung 7

Die Abbildung 7 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Erfassungszeiten

Zu Beginn 2001 wurde weltweit der Standard der Temperaturerfassungszeiten geändert. Bis zu diesem Zeitpunkt hatte jedes Land eine eigene Datenerhebung, so dass die Daten aus wissenschaftlicher Sicht gar nicht miteinander vermengt werden dürfen. So wurde in Deutschland dreimal am Tag gemessen (7,30 Uhr, 14,30 Uhr und 21,30 Uhr, letzter Wert wurde doppelt gewertet, um sich den 4. Wert in der Nacht zu sparen) in Frankreich zweimal am Tag (Min- und Maxtemperaturwert) gemessen und daraus der Tagesmittelwert bestimmt. Ab April 2001 wird nun stündlich gemessen, wobei Ausnahmen (alle 6 Stunden) zulässig sind. Wegen der starken Asymmetrie des Tagesganges der Temperatur ergeben beide Erfassungsmethoden (vor April 2001 und danach) andere Temperaturtagesmittelwerte. Durch die neue Methode wird der Tagestemperaturmittelwert nach oben verändert.

 

Abbildung 8

Die Abbildung 8 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute, ab der grünen Linie) wird achtmal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben (die Anhebung der Min/Max-Werte ist durch die farbigen Querbalken markiert). Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

Die meteorologischen Institute (auch der DWD) verhelfen durch diesen Trick in der Temperaturdatenerfassung der globalen Temperaturkurve zu einem Anstieg, während gleichzeitig die Satellitenmessungen einen tatsächlichen Rückgang der Temperaturen zeigen. Verstehen Sie mich bitte nicht falsch, es ist nichts dagegen einzuwenden, dass in der Meteorologie ein, dem technischen Standard entsprechendes optimiertes Datenerhebungssystem eingeführt wurde. Es ist nur befremdend, dass dies in den Temperaturreihen nicht vermerkt wird, da durch das neue Verfahren der Vergleich der Datenreihen vor und nach 2001 nicht mehr möglich ist. Wegen der starken Asymmetrie des Tagegangs der Temperaturen werden die berühmten Äpfel mit Birnen verglichen.

Im Zusammenhang mit Climatgate wurde viel darüber berichtet, dass Mails gelöscht wurden, Rohdaten der Temperaturen beim CRU verschwunden sind, ebenfalls gelöscht wurden, etc. Auch der Beleg (Abbildung 8), dass durch zusätzliche Erfassungszeiten, die Temperaturdaten künstlich nach oben verschoben werden, wurde, nachdem der Verfasser dies in 2008 in einer Diskussion Herrn Prof. Dr. Rahmstorf auf KlimaLounge vorhielt, aus dem Netz genommen. Der Beleg war unter der Internetseite „Bremen und Umland im Bild“ (http://home.arcor.de/meino/klimanews/index.html) zu finden. Da der Verfasser von der Seite eine free-pdf. besitze, können Sie sich in der Anlage von der Richtigkeit überzeugen.

Algorithmusfehler

Besonders das GISS fiel in den letzten Jahren durch eine Reihe eklatanter Fehler auf. So mussten beispielsweise Monatsdaten nachträglich korrigiert werden, weil Daten von Vormonaten in die Bewertung einflossen. Als Folge wurden Oktoberwerte ausgewiesen, die alle bisherigen Rekorddaten brachen, weil Septemberdaten verwendet wurden, u.v.m.

Gezielte Manipulationen

Wie die Welt dank des Glimategate-Skandals erfahren hat, haben Jones und Hansen ihre Datenreihen durch einen “Trick“ angepasst. Wie dies geht, zeigt die Abbildung 9.

 

Abbildung 9

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Temperaturkurve der letzten 2.000 Jahre (blaue Kurve). Es ist ersichtlich, dass  ab ca. 1960 die Daten nicht mit den gemessenen Temperaturdaten übereinstimmen. Die blaue Kurve zeigt einen Temperaturrückgang, während die Bodenmessungen einen Anstieg ausweisen (vortäuschen). Jones hat offensichtlich die Datenreihe ab ca. 1960 abgeschnitten und durch die gemessenen Werte ersetzt, wodurch ein steiler Temperaturanstieg zu sehen ist, der, wie bereits erwähnt, in den Sattelitenmessungen, die im Gegensatz zu den Bodenmessungen nicht punktuell, sondern in der gesamten Oberfläche und kontinuierlich messen, nicht erkennbar ist. Es handelt sich also um eine bewusste Fälschung und Täuschung der Adressaten aus Politik und Medien.

Werden dann weitere, man muss schon von Fälschungen der Daten ausgehen, Korrekturen der Temperaturen der ersten Hälfte des 20. Jahrhunderts vorgenommen, dann erscheint die berüchtigte Jones-Kurve (Abbildung 2), die Politik und Medien manipulierte. Ich möchte Ihnen als Beweis einen Ausdruck aus 1978, Quelle National Geographic vorstellen, auf dem um 1940 eine starke Warmperiode, mit Temperaturen von über 0,5°C über dem Langfristmittel abgebildet ist, die bei Jones und Hansen heute nicht mehr zu sehen ist.

 

Abbildung 10

In der Abbildung 10 von Jones (oben) beträgt der Temperaturhub zwischen 1940 und 1970 nicht mehr 0,5°C, wie noch in der Abbildung der National Geographic von 1978 zu sehen, sondern er wurde auf wundersame Weise auf 0,1°C herunter manipuliert. Es gibt kein anderes Wort, als Manipulation oder Betrug von Temperaturdaten dafür. Oder sollte Jones von seiner Arbeit so überfordert sein, dass ihm ein solch katastrophaler Fehler unterlaufen ist. Dann wären er und mit ihm das IPCC, als kompetente Vertreter ihres Standes nicht mehr haltbar und Politik und Medien sollten sich schleunigst nach geeigneteren Personen umsehen. Auf der 2. Klimakonferenz in Berlin am 04. Dez. 2009 war z.B. eine Vielzahl von ihnen vertreten.

Werden von unabhängiger Seite die Temperaturrohdaten ausgewertet, so ist auch heute der starke Temperaturanstieg in der ersten Hälfte des 20. Jahrhunderts zu sehen, Abbildung 11.

Abbildung 11

Die Abbildung 11 zeigt die Temperaturdaten von 1870 – 2002, Quelle: (http://wattsupwiththat.com/2009/11/29/when-results-go-bad/#more-13373). Klar erkennbar, dass in der ersten Hälfte des 20. Jahrhunderts die Temperaturen höher lagen, als zum Ende des 20. Jahrhunderts, obwohl CRU, GISS und IPCC der Welt anderes weismachen wollen (Abbildung 2 und 3). Die Abbildung deckt sich mit den US-Temperaturwerten – das wärmste Jahr im 20. Jahrhundert ist 1934. Von den 10 wärmsten Jahren liegen 6 vor 1940! Auch bei den US-Temperaturdaten hatte das GISS zuerst falsche Daten geliefert, die zu dessen wohl gefälschter Temperaturkurve passen. Das GISS musste die TOP-Temperaturjahre korrigieren, als der bekannte Meteorologe Steve McIntyre ihm Fehler in der Datenauswertung nachwies.

Weitere Datenfälschungen, z.B. über arktische Temperaturen sind hier zu entnehmen: http://bobtisdale.blogspot.com/2008/07/polar-amplification-and-arctic-warming.html

oder Manipulationen bei Ländermessungen:

http://landshape.org/enm/australian-temperature-adjustments/

Anhand des Climategate-Skandals und der großen Unterschiede (Abbildung 13) zwischen den satellitenbasierten Temperaturreihe und den Daten der GISS und Jones (CRU) ist festzuhalten, dass die offiziellen Datengeber des IPCC, die Daten einer Kurspflege unterzogen haben, die das Konstrukt eines anthropogenen Klimawandels beweisen sollten. Ihre Daten halten einer wissenschaftlichen Überprüfung nicht stand, wie bereits die Hockey-Stick-Kurve von Prof. Mann, die ebenfalls (vor 3 Jahren) als Fälschung entlarvt wurde. Eine wissenschaftliche Überprüfung der HadCrut-Daten wird sich allerdings schwierig gestalten, weil ganze Rohdatensätze und Tabellen aus unerklärlichen Gründen verschwunden sind.

 

Abbildung 12

Die Abbildung 12 (Quelle: http://wattsupwiththat.com/2009/12/20/darwin-zero-before-and-after/#more-14358) zeigt die Temperaturdatenreihe der nordaustralischen Messstation „Darwin Zero“. Die Rohdaten zeigen einen gänzlich anderen Temperaturverlauf, wie die „bereinigten“ Werte (GHCN: Global Historical Climatology Network). Während diese Temperaturwerte einen gewaltigen Temperaturanstieg signalisieren, zeigt der Trend bei den Rohdaten eine leicht fallende Temperaturentwicklung.

Es muss davon ausgegangen werden, dass die Affäre um die gefälschten CRU-Daten nur die Spitze des Eisbergs darstellt und in den nächsten Wochen mit weiteren Enthüllungen zu rechnen ist, wie am Beispiel von Dr. Ben Santer, Klimaforscher und Leit-Autor des IPPC, Mitarbeiter am IPCC SAR Bericht von 1995, zeigt, der am 19.12.2009 in der Jesse Ventura Talkshow zugab, die Teile aus dem Kapitel 8 des Berichtes gelöscht zu haben, die ausdrücklich einen vom Menschen verursachten Klimawandel verneinen (http://www.eike-klima-energie.eu/news-anzeige/climategate-update-ipcc-leit-autor-ben-santer-gibt-faelschung-zu/).

Werden die satellitenbasierten Messungen (insbesondere deren Verlauf), mit den CRU-Daten verglichen, wird der Manipulationsverdacht sichtbar (Abbildung 13).

 

Abbildung 13

Während die aus Millionen Satellitendaten der NASA ermittelte globale Temperaturreihe nur einen sehr schwachen Temperaturanstieg ab 1988 zeigt, der seit 2003 wieder rückläufig ist und fällt, zeigen die Daten von Jones (und der GISS, siehe Abbildung 3) einen rasanten Temperaturanstieg im gleichen Zeitraum (grün hinterlegter Bereich).

Anhand der Satellitendaten, die seit 1979 vorliegen, ist festzuhalten, dass es bis Ende der 1980-Jahre keine Temperaturerhöhung gab, bis zur Jahrtausendwende ein leichter Anstieg von ca. 0,3 °C zu verzeichnen ist, der natürlichen Ursprungs ist, sich in die historischen Temperaturwerte einfügt und seit Beginn dieses Jahrtausends, aufgrund nachlassender Sonnenaktivität (EIKE berichtete mehrmals über die Zusammenhänge), die Temperaturen deutlich fallen, wie die Abbildung 14 zeigt.

 

Abbildung 14

Die Abbildung 14 zeigt die vier Temperatur-Szenarien (B1, A1B, A2, Commitment) aus dem IPCC-Bericht 2007, die aus den IPCC-Klimamodellen ermittelt wurden. Das Szenario “Commitment“, welches die niedrigste Temperaturentwicklung angibt, geht dabei von einer gleich bleibenden CO2-Konzentration wie im Jahr 2000 aus! Bei den drei anderen Szenarien steigt indes die CO2-Konzentration weiter an, wie dies z.B. die Mauna Loa-Daten wiedergeben, Quelle: ergänzt nach Spektrum der Wissenschaft 02/09, “Kalt erwischt“, S. 21 – 22. Die roten Punkte geben die tatsächliche Temperaturentwicklung bis 2008 wieder (schwarze Punkte, sind die gemessenen Temperaturwerte bis 2005). Seit 2005 fallen die Temperaturen deutlich. Die grün, blau und violett schraffierten Bereiche zeigen die Szenarien der früheren IPCC-Vorhersagen (FAR = First Assessment Report, 1990; SAR = Second Assessment Report, 1995; TAR = Third Assessment Report, 2001).

Für unsere Berliner Politiker zum Abschluss noch eine Datenreihe der dort gemessenen Temperaturen von 1730 – 2000, Quelle: (http://www.wetterzentrale.de/klima/tberlintem.html). Unnötig festzuhalten, dass es keinen Grund für irgendwelche Panik oder gar einer Klimasteuer oder Ähnlichem gibt. Auch in Berlin fallen die Temperaturen seit Jahren wieder, wie in der Abbildung 16 ersichtlich.

 

Abbildung 15

Die Abbildung 15 zeigt die Datenreihe der Temperaturen von Berlin im Zeitraum von 1730 – 2000. Deutlich zu sehen, dass es in der Vergangenheit teils deutlich höhere Temperaturen über längere Zeitintervalle gab als heute.

Die Abbildung 16 zeigt die Temperaturen in Berlin seit Dezember 2005 bis Dez. 2009. Auch in Berlin, wie überall auf der Welt, gehen die Temperaturen deutlich zurück. Die Max-Werte um einige °C.

 

Abbildung 16

Die Abbildung 16 zeigt den Temperaturgang in Berlin-Tempelhof von Dez. 2005 – Dez. 2009. Sowohl Min als Max-Temperaturwerte zeigen eine eindeutig fallende Tendenz, obwohl der CO2-Pegel in den vergangenen 4 Jahren deutlich angestiegen sein soll.

Es ist an der Zeit, dass unsere Politiker die Realitäten erkennen und nicht weiter unseligen Propheten der Klimakatastrophe verfallen, so wie dies noch jüngst von unserem Umweltminister Herrn Röttgen verlautbar wurde, der das Scheitern der Klimakonferenz von Kopenhagen, insbesondere den USA anlastete. Herr Röttgen sollte besser einmal in Erwägung ziehen, ob sich die dortigen Verantwortungsträger nicht längst den Realitäten stellten und vor allem, diese Realitäten auch berücksichtigen, während an manchen Stellen in Berlin anscheinend noch mittelalterliche Inquisition das Wort geredet wird.

Raimund Leistenschneider-EIKE

Die Dokumentation finden Sie auch als pdf Datei im Anhang

Related Files