Wahrheit & Basis von wissenschaftlichen Erkenntnissen: Auf der Suche nach Antworten !

In der Geschichte der Menschheit keine Aussage ist so sehr strapaziert wie die Wortprägung „wissenschaftlich korrekt“ oder „wissenschaftlich unangefochten“. Waren es im Altertum die hohen Priester mit ihrem gesammelten Archiv von astronomischen Daten, die das gemeine Volk stets zügelten, so ist es heute nicht viel anders, wenn die Politik die Wissenschaft als Zugpferd für alle Anlässe benutzt, die Bevölkerung zu beschwichtigen.

Was ist die Wahrheit, war die Frage aller Fragen in der Geschichte. Pontius Pilatus wollte mit den drei Wörtern auf seine Unfähigkeit eine Antwort auf diese Frage geben zu können, hindeuten. Quid est veritas? Etwa 100 Jahre nach den Ereignissen von Jerusalem entwickelte Claudius Ptolemäus in Alexandrien das damalige Weltbild, das fast 1500 Jahre Gültigkeit besaß. Dieses Weltbild platzierte die Erde als Mittelpunkt des Weltalls, wo sich alle anderen Himmelskörper auf angesehenen Bahnen um die Erde bewegten. Um die bekannten Beobachtungen in Einklang zu bringen, entwickelte er die Epizyeltheorie, die, gemessen an heutigen Maßstäben, eine sehr hohe Genauigkeit besaß. Johannes Kepler stürzte gegen den Willen der herrschenden Kleriker dieses Weltbild etwa um 1600. Heute weiß man, dass viele Messungen von Ptolemäus fingiert und gefälscht waren und ferner an die Beobachtungen angepasst waren, um seine Theorie zu unterstützen. Somit stürzte nach 1500 Jahren das Lügengebäude und als Folge beschleunigte  sich sogar der gesellschaftlich Erneuerungsprozess, der etwa um 1500 mit dem Renaissance begonnen hatte.

In moderner Zeit, in der die Welt wissenschaftlich technologisch geprägt ist, wurden auch immer wieder Verfälschungen und Lügen entdeckt, jedoch erst nach vielen Jahren, nachdem sie Schaden eingerichtet hatten. Die Spitze des Eisbergs war die Affäre Hendrik Schön in den Jahren 2002/2003. Hendrik Schön, Absolvent von Universität Konstanz, hatte die Daten seiner Arbeiten über „Bahnbrechende Ergebnisse für die Entwicklung von Computer-Chips jenseits der heutigen Silizium-Technologie“ gefälscht. Er veröffentlichte unter dem strengen „Peer Review“ Prozess mehrere seiner Artikel in Science und Nature und galt bereits als Nobelpreis-Kandidat. Schließlich als die Lüge nach Jahren aufflog, wurde er von Bell Laboratories, USA sofort entlassen und erst im Jahre 2009 sein Doktortitel gerichtlich aberkannt.

Im Folgenden wird versucht zu zeigen, wie Fälschungen bewusst oder unwissentlich den Weg auch in den heutigen aktuellen Themen, wie der Klimaforschung Fuß gefasst haben.

Eine kritische Betrachtung der Klimaforschung

Die Klimadiskussion, die in den Medien seit den 80er Jahren geführt und insbesondere seit der Rio Konferenz [1] im Jahre 1992 sehr stark politisiert wird, hat dazu geführt, dass maßgebliche Institutionen den Menschen die Wichtigkeit der globalen Erwärmung zu zeigen, indem sie immer wieder versucht haben, den Klimawandel als eine katastrophale Folge der menschlichen industriell technischen Lebensweise darzustellen.

Zwei Parameter wurden immer wieder in den Nachrichten, aber auch in der gängigen wissenschaftlichen Literatur der Bevölkerung präsentiert, um die Menschheit letztendlich durch eine so genannte Klimaabgabe finanziell in die Verantwortung zu ziehen. Diese beiden Parameter sind die Erhöhung des CO2 in der Atmosphäre, das seit etwa 1958 durch ein neues Verfahren auf einer Höhe von 4000 Metern in Hawaii gemessen wird und die global gemittelte Temperaturerhöhung seit 1880. Die Messwerte von CO2 im Mauna Loa Observatorium in Hawaii [2], die seit 1958 existieren, wurden im Rahmen dieser Aktionen durch die Messwerte, gewonnen aus antarktischen Eisbohrkernen, bis zurück in die 400 000 Jahre Vergangenheit extrapoliert. Wissenschaftliche Arbeiten, die dieses Vorgehen kritisch bewertet haben, wurden dabei [3] nicht in Betracht gezogen. Wenn man jetzt den Parameter globale Temperatur betrachtet, wird auch klar, dass diese Größe rein statistischer Natur ist. Eine Mittelung von verschiedenen Temperaturen  in einem Raum kann man zwar einfach durchführen, aber die Aussagefähigkeit dieser Größe ist sehr problematisch. Dennoch, nimmt man die so gemittelten Temperaturdaten seit 1880, fällt sehr schnell auf, dass die Mess-Stationen in der Vergangenheit sehr spärlich waren und zudem die meisten von denen in der Nordhalbkugel akkumuliert waren. Deshalb sind die älteren Daten sehr mit Vorsicht zu genießen. Nimmt man die aktuell veröffentlichten Daten und trägt man diese in einem Diagramm, wie es in Abb. 1 gemacht wurde, sieht man, dass global gemittelt innerhalb der letzten 100 Jahre rechnerisch eine Temperaturerhöhung von 0.61°C erfolgt ist. Diese Daten basieren auf einer Sammlung der NASA [4] und die willkürlich gewählte Null Linie ist hier die mittlere Temperatur zwischen 1951 und 1980. Die lineare Regressionsanalyse mit einem Regressionskoeffizienten von R2 ~ 65 %, ist sehr niedrig und zeigt, dass man statistisch so eine Datensammlung zwar analysieren kann, jedoch mit der Aussage sehr vorsichtig sein soll. Auf diesem Diagramm sieht man folgenden Trends, die weitaus wichtiger sind. Nach einer leichten Erwärmung von 1880 bis 1938 folgte eine stärkere Abkühlungsperiode, die bis 1970 dauerte. Danach stiegen die Temperaturen bis 1998 global an, und seit 1998 bis heute sieht man eine Periode des Stillstands. Sogar bei näherer Analyse kann auch eine leichte Abkühlung in den letzten 10 Jahren statistisch festgestellt werden.

Abb.1 Global gemittelte Temperaturdaten der Erdoberfläche seit 1880 bis 2009, entnommen aus NASA GISS Quelle. Das Diagramm wird in der Literatur als Temperatur Anomalie Diagramm bezeichnet [4]. Die Basis- Temperatur  ist willkürlich gewählt und ist der Mittelwert zwischen 1951 und 1980.

Die Erde war und ist in seiner Geschichte stets mit klimatischen Änderungen konfrontiert. Die an mehreren Orten wie in Antarktis oder Grönland durchgeführten Eisbohrkern-Untersuchungen zeigen diese Phänomene. Mehr noch, diese Daten zeigen auch, dass abrupte Klimaänderungen eher die Regel waren als die Ausnahme. Gesammelte Daten in der Zentrale von NOAA World data center of Paleoclimatology, Boulder, USA [5] sind im Rahmen dieser Arbeit unten (Abb. 2) dargestellt. Diese Daten stammen aus dem zentralen Grönland von Eisbohrkernen, die bis 49000 Jahren vor unserer Zeit zurückdatiert werden können. Laut dieser Untersuchung sind die Daten etwa 1% genau. Abb.2 zeigt den gesamten Temperaturablauf in Grönland (Zentralgrönland) von 1920 bis 49000 Jahren vor unserer Zeit.

 

Abb.2 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten [5] zeigen die abrupten Klimaänderungen der Erdoberfläche.  Die etwa vor 10 000 Jahren einsetzende rapide Erwärmung der Erde endete etwa vor 8000 Jahren. Erstaunlich ist es auch, dass sich die Hochzivilisationen erst ab dieser Zeit begannen zu entwickeln. 

Der vergrößerte Abschnitt in Abb. 3 zeigt die Verhältnisse bis 5000 Jahre vor unserer Zeit. Es ist klar ersichtlich, dass sich das Klima in schnellen Abfolgen auf und ab bewegte.

Abb.3 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die abrupten Änderungen der Erdoberfläche bis vor 7000 Jahren. Mehreren so genannten Klimaoptima folgten dann rapide Abkühlungsphasen. 

Weiterhin ist in der geschichtlichen Neuzeit das sich einsetzende Klimaoptimum um 1000 nach Christus sehr klar ersichtlich. In dieser Zeit wurde Grönland in den Küstenregionen von den Wikingern kolonisiert und nach der Abkühlung in den Jahren nach 1300 wieder entvölkert. Abbildung 4 zeigt die Zusammenstellung dieser Daten in einem Diagramm.

 

Abb.4 Temperaturdaten von Zentralgrönland rekonstruiert, aus Eisbohrkerndaten, zeigt das Klimaoptimum um 1000 nach Christus.  Ferner sind hier die Maunder, Dalton Minima und die kleine Eiszeit um 1700 auch gut erkennbar. Diese Minima korrelieren mit den Sonnenflecken Aktivitäten. In den Minima war die Anzahl der Sonnenflecken  auch sehr gering oder fehlten fast.

Abb.5 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die letzten wichtigen Ereignisse der Erdgeschichte. Um 1815 war der gewaltige Vulkanausbruch von Tambora, der kurz danach zu einer weltweiten Erdabkühlung führte. Ebenso löste der Vulkanausbruch Krakatau im Jahr 1883 eine kleine Abkühlungsphase der Erde aus und stoppte die Erwärmung kurzzeitig. 

Betrachtet man die Abb. 5, die sich dem letzten Abschnitt der Grönland-Temperatur- Rekonstruktion widmet, ist ersichtlich, dass weit entfernte Ereignisse mit einer kleinen Zeitverzögerung auf das Klima wirken. Die beiden Vulkaneruptionen Tambora und Krakatau in weiten Indonesien [6, 7] stoppten den Erwärmungstrend der Erde kurzzeitig für mehrere Jahre und sogar kühlte die Erde in dieser Zeit beträchtlich.

Fälschung in Namen der Klimaforschung: Die Erderwärmung zwischen 1880 und 2000, hervorgerufen durch menschlichen Einflüssen

Laut IPCC, die gerne und oft die Abbildung 1 als Beweis der anthropogen bedingten Erwärmung der Erde ausführt, ist diese Erklärung eine Unwahrheit oder in milder Form benannt nicht mehr als eine Hypothese. Wenn IPCC und die dazugehörigen unzähligen Organe die Erderwärmung als Beweisstück zeigen wollten, dann warum nicht den ganzen Kurvenzug, nämlich die erdgeschichtlichen Ereignisse seit 1800 wo die Erde nach einer Abkühlungsperiode sich wieder zu erholen begann. Da jedoch die industrielle Revolution nach 1900 einsetzte, wird dieser Teil des Kurvenzugs von IPCC als Beweis des anthropogenen Einflusses auf das Erdklima ausgeführt. Laut Abb. 3 ist die Erde heute etwa noch mehr als 1.2°C kühler, als in der Zeitspanne des Klimaoptimums um 1000 nach Christus, wo sich auf der Erde bestimmt keine industriellen Einrichtungen befanden. 

Fälschung in Namen der Klimaforschung: „Hockey stick“ Kurvenschlag als Beweis der enorm hohen Erwärmung in unserem Jahrhundert

Der nächste Skandal der vom Hause IPCC kam, ist der so  genannte „smoking gun“, Michael Mann’s Hockey Stick Beweis [8]. In 2001 wurde dieses Diagramm als letztes und wichtigstes Beweismittel gegen die Menschen gemachte Erderwärmung in dem IPCC Bericht eingeführt. Nach heftigen Einwänden und mit statistischen Beweisen von Stephen McIntyre and Ross McKitrick [9] konnte dieses entkräftet werden. Die Autoren Mann, Bradley, Hughes hatten bewusst die Daten [10] in ihrem Sinne manipuliert. Das besagte Diagramm wurde dann von IPCC in 2007 entfernt.

Fälschung in Namen der Klimaforschung: Entwendung von Daten und tausende Emails von CRU, Hadley Center, East Anglia University „Climategate“

In November 2009 wurden 61 MByte Daten aus dem  CRU Hadley Center in East Anglia University von Unbekannten entwendet und diese frei erhältlich ins Internet gestellt. Diese Daten enthielten etwa 1079 Emails und 72 Dokumente, manche von Ihnen hochbrisant, und zeigten, wozu die so genannten Wissenschaftler fähig waren, um die Klima-erwärmungshypothese zu beweisen,. Einige Fakten sind wie folgt:

  • Die heimliche Freude über den Tod von John Daly im Jahre 2004, einem Wissenschaftler aus Tasmanien, der stets bemüht war, den Klimawandel richtig zu interpretieren, wurde schriftlich in einer Email festgehalten. Ein wichtiger Kritiker weniger passte wohl in dieses Schemata.
  • Diskussionen über die Anwendung von Methoden, wie die ermittelten Daten, die eine Temperaturabnahme zeigten, in den Kurven versteckt werden können.
  • Diskussion darüber, wie man das Mittelalterliche Optimum von der Erdgeschichte wegdiskutiert werden könnte. 
  • Die von Zeitschriften als „peer review“ geforderten Wissenschaftler, die ihre Funktion als unabhängige Referee wahrnehmen sollen, wurden bewusst unter den Gesichtspunkten ausgewählt, um kritische Beiträge zu blockieren.

Diese Datenentwendung zeigte wieder, dass die Wahrheitsfindung keine Rolle spielt, wenn finanzielle und politische Interessen im Vordergrund stehen.

Fälschung in Namen der Klimaforschung: Falsche Daten über die Himalaya Gletscher finden Eingang im politischen IPCC Bericht

Im Januar 2010 wurde die Weltgemeinschaft mit einer Meldung überrascht, dass das angekündigte Verschwinden des Himalaya Gletschers von IPCC großenteils eine Fälschung war. Natürlich kann in einer Arbeit, auch in einem wissenschaftlichen Bericht, immer eine Zahl falsch sein. Das steht außer Frage, jedoch muss man dann dazu stehen und die Gründe der falschen Aussage revidieren und nicht alle Hebel in Bewegung setzen und sich verteidigen. Die Vorgeschichte begann bereits in August 2009 in Indien durch die Veröffentlichung eines umfangreichen Berichtes von V. K. Rayna, dem früheren Direktor des staatlichen geologischen Instituts in Indien [11]. In November 2009 bereits begann eine sehr scharfe Diskussion zwischen dem indischen Umweltminister und dem Nobelpreis-geschmückten früheren Eisenbahningenieur der TATA Company  und jetzigen IPCC Leiter Rajandra Pachauri. Die Inder waren über die Aussage in dem IPCC-Bericht sehr erstaunt, dass die Himalaya-Gletscher von bis zu 80 % im Jahre 2030 verschwinden würden. Bei der Diskussion warf sogar Pachauri dem indischen Umweltminister vor, dass er arrogant wäre und die Arbeiten von seriösen Wissenschaftlern nicht berücksichtige.

Nun was war geschehen? Die ganze Geschichte geht zurück auf das Jahr 1996 als der russische Gletscherforscher V. M. Kotlyakov einen umfangreichen Bericht für Unesco geschrieben hatte [12].  In diesem Bericht auf der Seite 66 hatte der Forscher seine Hypothese beschrieben, dass durch die Erderwärmung die Himalaya-Gletscher bis zu 80 % im Jahre 2350 zusammenschrumpfen würden. Diese Zahl 2350 wurde ohne Kritik von WWF (World Wildlife Fund) genommen und bewusst oder fälschlich als 2030 an das IPCC weitergegeben. Diese Zahl steht jetzt in dem IPCC Bericht und natürlich schlugen die Wellen hoch. Bemerkenswert in diesem Zusammenhang ist es auch, dass Kotlyakov im Jahre 2008 die Komplexität der Klimaforschung detailliert ausführte und begann, sich von seiner damaligen Hypothese langsam zu entfernen [13].  

 Dr. Armand Nyilas* für EIKE

*Der Verfasser dieses Schriftstücks ist freischaffender Wissenschaftler und erklärt eidesstattlich, dass er bisher weder von Kerntechnik, noch von Öl- oder Kohleindustrie finanzielle Hilfen erhalten hat.

 

Literaturstellen

 

1.     Lexikon der Nachhaltigkeit: http://alt.nachhaltigkeit.info/6000/Geschichte.htm

2.     Mauna Loa Observatory: http://co2now.org/index.php/Current-CO2/CO2-Now/current-data-atmospheric-co2.html

3.     Ernst Georg Beck, “180 Years of atmospheric CO2 gas analysis by chemical methods”, Energy and Environment, Vol. 18 No. 2 2007

4.    

GLOBAL Temperature Anomalies in 0.01 degrees Celsius base period: 1951-1980, NASA: http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt#http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt

5.     Alley, R.B..  2004. GISP2 Ice Core Temperature and Accumulation Data. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA. ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt

6.     Tambora: http://www.geology.sdsu.edu/how_volcanoes_work/climate_effects.html

7.     Krakatau: http://www.drgeorgepc.com/Volcano1883Krakatoa.html

8.     Michael Mann: http://www.global-warming-and-the-climate.com/mann’s-hockey-stick-climate-graph.htm

9.     http://en.wikipedia.org/wiki/Hockey_stick_controversy

10.   http://www.examiner.com/x-28973-Essex-County-Conservative-Examiner~y2009m11d22-The-Hockey-Stick-was-never-accurateand-CRU-knew-it

11.   V. K Raina, Ex Deputy Director General, Geological Survey India, http://moef.nic.in/downloads/public-information/MoEF%20Discussion%20Paper%20_him.pdf

12.   V. M. Kotlyakov, “Variation of snow and ice in the past and at present on a global and regional scale”, Int. Hydrological Programme IHP-IV Project H-4.1, UNESCO Paris 1996 http://unesdoc.unesco.org/images/0010/001065/106523E.pdf

13.  V.M. Kotlyakov,   http://www.un.org:80/wcm/content/site/chronicle/lang/en/home/archive/Issues2009/pid/5085

 

Related Files

image_pdfimage_print

12 Kommentare

  1. „Neues aus der Anstalt“ hat sich auch mit dem Klimagipfel befaßt.
    Politmurks bei Linken und Konservativen, Katastrophen-Klimagipfel und Hysterie an der Wetter- und Sicherheitsfront. Bereits die ersten Wochen des Jahres 2010 bieten eine lange Agenda für Georg Schramm und Urban Priol.
    http://tinyurl.com/yteasd

  2. Eine kleine Meldung zwischendurch:
    Auf SWR war zu hören, dass die weltweite Verbreitung des Kunstbegriffs „Hopenhagen“ durch professionelle Agenturen ca 100 Mio Euro erforderte.Die waren da! Die 100 Mio Dollar für die Einrichtung eines vernünftigen Messnetzes sind nach #3 nicht da.Seltsame Prioritäten!
    Werbung ist der Politik wichtiger als Wissenschaft.Ihr geht es um die Einführung der
    CO2-Abgabe. Die Wissenschaft dient nur als Feigenblatt,um das vor den Bürgern zu verdecken.

    Michael Weber

  3. Lieber Verfasser,
    zum Thema wie wichtig auch unscheinbare und schlampige Formulierungen oder kleine Fehler für die wissenschaftliche Wahrheit sind, wenn über Medien an Alle kommuniziert wird.
    Hier eine schlechte Formulierung gefunden von einem Kommentator bei Anthony Watts http://tiny.cc/YyBDz :
    “Global surface air temperatures rose three-quarters of a degree Celsius (almost one and a half degrees Fahrenheit) in the last century, but at twice that amount in the past 50 years”
    Kleine Irreführung auf der NASA-Homepage, die Belege für „global warming“ beschreibt:

    http://climate.nasa.gov/evidence/

    Interessant, dass sie als Wissenschaftsorganisation bei diesem wichtigen Thema den Unterschied zwischen „amount“ einer Menge und „rate“ einer Größe definiert als Änderung einer Größe pro Zeiteinheit verwechseln. Aber Englisch ist nicht meine Muttersprache und vielleicht liest es ja ein Engländer hier und korrigiert mich.
    Das Vertrauen sinkt rapide.

    Mit freundlichen Grüßen
    Günter Heß

  4. Die Diskussion zwischen Herr Heß und NF hat ein gutes sachliches Niveau. Mehrere Messstationen in einem basket für sich selbst zusammenzufassen und über die Jahre zu verfolgen, lohnt sich tatsächlich und ist interessant. Ich verolge die Daten meiner Wetterwarte für unseren Landkreis seit 1976. Dabei gingen die Jahresmittelwerte bis zum Jahre 2000 um 1,5 Grad rauf und seit 9 Jahren um 0,7 Grad zurück, macht also rein rechnerisch einen Temperaturüberschuß von 0,8 Grad für die letzten 35 jahre, wobei man nun den geschätzten Wert des Wärmeinseleffektes von den 0,8 Grad subtrahieren müßte. Überhaupt würde ich mal gerne sehen, wenn sich die Forschung mehr diesem Wärmeinseleffekt zuwenden würde und einen statistischen Wert für die 400 deutschen Wetterstationen ermitteln würde, um überhaupt mal eine Diskussionsgrundlage zu erarbeiten. Es ist theoretisch möglich, dass zwischen 1976 und dem Jahr 2000 überhaupt kein Temperaturüberschuss mehr vorhanden ist. Als Vergleich dient mir der Winter 1976/77 der ähnlich hart war, jedoch am 19.März 1977 in meinem Heimatort die Forsythien in voller Blütenpracht standen. Viel zu wenig Wert wird bei den Wetterstationen auch immer noch auf die von Herr Heß angeregte Erfassung der Wolkenbedeckung gelegt, diese wird von den Wetterstationen zwar täglich grob ermittelt, genauere statistische Auswertungen dieser Grobermittlungen über die letzten 35 Jahre sind mir aber nicht bekannt. Inwiefern korreliert der Grad der Wolkenbedeckung mit dem Klima der letzten 35 Jahre und was beeinflußt wiederum eine Wolken Zu-oder Abnahme über mehrere Jahre?

  5. Sehr geehrter NF,
    zunächst danke ich für die Mühe, der Sie sich unterzogen haben, meinen kurzen Bericht zu lesen und auch zu kommentieren.
    Vorneweg muss ich Ihnen gestehen, dass ich, wie viele andere, die in Klima Fragen das Sagen haben (hier nenne ich beispielhaft die beiden Größen Al Gore und Rajendar Pachauri), kein „Klimatologe“ bin. Dennoch traue ich mir zu nach einem fast 43-jährigen Berufsleben im technisch-wissenschaftlichen Bereich, Daten und Diagramme richtig zu sichten und zu interpretieren. Zudem gehöre ich seit etwa 10 Jahren bei drei internationalen Zeitschriften zum Kontingent der Referees. Etwa seit 12 Jahren beschäftige ich mich mit der Klimaproblematik und besuchte auch relevante Konferenzen.
    Nun will ich zu den einzelnen Punkten Stellung nehmen. Ich habe mir dafür erlaubt, Ihre Äußerungen zu nummerieren, damit es leichter ist sie später zu verfolgen.
    Die zwei weiteren Abbildungen kann ich leider in dem Kommentar-Fenster nicht kopieren. Falls ich Ihre Adresse wüsste könnte ich es schicken.

    Sehr geehrter Verfasser,

    1. ich bin jetzt etwas verwirrt, was Ihre Forderungen an das IPCC angeht: \“Wenn IPCC und die dazugehörigen unzähligen Organe die Erderwärmung als Beweisstück zeigen wollten, dann warum nicht den ganzen Kurvenzug, nämlich die erdgeschichtlichen Ereignisse seit 1800 wo die Erde nach einer Abkühlungsperiode sich wieder zu erholen begann.\“ Sie plädieren also dafür, Werte mit höherem Unsicherheitsgrad in IPCC-Berichte zu bringen?

    Ich plädiere nicht dafür, Werte mit höheren Unsicherheiten mit den Daten, die von Temperaturstationen stammen zu verbinden oder so etwas. Meine Bemerkung ist lediglich folgendes: Es gibt genügend Literaturstellen, wo die erdgeschichtliche Temperatur bis vor 10000 Jahren durch verschiedene Proxies gut dokumentiert sind. Diese Arbeiten zeigen, dass es ein mittelalterliches Optimum (wärmer als heute) und die kleine Eiszeit gab. Die jetzige Erwärmung ist eine Kontinuität der sog. Erholung der Erde aus der letzten globalen Kaltzeit. Ich habe sogar Temperaturdaten, zusammengesetzt aus den spärlichen Thermometer- Stationen der Erde, gefunden und aufgetragen. Da sieht man doch, dass die Erwärmung schon ab etwa 1840 begonnen hat und somit keine neuzeitliche Erscheinung ist.
    In meiner Arbeit habe ich kurz hervorgehoben, dass die Mittelung der Temperaturen ein Konstrukt ist. Er gibt zwar eine Größe, aber diese sagt weniger über das tatsächliche Geschehen an den einzelnen Orten aus. Wenn Sie die Abb. 1 (oder auch Abb. 1 von meiner Arbeit) anschauen, beobachten Sie, dass die Erde zwischen 1930 bis 1938 fast einen gleichmäßigen Temperaturgang zeigt. Gerade in dieser Zeit trat aber ab 1930 die große Dürrephase im mittleren Westen der USA auf, bekannt als größte dokumentierte Dürrezeit „1930 dust bowl“. Sie war fast eine Katastrophe für die dort lebende Bevölkerung. Jeder Ort der Erde erlebt seine eigene Klimaperiodizität.
    Zurzeit haben wir keine besseren Werte für die Temperaturen als die eben gesammelten Daten der NASA und deshalb operieren wir damit. Dennoch sollte doch Kritik erlaubt sein, wenn ich deren eigene Aussage lese, wie weit die Station Temperaturen einen gewissen Standard entsprechen. Ich gehe davon aus, dass die Satellitenmessungen (jedoch in der Neuzeit) glaubwürdiger sind; deren globale Mittelung zeigt aber eher keine Erwärmung.

    Abb. 1 Daten dargestellt aus:

    How to Cook a Temperature History

    Abb. 2 Anzahl der Temperaturstationen Weltweit

    ____________________________________________________________________________________________________________

    GISS Surface Temperature Analysis
    The Elusive Absolute Surface Air Temperature (SAT)
    Q. What exactly do we mean by SAT ?
    A. I doubt that there is a general agreement how to answer this question. Even at the same location, the temperature near the ground may be very different from the temperature 5 ft above the ground and different again from 10 ft or 50 ft above the ground. Particularly in the presence of vegetation (say in a rain forest), the temperature above the vegetation may be very different from the temperature below the top of the vegetation. A reasonable suggestion might be to use the average temperature of the first 50 ft of air either above ground or above the top of the vegetation. To measure SAT we have to agree on what it is and, as far as I know, no such standard has been suggested or generally adopted. Even if the 50 ft standard were adopted, I cannot imagine that a weather station would build a 50 ft stack of thermometers to be able to find the true SAT at its location.
    Q. What do we mean by daily mean SAT ?
    A. Again, there is no universally accepted correct answer. Should we note the temperature every 6 hours and report the mean, should we do it every 2 hours, hourly, have a machine record it every second, or simply take the average of the highest and lowest temperature of the day ? On some days the various methods may lead to drastically different results.
    Q. What SAT do the local media report ?
    A. The media report the reading of 1 particular thermometer of a nearby weather station. This temperature may be very different from the true SAT even at that location and has certainly nothing to do with the true regional SAT. To measure the true regional SAT, we would have to use many 50 ft stacks of thermometers distributed evenly over the whole region, an obvious practical impossibility.
    Q. If the reported SATs are not the true SATs, why are they still useful ?
    A. The reported temperature is truly meaningful only to a person who happens to visit the weather station at the precise moment when the reported temperature is measured, in other words, to nobody. However, in addition to the SAT the reports usually also mention whether the current temperature is unusually high or unusually low, how much it differs from the normal temperature, and that information (the anomaly) is meaningful for the whole region. Also, if we hear a temperature (say 70F), we instinctively translate it into hot or cold, but our translation key depends on the season and region, the same temperature may be ‚hot‘ in winter and ‚cold‘ in July, since by ‚hot‘ we always mean ‚hotter than normal‘, i.e. we all translate absolute temperatures automatically into anomalies whether we are aware of it or not.
    Q. If SATs cannot be measured, how are SAT maps created ?
    A. This can only be done with the help of computer models, the same models that are used to create the daily weather forecasts. We may start out the model with the few observed data that are available and fill in the rest with guesses (also called extrapolations) and then let the model run long enough so that the initial guesses no longer matter, but not too long in order to avoid that the inaccuracies of the model become relevant. This may be done starting from conditions from many years, so that the average (called a ‚climatology‘) hopefully represents a typical map for the particular month or day of the year.
    Q. What do I do if I need absolute SATs, not anomalies ?
    A. In 99.9% of the cases you’ll find that anomalies are exactly what you need, not absolute temperatures. In the remaining cases, you have to pick one of the available climatologies and add the anomalies (with respect to the proper base period) to it. For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F and regionally, let alone locally, the situation is even worse.
    Return to GISTEMP homepage

    • + NASA Privacy Policy and Important Notices

    • GISS Website Curator: Robert B. Schmunk
    • Responsible NASA Official: James E. Hansen
    • Page updated: 2005-07-12
    _____________________________________________________________________________

    2. Thermometrische systematische Messungen gibt es erst seit 1880, man müsste also eine aus Proxy-Daten gewonnene Zeitreihe ergänzen. Welche wäre Ihnen recht? Manns alte sicherlich nicht, es gibt aber ca. ein Dutzend weiterer. Ich habe hier noch von keiner gehört, die von EIKE anerkannt worden wäre.

    Ich weiß nicht was Sie über EIKE meinen. Die Arbeit ist alleine von mir entstanden und wurde von EIKE in keiner weise beeinflusst. Ich betone hier nochmals; ich will lediglich zeigen, dass die Daten der Abb. 1 ein Teil der Erderwärmungsgeschichte ist und dass vor 1880 die Erde kälter war (kleine Eiszeit etc) und das im Ganzen betrachtet sich die Erde letztlich ähnlich wie in Vorzeiten in einem Zyklus befindet. Über den Michael Mann wollen wir überhaupt nicht reden, da das bereits genügend diskutiert wurde. Er wollte ja alle Erdgeschichtlichen Klimaänderungen der letzten 2000 Jahre glattbügeln, um die Erwärmung ab 1900 auf die Menschheit zu bürden.

    3. Der erste Teil des Artikels basiert auf Temperaturdaten, gewonnen aus Eisbohrkernen. Aus diesen Daten hat man auch Werte über CO2-Konzentrationen gewonnen, doch letzte Woche hieß es noch in einem \“Climate-Gate\“-Artikel hier, die Becksche CO2-Kurve sei die richtige und die Eisbohrringwerte falsch. Zur GISS-Kurve in Abb.1 merken Sie an, die älteren Werte wären mit Vorsicht zu genießen, da sie nur relativ wenig Werte der südlichen Hemisphäre enthalten.

    Die Beck’schen Arbeiten gehen bezüglich CO2 Messungen bis 150 Jahre zurück. Die Kritik für historische CO2 Daten kam von verschiedenen Seiten wegen die CO2 Blasen (Clatrathbildung etc), insbesondere von Jaworowski und Segastal (http://www.springerlink.com/content/284n23943h8g687p/
    http://www.co2web.info/np-m-119.pdf).
    Die Temperaturen, die mit 018/016 Isotopen gemessen werden, sind soweit mir bekannt nicht angefochten. Auf alle Fälle Richard B. Alley gibt (siehe das Buch Richard B. Alley, „The Two-Mile Time Machine, Ice Cores, Abrupt Climate Change, and Our Future“, Princeton University Press, 2000) für diese eine kleine Messunsicherheit an.
    Übrigens Richard B. Alley ist ein großer Verfechter der CO2 Hypothese. Ich habe lediglich seine Daten benutzt.
    Zur GISS-Kurve habe ich in Abb. 2 noch die Stationszahlen graphisch dargestellt. Das war mein berechtigter Einwand.

    4. Gut, habe ich verstanden. Doch plötzlich kommt die Eisbohrkernkurve, und auf einmal ist es gar kein Problem, aus einer einzigen Polarregion auf das weltweite Klima zu schließen! Sie argumentieren auf Grundlage von Abb.1, eine GISS-Kurve mit Daten, von denen es auch kürzlich hieß, Sie seien falsch.

    Ich habe das Buch von Richard B. Alley gelesen. Dort sind auch antarktische Daten angegeben aber für meine Betrachtungsweise stellen diese keinen Widerspruch. Auch die anderen Polarregionen zeigen denselben Trend. Mein Hauptanliegen war in diesem Zusammenhang zu zeigen, dass abrupte Temperaturerhöhungen in der Erdgeschichte keine Seltenheit war. Ein Hauptargument von Befürworter der Klimakatastrophe über den jetzigen Klimawandel ist ja, dass die Erwärmungsrate sehr hoch ist. Eben mit diesen Eistemperaturdaten kann man aber zeigen, dass die Erwärmung historisch öfter innerhalb von sehr kurzen Zeitperioden erfolgt ist. Wenn sogar die Temperaturdaten von Eisbohrkernen absolut gesehen fehlerhaft wären, zeigen die Tendenzen relativ die Verhältnisse. Über Abb. 1 habe ich mich oben geäußert.

    5. Sie könnten mir helfen, mitzudiskutieren, wenn einmal klar würde, welche Daten von EIKE angezweifelt werden und welche nicht. Langsam habe ich den Eindruck, man hat da eine gewisse Flexibilität. Akzeptanz oder Anzweiflung scheint davon abzuhängen, ob es ins eigene Argumentationsmuster passt.

    Hier werfen Sie mir „Cherry Picking“ vor. Das weise ich entschieden zurück. EIKE ist eine Vereinigung von verschiedenen Wissenschaftlern und bringt die neuesten erhältlichen Nachrichten, um den interessierten Publikum einer Plattform zu bieten.

    6. Trotz allem versuche ich mal, ihre Argumentation nachzuvollziehen. Auf der Zeitskala von 50000 Jahren sieht die jüngste Entwicklung doch gar nicht so schlimm aus, richtig?

    Wenn Sie meinen, dass die jetzige Erwärmungsphase bis 1998 gar nicht so schlimm ist dann bin ich einer Meinung. Es war früher wie gesagt viel Wärmer.

    7. Man könnte es auch anders interpretieren: Es ist zu sehen, welch große Auswirkungen frühere Klimawandel hatten, d.h. wie empfindlich das System Klima auf natürliche Veränderungen reagiert hat. Umso vorsichtiger sollte deshalb die Spezies Mensch sein, damit herumzuspielen.

    Das Klima hat immer empfindlich reagiert. Klima selbst hat sehr viele positive und negative Regelmechanismen, die alle noch nicht bekannt sind. Wenn Sie sich mit der Chaos Theorie auskennen, wissen Sie wohl was der Flügel eines Schmetterlings bewirken kann. Ein wichtiger Regelmechanismus ist das Wasser und damit verbunden die Wolkenbildung.

    Gerade mit der Wolkenbildung beschäftigen sich im Rahmen der Klimaforschung weltweit 21 namhafte Institute in CERN mit dem CLOUD Projekt. In dem CLOUD Projekt wird mit dem neuen LHC Beschleuniger die atmosphärische Bedingungen (Wolkenbildung) in der künstlichen Kammer experimentell simuliert, die dann die Ursachen der Erderwärmung erstmals Messtechnisch bestätigt werden. Dann kann man endlich hoffen, dass die derzeitige
    Armageddon Stimmung endgültig ad acta gelegt werden kann.

    CLOUD: AN ATMOSPHERIC RESEARCH FACILITY AT CERN
    B. Fastrup, E.Pedersen
    University of Aarhus, Institute of Physics and Astronomy, Aarhus, Denmark
    E. Lillestol
    University of Bergen, Institute of Physics, Bergen, Norway
    M. Bosteels, A. Gonidec, J. Kirkby*, S. Mele, P. Minginette, B.
    Nicquevert, D. Schinzel, W. Seidl
    CERN, Geneva, Switzerland
    P. Grundsøe, N. Marsh, J.Polny, H. Svensmark
    Danish Space Research Institute, Copenhagen, Denmark
    Y. Viisanen
    Finnish Meteorological Institute, Helsinki, Finland
    K. Kurvinen, R. Orava
    University of Helsinki, Institute of Physics, Helsinki, Finland
    K. H¨ameri, M. Kulmala, L. Laakso, C.D. O’Dowd
    University of Helsinki, Lab. of Aerosol and Environmental Physics,
    Helsinki, Finland
    V. Afrosimov, A. Basalaev, M.Panov
    Ioffe Physical Technical Institute, Dept. of Fusion Technology, St.
    Petersburg, Russia
    A. Laaksonen, J. Joutsensaari
    University of Kuopio, Department of Applied Physics, Kuopio, Finland
    V. Ermakov, V. Makhmutov, O. Maksumov, P.Pokrevsky, Y. Stozhkov, N.
    Svirzhevsky
    Lebedev Physical Institute, Solar and Cosmic Ray Research Laboratory,
    Moscow, Russia
    K. Carslaw, Y. Yin
    University of Leeds, School of the Environment, Leeds, United Kingdom
    T.Trautmann
    University of Mainz, Institute for Atmospheric Physics, Mainz, Germany
    F. Arnold, K.-H.Wohlfrom
    Max-Planck Institute for Nuclear Physics (MPIK), Atmospheric Physics
    Division, Heidelberg, Germany
    D. Hagen, J. Schmitt, P. Whitefield
    University of Missouri-Rolla, Cloud and Aerosol Sciences Laboratory,
    Rolla, USA
    K.L. Aplin, R.G. Harrison
    University of Reading, Department of Meteorology, Reading, United Kingdom
    R. Bingham, F. Close, C. Gibbins, A. Irving, B. Kellett, M. Lockwood
    Rutherford Appleton Laboratory, Space Science & Particle Physics Depts.,
    Chilton, United Kingdom
    J.M.M¨akel¨a
    Tampere University of Technology, Department of Physics, Tampere, Finland
    D.Petersen, W.W. Szymanski, P.E.Wagner, A.Vrtala
    University of Vienna, Institute for Experimental Physics, Vienna, Austria

    8. PS: Sie schreiben zu Abb.1: \“Nach einer leichten Erwärmung von 1880 bis 1938 folgte eine stärkere Abkühlungsperiode, die bis 1970 dauerte.\“ Den Anstieg der letzten Jahrzehnte haben Sie leider nicht mit einem Adjektiv versehen. Wenn die Abkühlung schon \“stärker\“ ist, müsste man dann nicht von \“riesig\“ bis \“gigantisch\“ sprechen bei Anblick des Graphen?

    Da hätte ich keine Schwierigkeiten diesen Satz einzubauen (wird auch gemacht). Gestehe wäre auch richtig gewesen. Keine Arbeit ist vollkommen, den Anspruch hatte ich auch nicht.

    Mit freundlichen Grüßen
    Arman Nyilas

    PS: Übrigens leider mein Name ist falsch gedruckt. Dafür k

  6. @ Günter Heß sagt:
    „Ich nehme als Diskussionsgrundlage die vorhandenen Daten, also in der Regel GISS, UAH, RSS und HadCru3gl.“

    Ergänzend:

    „Alle vier großen Klimaüberwachungszentren der westlichen Welt, welche die Durchschnittstemperaturen der Erde ermitteln
    (das berühmte „Hadley Center for Climate Prediction“,
    das Goddard Institute for Space Studies (GISS) der NASA,
    das Atmospheric Science Department at the University of Alabama in Huntsville (UAH) und
    das Remote Sensing Systems in Santa Rosa, California (RSS)) belegen derzeit eine Abkühlung anstatt der angeblichen globalen Erwärmung.
    Der beobachtete Anstieg von etwa 0,6 °C der Durchschnittstemperatur der Erde in den letzten hundert Jahren, der uns als „Klimakatastrophe“ verkauft wird, wurde in einem einzigen Jahr rückgängig gemacht. …“
    (prcenter.de)

    „In the vast majority of stations we did not see indications for a global warming of the atmosphere.“
    – H.J. Schellnhuber, Physical Review E68, 046133 (2003)

    „Hamburg – So kalt war es in Deutschland noch nie in einer Oktobernacht: Mit minus 24,3 Grad hat der Wetterdienst Meteomedia an seiner Station Funtensee im Berchtesgadener Land am Dienstag den niedrigsten Wert seit Beginn der Wetteraufzeichnungen gemessen.“
    sda / Dienstag, 20. Oktober 2009

    Die Klimalüge ist aufgeflogen. „hide the decline!“ – War wohl nix. Diese Klimadebatte war schon immer eine politisch-theologische, NIE eine wissenschaftliche. Die Klimalüge (CO2-Schwindel) war einfach zu plump. Was macht eigentlich die gleichfalls apokalyptische Schweinegrippe? Der „Impfgedanke“ gar verschnupft?

  7. Lieber Herr NF,
    kosten würde es schon etwas. Man müsste ja Menschen einstellen, die die Messstationen regelmäßig warten und überprüfen, am besten täglich. In Deutschland machen das glaube ich oft Freiwillige. Backup einrichten, das heißt zwei nahe beieinanderliegende Stationen, etc. Außerdem müsste man regelmäßige Audits und Inspektionen durchführen.
    Übrigens fordern das einige Webseiten wie WattsUp schon lange. Passiert nur nichts.
    Mit freundlichen Grüßen
    Günter heß

  8. Sehr geehrter Herr Heß,

    diesen Vorschlag würde ich sofort unterstützen.

    Es müsste nicht einmal Geld kosten. Das IPCC oder jeder, der möchte, könnte sich auch einfach selbst eine Auswahl von bestehenden Messstationen zusammenstellen. Etwas anderes passiert bei GISS oder CRU ja auch nicht. Sie sind ebenso von der Datenqualität der zuliefernden Länder abhängig.

  9. Lieber Herr NF,
    Ihre Frage welche Daten erkennt man als Diskussionsgrundlage an ist berechtigt. Ich kann nicht für Eike sprechen, aber für mich. Ich nehme als Diskussionsgrundlage die vorhandenen Daten, also in der Regel GISS, UAH, RSS und HadCru3gl.
    Die Metereologie arbeitet ja eigentlich schon immer mit bearbeiteten „subjektiven“ Daten, erstellt durch einen synoptischen Metereologen, statt mit den Rohdaten. (Lindzen, dynamics in atmospheric physics, S.39). Das muss man wohl als Naturwissenschaftler aus Chemie oder Physik erstmal wissen und akzeptieren. Ob das für die Klimaforschung auch angebracht ist, muss sie selbst entscheiden. Heute unterstützen Computeralgorithmen den synoptischen Metereologen, früher hat er das per Hand gemacht.
    Trotzdem und deshalb muss und darf man immer auch die Qualität der Rohdaten und der „subjektiven“ Daten hinterfragen. In der Diskussion muss man aber immer die Daten verwenden, die man hat und annehmen dass sie richtig sind. Ansonsten hat man keine Diskussionsgrundlage.
    Was mich verwundert ist die Tatsache, dass das Netzwerk aus Messstationen seit Jahren kritisiert wird und offensichtlich niemand, weder das IPCC noch die NASA noch sonst wer daran denken oder ein Interesse daran hat, ein Netzwerk zu schaffen, dass über jeden Zweifel erhaben ist. So teuer ist das sicher nicht, wenn man daran denkt, wieviel Wissenschaftler jedes Jahr Forschungsreisen in die entlegensten Gebiete dieser Welt machen und was Kopenhagen gekostet hat, oder das EEG uns Steuerzahler kostet.
    In der Industrie werden Mess- und Prüfmittel jährlich einmal auditiert und kalibriert. Messmittel die kontinuierlich im Einsatz sind, werden in der Regel täglich inspiziert und mit Referenzmessungen überprüft. So ähnliche Standards stelle ich mir für die Temperaturmessstationen vor und wundere mich, dass man 20 Jahre nach dem ersten IPCC Report das nicht hat.
    Das erregt mit recht Zweifel. In meinem Verantwortungsbereich in der Industrie wäre das undenkbar.
    Ich würde alles wetten, dass in Deutschland solche Standards vom DWD seit Jahrzehnten schon benutzt werden und denke mal das IPCC sollte dafür sorgen, dass zumindestens diese Standards für das geamte Netzwerk verbindlich werden. Darüber hinaus muss man natürlich die Algorithmen und Codes veröffentlichen und überprüfen, die die subjektiven Daten generieren.
    Ausreden das nicht zu haben gibt es sicher viele, aber wenn man die Kosten für ein über jeden Zweifel erhabenes Messnetzwerk vergleicht mit den Summen die man uns als Steuerzahler zumutet wundere ich mich noch einmal.
    Die Kosten hat Jeff Id hier mal ins Verhältnis gesetzt:
    http://tiny.cc/NtQ4I
    Er kommt auf 100 Mio US$. Wieviel sollen wir den Entwicklungsländer jährlich überweisen? Was kostet eigentlich das IPCC?
    Mit freundlichen Grüßen
    Günter Heß

  10. Sehr geehrter Verfasser,

    ich bin jetzt etwas verwirrt, was Ihre Forderungen an das IPCC angeht:
    „Wenn IPCC und die dazugehörigen unzähligen Organe die Erderwärmung als Beweisstück zeigen wollten, dann warum nicht den ganzen Kurvenzug, nämlich die erdgeschichtlichen Ereignisse seit 1800 wo die Erde nach einer Abkühlungsperiode sich wieder zu erholen begann.“ Sie plädieren also dafür, Werte mit höherem Unsicherheitsgrad in IPCC-Berichte zu bringen?

    Thermometrische systematische Messungen gibt es erst seit 1880, man müsste also eine aus Proxy-Daten gewonnene Zeitreihe ergänzen. Welche wäre Ihnen recht? Manns alte sicherlich nicht, es gibt aber ca. ein Dutzend weiterer. Ich habe hier noch von keiner gehört, die von EIKE anerkannt worden wäre.

    Der erste Teil des Artikels basiert auf Temperaturdaten, gewonnen aus Eisbohrkernen. Aus diesen Daten hat man auch Werte über CO2-Konzentrationen gewonnen, doch letzte Woche hieß es noch in einem „Climate-Gate“-Artikel hier, die Becksche CO2-Kurve sei die richtige und die Eisbohrringwerte falsch. Zur GISS-Kurve in Abb.1 merken Sie an, die älteren Werte wären mit Vorsicht zu genießen, da sie nur relativ wenig Werte der südlichen Hemisphäre enthalten.
    Gut, habe ich verstanden. Doch plötzlich kommt die Eisbohrkernkurve, und auf einmal ist es gar kein Problem, aus einer einzigen Polarregion auf das weltweite Klima zu schließen!

    Sie argumentieren auf Grundlage von Abb.1, eine GISS-Kurve mit Daten, von denen es auch kürzlich hieß, Sie seien falsch.

    Sie könnten mir helfen, mitzudiskutieren, wenn einmal klar würde, welche Daten von EIKE angezweifelt werden und welche nicht. Langsam habe ich den Eindruck, man hat da eine gewisse Flexibilität. Akzeptanz oder Anzweiflung scheint davon abzuhängen, ob es ins eigene Argumentationsmuster passt.

    Trotz allem versuche ich mal, ihre Argumentation nachzuvollziehen. Auf der Zeitskala von 50000 Jahren sieht die jüngste Entwicklung doch gar nicht so schlimm aus, richtig?
    Man könnte es auch anders interpretieren:
    Es ist zu sehen, welch große Auswirkungen frühere Klimawandel hatten, d.h. wie empfindlich das System Klima auf natürliche Veränderungen reagiert hat. Umso vorsichtiger sollte deshalb die Spezies Mensch sein, damit herumzuspielen.

    PS:
    Sie schreiben zu Abb.1: „Nach einer leichten Erwärmung von 1880 bis 1938 folgte eine stärkere Abkühlungsperiode, die bis 1970 dauerte.“ Den Anstieg der letzten Jahrzehnte haben Sie leider nicht mit einem Adjektiv versehen. Wenn die Abkühlung schon „stärker“ ist, müsste man dann nicht von „riesig“ bis „gigantisch“ sprechen bei Anblick des Graphen?

  11. Danke Dr. Niylas für die Arbeit diese Fakten zusammenzustellen und zu kommentieren. Ich hoffe sehr es wird von den anderen Medien jetzt endlich breit aufgegriffen, ich hoffe sehr der Bann ist gebrochen.
    Wir Klimarealisten bekommen jetzt Rückenwind den wir nutzen müssen. Das Thema gibt noch viel her und sicher sind noch mehrere Ungereimtheiten vorhanden die noch thematisiert werden sollten.
    Nochmals Dank
    Charly W.

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.



Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:

  1. Bitte geben Sie Ihren Namen an (Benutzerprofil) - Kommentare "von anonym" werden gelöscht.
  2. Vermeiden Sie Allgemeinplätze, Beleidigungen oder Fäkal- Sprache, es sei denn, dass sie in einem notwendigen Zitat enthalten oder für die Anmerkung wichtig sind. Vermeiden Sie Schmähreden, andauernde Wiederholungen und jede Form von Mißachtung von Gegnern. Auch lange Präsentationen von Amateur-Theorien bitten wir zu vermeiden.
  3. Bleiben Sie beim Thema des zu kommentierenden Beitrags. Gehen Sie in Diskussionen mit Bloggern anderer Meinung auf deren Argumente ein und weichen Sie nicht durch Eröffnen laufend neuer Themen aus. Beschränken Sie sich auf eine zumutbare Anzahl von Kommentaren pro Zeit. Versuchte Majorisierung unseres Kommentarblogs, wie z.B. durch extrem häufiges Posten, permanente Wiederholungen etc. (Forentrolle) wird von uns mit Sperren beantwortet.
  4. Sie können anderer Meinung sein, aber vermeiden Sie persönliche Angriffe.
  5. Drohungen werden ernst genommen und ggf. an die Strafverfolgungsbehörden weitergegeben.
  6. Spam und Werbung sind im Kommentarbereich nicht erlaubt.

Diese Richtlinien sind sehr allgemein und können nicht jede mögliche Situation abdecken. Nehmen Sie deshalb bitte nicht an, dass das EIKE Management mit Ihnen übereinstimmt oder sonst Ihre Anmerkungen gutheißt. Wir behalten uns jederzeit das Recht vor, Anmerkungen zu filtern oder zu löschen oder zu bestreiten und dies ganz allein nach unserem Gutdünken. Wenn Sie finden, dass Ihre Anmerkung unpassend gefiltert wurde, schicken Sie uns bitte eine Mail über "Kontakt"

*


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.