1

Corona macht Panikpolitik im Zeitraffer überprüfbar

Es tut gut, zu sehen, dass etliche von ihnen, wenn es darauf ankommt, auf Vernunft und Kompetenz anstatt auf Moralismus und seine Unterdrückungsmechanismen setzen. Am Ende dieses Beitrages werden Sie hervorragende Beispiel dafür finden. Das ist jedoch derzeit leider die Ausnahme. Denn das eigentliche Problem, welches nun durch die Corona-Krise in Gänze sichtbar wird, besteht in einem modernen Gruppenmoralismus, der wie eine wirklich gefährliche Pandemie die westlichen Gesellschaften durchdringt – ausgenommen sind allenfalls die Staaten, denen die Erfahrung, in totalitären Systemen zu leben, noch in den Knochen steckt. Seine Botschaft lautet: Der Westen und seine auf individuelle Freiheit setzende Gesellschaften sind schuld am Übel der Welt. Er kann nur durch Aufgabe seines bürgerlichen Kerns geheilt werden.

Dieser Gruppemoralismus grenzt die Fähigkeit mehr und mehr aus, wichtige Zukunftsfragen sach- und kompetenzgesteuert zu diskutieren. Aber nur eine solche freie Diskussion findet die besten Lösungen. Moralismus wirkt dem entgegen, weil er nicht an guten Lösungen interessiert ist, sondern ausschließlich daran, Macht über Andere zu erlangen. Den evolutionssoziologischen Hintergrund des Phänomens Gruppenmoralismus können Sie hier nachlesen.

Warum verhindern Moralisten gute Lösungen? Deshalb: Der natürliche Feind des Moralisten ist die Kompetenz. Denn Kompetenz entlarvt den Moralisten. Dies ist der eigentliche Grund, weshalb sich überall in unserer Gesellschaft Inkompetenz-Netzwerke breitmachen, die dann, wenn sie tatsächliche Probleme zu meistern haben, fachlich versagen müssen. Das gilt für Themenbereiche wie Klima, Energie, Geldwirtschaft, Einwanderung und weiten Teilen der medizinischen Prävention, in der inzwischen eine moralisierende Haltung bzgl. Ernährung, Übergewicht oder gesunden Lebensstil die öffentliche Deutungshoheit besitzt. Das wachsende Problem des Reizdarm-Syndroms beispielsweise entstand nicht ohne Grund.

Die Wissenschaft wurde nicht zuletzt deshalb entwickelt, um dem rein moralisch legitimierten, endgültigen Wahrheitsanspruch von Heilslehren einen möglichst sachlichen und objektiven Streit um die bessere Lösung entgegenzuhalten. Das hat den Westen in all seinen Brüchen so erfolgreich werden lassen. Weil konstruktiver Streit und Wettbewerb nur auf der Basis von individueller Freiheit, Rechtssicherheit und Beteiligung erfolgreich sein kann, streben die meisten Menschen außerhalb unserer Gesellschaftsform danach, in einer solchen zu leben.

Doch was passiert, wenn sich Moralisten in der Wissenschaft breitmachen? Genderstudies. Doch nicht nur. Jedes Forschungsgebiet, dessen Ergebnisse in die öffentliche Wahrnehmung gelangen, steht inzwischen unter Druck, Argumente für die aktuellen Schuld- und Erlösungsthesen zu liefern, egal wie falsch und absurd sie auch sind. Leitungspositionen werden zunehmend an Personen vergeben, die sich zumindest nicht dagegenstemmen. Meine Praxis liegt direkt an der Universität. Habe ich Forscher als Patienten, frage ich sie oft nach ihren Forschungsaktivitäten. Ist ein Vertreter eines solchen Fachs dabei, zum Beispiel Klimaforschung, endet die Antwort oft folgendermaßen: „Sagen sie nicht, dass ich das gesagt habe, sonst habe ich die students for future in meiner Vorlesung.“ Kommt es zum Konflikt, hat der Einzelforscher wenig Rückhalt von der Universität zu erwarten. Machen wir uns nichts vor, in weiten Teilen fällt die Universität inzwischen als Gegenpol einer moralisierenden Meinungsführerschaft aus.

Das Versagen hat System

Wenn solche Inkompetenz-Netzwerke auf reale Probleme treffen, ist das einzige, wozu sie dann in der Lage sind, sich krampfhaft an infantilen Slogans festzuhalten wie derzeit „Gesundheit vor Wirtschaft“ oder an dem wohlfeilen Appell, Solidarität zu üben. Mittels Gesinnungsethik und Political Correctness wird Menschen so suggeriert, auf der richtigen Seite zu stehen – alternativlos. Es gibt kaum etwas autoritär Wirkungsvolleres als die Aufforderung, dann für die „Gute Sache“ Grenzen zu überschreiten. Ich möchte dazu das berühmte Milgram-Experiment aus den 1960ern in Erinnerung rufen.

Wer sich immer noch nicht fügt, für den halten Moralisten völlig spekulative Horrorszenarien bereit. Wenn stolz berichtet wird, dass 80% aller Deutschen die Corona-Schutzmaßnahmen der Regierung für richtig finden, obwohl kaum jemand durch diese Erkrankung ein außergewöhnliches Problem erleben musste, geschweige denn die Wenigsten selbst Opfer kennen, sollte jeder Demokrat hellhörig werden. Eine solche monolithische Zustimmung erzielt eine Regierung nur durch Panikmache und Angst, die Verstand und eigenes Nachdenken ausschalten. Die diesbezüglichen Äußerungen der Spitzenpolitik sind so unfassbar wie wirklichkeitsfremd. Die etablierte Presse als Kontrolle fällt weitgehend aus. Sie spielt stattdessen dieses Spiel willig mit. Dazu muss man sie gar nicht zwingen. Die modernen Gesinnungsjournalisten*%?innen glauben inzwischen selbst, die Wirklichkeit biegen zu müssen, um die richtige Botschaft durchzusetzen. Das alles ist pures Gift für jede demokratische Debatte um die beste Lösung.

Die tatsächliche Brutalität der Heilsbringer

Werden sie dennoch einmal von tatsächlichen Fachleuten auf die Unsinnigkeit ihres Handelns hingewiesen, schlagen sie sofort wild um sich. Das hat zuletzt das Deutsche Netzwerk Evidenzbasierte Medizin erfahren, als es in einer Stellungnahme auf die fehlende wissenschaftliche Substanz der aktuellen Corona-Maßnahmen hinwies.

Beispiele für diese Mechanismen finden sich in den Beiträgen auf Achgut inzwischen zu Hunderten. Als letztes Mittel droht dann die Diskreditierung, der Rufmord, die Ausgrenzung. Ob dabei Leute Schaden nehmen, die Wirtschaft den Bach runter geht und das gesamte Land leidet, ist Moralisten völlig egal. Man muss sich die evolutionäre Kraft des Gruppenmoralismus bewusst machen, um zu verstehen, dass man mit ihr nicht diskutieren kann, sondern lediglich versuchen muss, sie regelmäßig in die Schranken zu weisen. Der amerikanische Zoologe George Williams schlussfolgert drastisch „die Präferenz für eine Gruppenmoral heißt nichts weiter, als den Völkermord dem einfachen Mord vorzuziehen.“ Der Begründer der modernen Psychologie Sigmund Freud beschreibt diese Kraft in „Das Unbehagen in der Kultur“ folgendermaßen: „(dass) es leicht möglich (ist), eine größere Menge Menschen in Liebe aneinanderzubinden, wenn nur andere für die Äußerung der Aggression übrig bleiben.“

Corona macht Symbolpolitik überprüfbar

Das Gute an Corona ist, dass dieses Problem schnell und unerwartet entstanden ist und die Folgen unmittelbar beurteilbar sind – auch die der Fehlentscheidungen. Es ist keine abstrakte Bedrohung wie die Klimaerwärmung oder das Kippen der Ozeane. Wird eine Pandemie ausgerufen, verbreitet sie sich innerhalb von Wochen und bedarf einer guten Lösung. Da wir jedoch als Gesellschaft gar nicht mehr anders können, als echte Probleme statt sachgerecht dann moralisierend anzugehen, fiel uns diese Fehlentwicklung gehörig auf die Füße. Erst war im Februar das Virus rechts, weil die Fraktionsvorsitzende der AfD Alice Weidel im Bundestag vor der Epidemie warnte, um ab Mitte März, nach einer typischen 180-Grad-Wende, plötzlich als größte Bedrohung der Menschheit überhöht zu werden. Fortan waren maximale Schutzmaßnahmen ein Gebot der Menschenliebe und Kritik daran rechte Verschwörungstheorie. Das ist das Niveau unserer öffentlichen Diskussionskultur im Jahr 2020.

Aber diesmal haben die Moralisten überzogen. Denn den Murks dieses unfassbar kompetenzarmen Corona-Krisenmanagements spüren einfach zu viele und werden ihn vor allem noch spüren. Bisherige Fans des aktuellen Gruppenmoralismus werden ins Grübeln kommen, wenn Hartz 4 droht. Vieles, sehr vieles wird nicht mehr funktionieren, wenn eine sich immer schneller drehende Gelddruckmaschine Massenpleiten und Abbau sozialer Leistungen nicht mehr kaschieren kann. Dieses Urteil erlaube ich mir als Arzt. Nicht zuletzt wurde und wird das Gesundheitssystem und die medizinische Forschung durch die panischen Fehlentscheidungen erheblich beschädigt. Jetzt schon geht ein großer Teil der in manchen Ländern gemessenen Übersterblichkeit auf Kosten dieser Panik, die Behörden, Patienten wie Ärzte irrational handeln ließen. Darüber wird noch genau zu berichten sein.

Jahreszeitübliche Normalität

Die aktuelle Situation in Deutschland ist an jahreszeitlich bedingter Normalität nicht zu überbieten trotz gleicher Horrorrhetorik wie schon im Frühjahr. Während die Tests ins Bodenlose gesteigert werden und die Rate an positiven Fällen eben nicht exponentiell, sondern mäßig ansteigt, ist die Situation in den Krankenhäusern so normal, wie sie nur normal sein kann. Michael Alberts hat in seinem Achgut.com Beitrag vom 30.10.20 dargelegt, dass die offiziellen Zahlen der RKI-Sentinel-Praxen und -Krankenhäuser, das Beste, was wir derzeit haben, um einigermaßen repräsentative Aussagen zu tätigen, diese Normalität eindeutig anzeigen. Erhellend auch dieser Achgut.com-Beitrag 

Vielleicht wird es hier und da zu Belegungsstress kommen, auch dies jahreszeitlich bedingt immer möglich. Davon abgesehen gehört es zum professionellen Berufsbild des Arztes, mit Mangelversorgung umgehen zu können. Auch ein Notarzt muss sich manchmal entscheiden, welches Unfallopfer er zuerst behandelt und welches warten muss, auch wenn es dabei stirbt. Damit muss man klarkommen, sonst hat man seinen Beruf verfehlt. Deshalb nun zu fordern, man müsse statt einem nun immer drei Notärzte bereithalten, um diese sogenannte Triage zu vermeiden, der hat nicht verstanden, worum es im Gesundheitssystem geht: den sinnvollen Einsatz von Ressourcen, um eine möglichst gute Versorgung hinzubekommen. Alles auf Covid zu fokussieren und alle anderen Krankheitsbilder zu vernachlässigen, richtet viel mehr Schaden an, als es das Virus könnte. Mit Grauen sehe ich schon wieder OP-Verschiebungen und Absagen von Untersuchungsterminen. Es ist zum Haare raufen.

Es ist schlicht irreführend, alle Intensivpatienten auf Corona zu testen, um dann die positiv Getesteten grundsätzlich als Covid-Fälle offiziell zu listen. Ein Herzinfarkt oder Polytrauma ohne schwere Covidsymptome bleibt ein Herzinfarkt und ein Polytrauma, auch mit positivem Test. Die eigenartige Beobachtung, dass die Zahl der Covid-Intensivpatienten ansteigt, während die Gesamtzahl der Intensivpatienten diesen Anstieg kaum wiedergibt, wird wohl dadurch plausibel. Das einzige, was Krankenhäuser derzeit wirklich zu fürchten haben, ist der Personalmangel infolge ständiger Mitarbeiterquarantäne. Schuld daran: der Test. Nirgendwann, weder im Frühjahr und erst recht nicht im Herbst, gab es auch nur annähernd eine Epidemie von nationaler Tragweite.

Nur der Vollständigkeit halber: Diese Feststellung hat nichts damit zu tun und leugnet erst recht nicht, dass Covid-19 für manche eine ziemlich gefährliche Erkrankung sein kann, an der man – wie bei einer Grippe auch – sterben kann. Aber wer eine gesellschaftliche Bedrohung erkennen will, muss auch in der Lage sein, statt emotionaler berichteter Einzelfälle und wilder wirklichkeitsfremder Modellrechnungen irgendwann reale Zahlen vorlegen zu können, die im Vergleich die außergewöhnliche Gefahr belegen. Und genau das ist, Gottseidank, nicht der Fall. Immerhin scheint es inzwischen common sense zu sein, anzuerkennen, dass der Rückgang der Infektionen bereits vor dem Beginn der strengen Schutzmaßnahmen im Frühjahr begann. So vernahm ich es dieser Tage erstaunt aus dem Mund von Maybrit Illner.

Warum sollte es diesmal anders sein?

Ergänzend noch ein paar eigene Vermutungen. Es ist eine Binsenweisheit, dass jedes Virus einer saisonalen Atemwegsinfektion – ob Influenza, Corona oder andere – über den Sommer mutiert und meist in abgeschwächter Form dann im Herbst noch sein Restunwesen treibt. Dagegen haben sich längst neue Influenza- oder Corona-Viren entwickelt, die dann die Todesraten im kommenden Frühjahr ansteigen lassen. Das ist pure Normalität. Da jedoch diese neuen Viren nicht komplett neu sind, reicht der Kontakt mit den Vorgängerviren bei Gesunden allermeist aus, um eine Kreuzimmunität zu bilden. Nur immungeschwächte, meist alte Menschen, sind dann gefährdet, ernsthaft zu erkranken.

Denkbar wäre auch, dass wir aufgrund des milden Virus-Frühjahres 2020 in Deutschland 2021 wieder bei denen sind, die eine Übersterblichkeit erleben. Oft ist es so, dass sich schwere und mildere Verläufe in den einzelnen Ländern abwechseln. Vielleicht, weil bei einer schweren „Grippewelle“ viele Menschen aus der Risikogruppe sterben und somit im nächsten Jahr als Opfer nicht mehr zu Verfügung stehen. So war es immer und so wird es sich wahrscheinlich auch mit SARS-CoV-2 verhalten. Alles spricht dafür. Dafür sprechen auch, leider nur mündliche Mitteilungen, dass es anscheinend ein auffallendes Problem im Rahmen der Corona-Testung gibt. Die Positive-Rate steigt zwar leicht an, es soll jedoch immer schwieriger sein, ein positives Testergebnis durch einen zweiten Test zu bestätigen. Eine Erklärungsmöglichkeit könnte sein, dass eben inzwischen neue Corona-Mutationen mit dem PCR-Test interagieren und so die Ergebnisse verfälschen.

Professor Dr. Beda Stadler, Professor für Immunologie, schrieb im Juni dazu auf Achgut:

„Das Virus ist erst mal weg. Wahrscheinlich wird es im Winter zurückkommen, das wird aber keine zweite Welle sein, sondern eben eine Erkältung. Wer als gesunder junger Mensch derzeit mit einer Maske herumläuft, sollte deshalb gescheiter einen Helm tragen, da das Risiko, dass einem etwas auf den Kopf fallen könnte, größer ist als eine schwere Erkrankung mit Covid-19.“ 

Überwachungs-App-China-Demokratie

Inzwischen betrachte ich Corona als Glücksfall. Er ist der richtige Schuss vor den Bug, durch den endlich die Mehrheit am eigenen Leib erkennen kann, dass das Schiff Bundesrepublik auf falschem Kurs fährt. Ein Kurs, der uns von der eigentlichen Stärke westlich geprägter Demokratien wegführt: von der freien, kompetenzgetragenen Debatte um die besten Lösungen hin zu moralbasierten, alternativlosen Fehlentscheidungen. Damit verlieren wir den entscheidenden Wettbewerbsvorteil gegenüber totalitären Gesellschaften, die dann ohne die Last einer moraleifernden Öffentlichkeit überlegene Lösungen durchsetzen.

Wir verlieren unsere Widerstandskraft, um im globalen Kampf, und was ist es sonst, unsere auf individueller Freiheit, Rechtssicherheit und unternehmerische Kreativität setzende Gesellschaftsform weiter sichern zu können. Gruppenmoralismus und damit Gesinnungsethik und Political Correctness gefährden unseren westlichen demokratischen Rechtsstaat genauso, wie es andere totalitäre Ideologien vorher taten. Wir müssen endlich dagegen offen und gut sichtbar protestieren.

Wenn wir möchten, dass unsere Kinder nicht in einer Art Überwachungs-App-China-Demokratie leben müssen, wo das Kollektiv alles und das Individuum nichts ist, dann dürfen wir uns nicht mehr zurückziehen, wenn wir bei der Arbeit, im Freundes- und Bekanntenkreis und sogar in der eigenen Familie immer wieder auf eine Mauer der Ignoranz stoßen, die uns trotz guter sachlicher Argumenten in die Leugner-, Skeptiker- und rechte Verschwörungsecke drängen will. Mein Appell besonders auch an die Verantwortlichen des Mittelstandes ist, die Appeasement-Politik-aus-Furcht-vor-schlechter-Publicity zu verlassen und, egal ob Klima, Energie oder Corona, auf eine sachgemäße Debatte zu bestehen und Fehlentscheidungen klar und deutlich anzusprechen. Gerade Corona sollte sie mehr als deutlich erkennen lassen, was passiert, sollten wir den aktuellen Kurs beibehalten.

Deshalb: Akzeptieren wir das leere Moralgetöse nicht mehr und halten wir dagegen. Allerdings ruhig und sachlich. Denn Moralismus lässt sich nicht durch Moralismus bekämpfen, auch wenn er das Wort Liebe inflationär gebraucht – Sigmund Freud lässt grüßen. Etwas, was mich Abstand zu manchen „Anti-Corona“-Aktivitäten halten ließ. Vernunft hingegen einzufordern, reicht völlig aus und ist dringend notwendig. Denn wenn die Klugen immer nachgeben, werden die Anderen die Welt regieren. Die Coronakrise wird vielleicht einmal in die Geschichte als Wendepunkt eingehen, an dem sich entschieden hat, ob wir zurück auf den Kurs einer freien Gesellschaft finden oder die Umgestaltung in eine Art Überwachungs-Demokratie akzeptieren – um in Gänze im Dunstkreis Chinas aufzuwachen.

Die Aufrechten

Hier nun Beispiele für aufrechte, wie fähige Wissenschaftler, die sich aktuell angesichts der verfahrenen Corona-Situation zu Wort melden. Es ist ein Genuss.

Gerd Antes ist einer der versiertesten Medizinstatistiker und war Direktor des Deutschen Cochrane-Zentrums am Universitätsklinikum Freiburg, das medizinische Studien wissenschaftlich prüft und auswertet. Im Oktober meldete er sich in einem Interview mit dem SWR “Experte kritisiert Coronavirus-Strategie“ folgendermaßen zu Wort. „Alles versäumt worden, was irgendwie versäumt werden kann“

Auf die Frage, ob man mit den Schutzmaßnahmen der Bevölkerung falsche Hoffnung mache, sagte er:

„Eindeutig, ja. Nicht vorsätzlich und bösartig, sondern aus einer Mischung aus Inkompetenz, Ignoranz und Arroganz. Jetzt sind ja alle wieder geschockt, dass das, was man vielleicht im Winter erwartet hätte, schon im September auftritt. Das ist ein – so hart muss man es sagen – vorhersagbares Versagen. Es ist ja über den ganzen Sommer alles versäumt worden, was irgendwie versäumt werden kann. Das, womit wir im April hätten anfangen können, um ganz gezielt und schnell Daten zu erheben, ist bis auf ganz wenige Ausnahmen nicht gemacht worden. Das fällt uns jetzt auf die Füße. (…) Über allem schwebt aber der große, dunkle Schatten, dass die Zahlen nicht richtig sind, weil wir keine systematisch erfassten Zahlen haben. Das ist das große Problem gegenwärtig, dass wir das seit acht Monaten versäumt haben.“

„Die Tests liefern für allgemeine Aussagen keine belastbaren Zahlen. Deshalb sind alle Zahlen, die aus diesen Tests abgeleitet werden, grundsätzlich mit Vorsicht zu genießen und schlimmstenfalls grob falsch. Am auffälligsten kann man das an der Dunkelziffer erkennen: Wir erwischen nur einen gewissen und völlig unsystematisch erhobenen Anteil der Infizierten.“

„Die Strategie ist nicht falsch, weil es keine Strategie gibt. Das wird nach dem, was ich aus persönlichen Kontakten heraus weiß, überall anders gemacht und ist auch belastet mit einer großen Inkompetenz. Dieses Hochjubeln von Clustern als „Haupttäter“ ist aus meiner Sicht hochgradig inkompetent, weil das immer nur retrospektiv festgehalten werden kann. Hinterher ist es immer ein schönes „Erkenntnisfest“, wenn man sagt: Oh, da sind jetzt 200 Leute infiziert und jetzt können wir die in Quarantäne schicken und dann haben wir richtig was geleistet. Wenn man das mal aufaddiert, dann sieht man sehr schnell, dass der Anteil von sogenannten spontanen Übertragungen unglaublich groß sein muss. Sonst würde man nie auf die Gesamtzahl kommen. Wenn wir jetzt sehen, dass wir gegenwärtig tausende positive Tests haben und dann noch einmal eine große Dunkelziffer obendrauf – dann ist das, was wir über die immer wieder hochgejubelten Events zählen können, verschwindend gering.“

„Wenn man den Tunnelblick der Epidemiologen hat, die nur die Gesundheit interessiert, dann wird es wahrscheinlich gelingen, die Infektionen zu kontrollieren. Aber das sage ich mit extremer Zurückhaltung. Wenn man aber den gesamten gesellschaftlichen Bereich im Blick hat, dann richten wir damit über den langen Zeitraum wahrscheinlich horrende Schäden an. Da wird dann im Vordergrund immer nur der wirtschaftliche Schaden gesehen. Das ist aber ja nur der eine Schaden. Der andere ist der gesellschaftliche Schaden. Erstens glaube ich, dass die Einsamkeit wirklich Auswirkungen haben kann auf die Mortalität von alten Menschen. Das muss sehr ernst genommen werden. Genau wie die Auswirkungen auf Kinder oder Abiturienten, denen das, was vorher alle gemacht haben – also Work and Travel und Co. – auf unbestimmte Zeit unmöglich ist.“

„Zweifel ist die entscheidende Triebfeder der Erkenntnis““

Prof. Jürgen Windeler ist Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) in Köln. Er schrieb am 29. Oktober in der Süddeutschen Zeitung einen Beitrag mit dem Titel „Wir sollten einander wieder zuhören“

Zitate:

„Mitte September hat das deutsche Netzwerk für evidenzbasierte Medizin (DINEbM), eine etablierte wissenschaftliche Fachgesellschaft, eine Stellungnahme veröffentlicht, die sich mit einer Reihe relevanter Fragen rund um die Covid-19 Pandemie befasste. Die Reaktionen waren bemerkenswert: ein Zwitter-Gewitter, Verschwörungsverdächtigungen, Verharmlosungsvorwürfe – das ganze Spektrum dessen, was man aus den letzten Monaten kennt.“

„Zweifel ist die entscheidende und, genaugenommen, neben Neugier die einzige Triebfeder wissenschaftliche Erkenntnis. Wer in den letzten Monaten Zweifel geäußert hat, der konnte erleben, dass das Fragen als solches bereits als eine Form von Häresie betrachtet wurde. Das konnte im Kleinen wie im Großen passieren und egal, ob man Zweifel an einzelnen Zahlen, Verlautbarungen oder Entscheidungen bzw. deren Begründung hatte, oder man es wagte auf einzelne Inkonsistenzen und Ungereimtheiten hinzuweisen, blitzschnell konnte man sich in der Kiste der „Relativierer“, „Verharmloser“  oder gleich der „Covidioten“ wiederfinden.“ 

„Qualitätsmedien gelang es zuweilen nicht mehr, Zwischenfragen und Verschwörung zu unterscheiden. Das hat Wirkung gezeigt: ich kenne eine Reihe von Kolleginnen und Kollegen, die sich sehr sorgfältig überlegen, ihre Fragen noch zu äußern, aus Sorge, mit den „Aluhüten“ in einen Topf geworfen zu werden. Man hätte meinen können, dass sich die Schärfe der Positionen und der gegenseitigen Unterstellungen und Vorwürfe mit der Zeit abschleift. Die heftigen Reaktionen auf die Stellungnahme des DINEbM belegen leider das Gegenteil.“

„Wissenschaft wird polarisieren und, wenn mit richtig und falsch auch gut und böse assoziiert wird“

„Nur in einem offenen Diskurs können Grundlage und Entscheidungen geändert und diese Änderung glaubwürdig begründet werden. Es ist von großer Bedeutung alle verfügbaren Möglichkeiten einer Verbesserung der Erkenntnis in den Diskurs einzubeziehen. Das wiederum setzt voraus das Fragen und Datenlücken thematisiert werden dürfen. Denn der geäußerte Zweifel ist es, der die intensive Suche nach der richtigen Antwort in Gang setzt.“

„Wir müssen nicht alle einer Meinung sein aber wir könnten uns über die Art der Auseinandersetzung verständigen und wir könnten uns wenigstens zuhören. Das ist im Übrigen der erfolgversprechende Weg, den Verschwörungsextremisten die Unterstützung zu entziehen.“

„Kriterien einer wissenschaftsbasierten Risikokommunikation berücksichtigen“

Die Gesundheitswissenschaftlerin Prof. Ingrid Mühlhauser veröffentlicht aktuell auf den Seiten des Deutschen Netzwerks evidenzbasierter Medizin den Beitrag: „Risikokommunikation von COVID-19 Mortalitätsdaten – Zur Bewertung der Daten braucht es eine differenzierte und vergleichende Einordnung.“ (Die Originalquelle, zu der leider kein Link existiert: Ingrid Mühlhauser, „Risikokommunikation von COVID-19 Mortalitätsdaten“, Seiten 26–29, KVH-Journal 12/20. Hier der Link zu einer früheren Veröffentlichung mit gleichem Thema.)

Zitate:

„Zahlen ohne Bezugsgröße können nicht sinnvoll gedeutet werden. Das EbM Netzwerk hat seit Beginn der Pandemie in mehreren Stellungnahmen eine verständliche Risikokommunikation eingefordert. Dennoch werden diese Kriterien in der medialen Berichterstattung zu SARS-CoV-2/Covid-19 weiterhin nicht angemessen berücksichtigt.“

„Die öffentlichen Medienberichte zu SARS-CoV-2/Covid-19 liefern überwiegend Rohdaten ohne Bezugsgrößen. Vergleiche mit anderen Todesursachen fehlen.“

„Der direkte Vergleich zwischen Infektionen mit SARS-CoV-2/Covid-19 und Influenza-Viren ist nicht möglich, da es keine einheitliche Systematik zur diagnostischen Erfassung und Berichterstattung gibt, das gilt besonders für die Bestimmung der Todesursachen. …. So heißt es auf der Website des RKI: „die offizielle Todesursachenstatistik ist nicht aussagekräftig, sie beruht auf den Angaben auf dem Totenschein, auf dem Influenza praktisch nie als Todesursache eingetragen wird, sondern zum Beispiel die bakterielle Lungenentzündung oder eine fortbestehende Grunderkrankungen wie Diabetes oder eine Herz-Kreislauf-Erkrankungen, die die Wahrscheinlichkeit eines schweren bzw. tödlichen Krankheitsverlaufs erhöht.“ Zur Berechnung wird die sogenannte Übersterblichkeit (Exzess-Mortalität) ermittelt.“

„In Deutschland erkranken pro Jahr etwa 660.000 Menschen an einer ambulant erworbenen Pneumonie, ca. 300.000 von diesen werden stationär behandelt, 40.000 versterben an der Erkrankung…. Ein Vergleich mit Covid-19 Pneumonien wäre möglich, wenn sowohl für ambulant erworbene Pneumonien als auch für Covid-19 Pneumonien, aufgeschlüsselt für die unterschiedlichen Altersgruppen, Daten zur Rate an Testpositiven, Erkrankungshäufigkeit, Hospitalisierungsrate, Anzahl der Behandlungen auf Intensivstation sowie Sterberaten verfügbar wären.“

„Das RKI nennt mit Stand 20. Oktober 6179 Covid-19 Fälle, für die bekannt ist, dass diese Person eine Pneumonie entwickelt haben.“

„Nosokomiale Infektionen ziehen sich Patientinnen und Patienten im Zusammenhang mit medizinischen Maßnahmen zu, überwiegend in stationären Einrichtungen (Krankenhaus, Pflegeeinrichtungen). Die höchsten Infektionsraten kommen auf Intensivstationen vor. Das RKI schätzt die Zahl nosokomiale Infektionen in Deutschland auf etwa 400.000–600.000 pro Jahr und die Todesfälle auf 10–20.000. Mit einer jährlichen Erkrankungsrate von 500-650 Patienten pro 100.000 Einwohner liegt Deutschland über dem EU-Durchschnitt (450–500 pro 100.000) das RKI betont dazu: „generell sind Todesfälle durch nosokomiale Infektionen schwer zu bestimmen, insbesondere, weil viele Betroffene an schweren Grunderkrankungen leiden, die bereits ohne Krankenhausinfektion häufig zum Tod führen.“

Als Fazit schreibt Frau Prof. Mühlhauser:

„Vergleiche mit anderen Infektionskrankheiten und Todesursachen können die Beurteilung von Krankheitslast und Sterberisiko durch SARS-CoV-2 Infektionen in einen Bezugsrahmen stellen, unterschiedliche Verfahren der Erfassung und Auswertung müssen dabei berücksichtigt werden. Die Berichterstattung durch das RKI und in den Medien sollte die Kriterien einer wissenschaftsbasierten Risikokommunikation berücksichtigen.“

Meine Anmerkung: Frau Mühlhauser beschreibt ein großes Versäumnis. Würde man den Menschen einen Bezugsrahmen ermöglichen, in dem Zahlen, wie sie Frau Mühlhauser vorschlägt, zusammen mit den Corona-Zahlen gemeldet würden, dann wäre sofort die übertrieben Panik erkennbar. Ein Segen für viele, die aufgrund der geschürten Ängste inzwischen schon monatelang leiden.

Die vorschnelle Beatmung von Corona-Patienten

Die aktuelle Unstatistik des Monats Oktober, unter anderem verfasst von den Professoren Krämer und Gigerenzer, wurde bereits vor ein paar Tagen auf Achgut,com veröffentlicht. Der für mich wichtigste Abschnitt lautet:

„Obgleich die Anzahl der Neuinfektionen derzeit rapide ansteigt, ist das Verhältnis der Verstorbenen zu den zwei Wochen zuvor Infizierten deutlich gesunken. Unter den Erwachsenen bis 60 Jahre ist der Anteil der Verstorbenen an den zuvor positiv getesteten um 90% zurückgegangen, unter den 60- bis 80-Jährigen um 80% und unter den noch älteren um 50%. Zwei Studien in den USA und Großbritannien berichten, dass der Anteil der Verstorbenen stark zurückgegangen ist und zwar gleichmäßig für alle Altersgruppen. (…) Ein Wert von 50 Fällen je 100.000 Einwohner heute hat eine gänzlich andere Bedeutung als vor einem halben Jahr. Hinsichtlich der zu erwartenden Intensivpatienten und Todesfälle dürfte ein Wert von 50 im Oktober maximal einen Wert von 15–20 im April entsprechen; vermutlich entspricht der einem noch geringeren.“

„In Wirklichkeit keine nationale Gesundheitsnotlage“

Und zuletzt ein aktueller Beitrag „Corona-Lockdown: Droht tatsächlich eine akute nationale Gesundheitsnotlage?“ von dem Psychologen Prof. Christof Kuhbandner, der das hier bereits Gesagte noch einmal eindrücklich argumentativ unterlegt.

Zitat:

„Es lässt sich kein wirklicher Anstieg in der Anzahl der insgesamt belegten Intensivbetten erkennen. Das einzige, was ansteigt, ist die Anzahl der Intensivpatienten mit positivem SARS-CoV-2-PCR-Testergebnis.“ 

Dies ist äußerst seltsam, meine These ist, dass das Virus inzwischen mutiert ist zu einer harmloseren Variante, und andere neue Coronaviren interagieren. Herr Kuhbandner findet jedoch auch eine plausible Erklärung in der aktuellen Testpraxis der Labore, die zu einer Ausweitung falsch positiver Ergebnisse führt.

Seine Schlussfolgerungen:

„Die beschriebenen Befunde legen nahe, dass in Wirklichkeit keine nationale Gesundheitsnotlage droht. Weder ist die Gesamtanzahl der belegten Intensivbetten in den letzten Wochen gestiegen, noch die Gesamtanzahl der stationär behandelten SARI-Fälle, noch die Anzahl der Atemwegserkrankungen in der Bevölkerung. Das einzige, was gestiegen ist, ist die Anzahl der Personen mit positiven SARS-CoV-2 Testergebnissen, was angesichts der sich häufenden Meldungen von falsch-positiven Testergebnissen daran liegen könnte, dass viele Labore Single-Target-Tests ohne Bestätigungstest einsetzen, so dass die erhaltenen positiven Testergebnisse womöglich zum Teil eher den üblichen saisonal bedingten Anstieg harmloserer Coronaviren widerspiegeln, als einen dramatischen Anstieg in SARS-CoV-2-Infektionen.

Da die zentrale Begründung für den drohenden „Lockdown 2.0“ ein Anstieg der SARS-CoV-2-Fallzahlen und eine drohende Überlastung des Gesundheitssystems ist, wäre die politische Entscheidung zur Verordnung des Lockdowns fundamental zu hinterfragen.“

Der Beitrag erschien zuerst bei ACHGUT hier




IPCC-Ziele und -Verfahren verlangten Elimi­nierung, Reduktion und Manipu­lation unge­eigneter Daten sowie die Erzeu­gung falscher Daten

Die folgende Aussage aus dem 4. Zustandsbericht ist völlig unhaltbar angesichts der Ergebnisse der Projektion:

Es gibt beträchtliches Vertrauen [considerable confidence], dass Klimamodelle glaubwürdige quantitative Schätzungen des zukünftigen Klimawandels liefern, besonders im Maßstab von Kontinenten und darüber. Dieses Vertrauen ergibt sich aus der Grundlage der Modelle, also aus anerkannten physikalischen Prinzipien und aus deren Fähigkeit, beobachtete Vorgänge des gegenwärtigen Klimas und Klimaänderungen der Vergangenheit zu reproduzieren. Das Vertrauen in die Modellschätzungen ist für manche Klimavariablen (z. B. Temperatur) höher als bei anderen (z. B. Niederschlag). Über viele Jahrzehnte der Entwicklung hinweg haben die Modelle konsistent ein robustes und eindeutiges Bild einer signifikanten Klimaerwärmung als Folge von zunehmenden Treibhausgasen gezeigt.

Dies ist genau so, als ob man sagt, dass eine Seifenkiste eine gute Approximation eines Rolls Royce oder eines Ferrari ist. Als Beweis führen sie an, dass die Seifenkiste anscheinend einige Spuren-Charakteristika hat und der Straße in der gleichen Richtung folgt – falls sie sich auf einem Hügel befindet.

Abbildung 1: Grundbestandteile einer Seifenkiste

Selbst ein einfaches Systemdiagramm der Atmosphäre (Abbildung 2) ist tausend mal komplizierter als die gezeigten Grundmaterialien für die Seifenkiste.

Abbildung 2. Nach Kellogg und Schneider (1974)

In der Liste der Variablen in diesem Diagramm sowie der vielen fehlenden Variablen stecken keine bedeutsamen Daten. Mit bedeutsam meine ich, dass falls es sie gibt, sie unzureichend sind hinsichtlich Länge, Abdeckung oder Genauigkeit. Sie sind unzureichend als Grundlage eines Computermodells, und die Modellergebnisse sind vollkommen unrepräsentativ bzgl. der Realität und gänzlich ungeeignet als Grundlage für jedwede Politik. Der Beweis für diese Behauptung ist im Scheitern der Validierung der Modelle zu finden, außer wenn man Variablen hinzufügt oder adjustiert dergestalt, dass sie zu den Modellbedingungen passen. Das Scheitern dieser Taschenspielertricks liegt in den gescheiterten Projektionen. Die einzige Lehre, die sie daraus ziehen, ist die Notwendigkeit, sich total auf die Datensammlung zu konzentrieren, weil die Klimawissenschaft schon jetzt der Warnung von Sherlock Holmes genügt:

Es ist ein kapitaler Fehler zu theoretisieren, bevor man Daten hat. Unmerklich beginnt man dann, Fakten zu verdrehen, damit sie zu den Theorien passen, anstatt die Theorien nach den Fakten auszurichten“.

Ich habe schon oft über das Datenproblem geschrieben, aber es ist von so grundlegender Bedeutung, dass eine fortwährende Wiederholung desselben erforderlich ist. Es scheint, als ob die Trump-Regierung dafür sorgt, dass die Verdrehung von Tatsachen, bis sie zur Theorie passen, gestoppt wird. Sie könnte beschließen, weitere Förderungen der Klimawandelforschung einzustellen mit der Rechtfertigung, dass die Förderungen bis jetzt missbraucht worden sind. Falls sie jedoch auf diesem Weg voranschreitet, wird jedes Weiterkommen wegen fehlender Daten fehlschlagen.

Hubert Lamb, der möglicherweise mehr Klimadaten zusammengetragen hat als irgendjemand vor oder nach ihm, erklärte in seiner Autobiographie (1997), dass er die Climate Research Unit gegründet hatte, weil:

…klar war, dass es die erste und größte Notwendigkeit war, die Fakten auf der Grundlage der Aufzeichnungen des natürlichen Klimas der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten bedeutsam geworden sind“.

In unserer persönlichen Kommunikation beschrieb er die Probleme, welche das Fehlen von Daten hervorrufen würde, und bedauerte, dass genau das an der CRU der Fall war. Er schrieb:

Mein direkter Nachfolger, Prof. Tom Wigley, war hauptsächlich interessiert an den Perspektiven des Weltklimas, das sich als Folge menschlicher Aktivitäten ändert, hauptsächlich durch das Verbrennen von Holz, Kohle, Öl und Erdgas… Nach nur wenigen Jahren war praktisch die gesamte Arbeit an der historischen Rekonstruktion von Klima und Wetterlagen der Vergangenheit, welche die Unit weithin bekannt gemacht hatte, aufgegeben worden“.

Wigley war der Urvater des IPCC, die zentrale Institution, der Fels inmitten der zentralen Gestalten während des Debakels, zu dem die CRU wurde, nachdem sie den 3. Zustandsbericht entworfen und kontrolliert hatte. Man lese die veröffentlichten Klimagate-E-Mails und beachte, wie oft sie seine Ausführungen zur Lösung von Streitfragen herangezogen hatten. Es ist eine surreale Erfahrung, weil seine Kommentare ausnahmslos in Warnungen bestanden vor Dingen, die ihre AGW-Objektive bedrohen könnten. Es ging ihm nie darum, nach Wahrheit zu trachten.

Viele Kommentatoren beschreiben sehr markant einige unverrückbare Tatsachen hinsichtlich Daten und Statistiken:

Falls man die Daten nur ausreichend frisiert, wird die Natur immer mitspielen“ – Ronald Coase.

Fakten sind stur, aber Statistiken sind formbarer“. – Anonym

Wir alle sind gewaltigen Mengen von Rohmaterial ausgesetzt, welche Daten, Gedanken und Schlussfolgerungen enthalten – vieles davon falsch oder missverstanden oder einfach nur durcheinander. Es besteht eine schreiende Notwendigkeit für intelligentere Kommentare und Begutachtungen“. – Murray Gell-Mann

Wissenschaft ist ein Gebäude aus Fakten, so wie ein Haus aus Ziegelsteinen gebaut ist; aber eine Ansammlung von Fakten ist nicht mehr Wissenschaft als ein Stapel von Ziegelsteinen schon ein Haus ist“. – Henri Poincare.

Ich habe zu fehlenden Daten schon oft auf dieser Website und anderswo Stellung genommen:

https://wattsupwiththat.com/2014/03/21/ipcc-scientists-knew-data-and-science-inadequacies-contradicted-certainties-presented-to-media-public-and-politicians-but-remained-silent/

https://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

https://wattsupwiththat.com/2013/10/22/lack-of-data-for-all-phases-of-water-guarantees-failed-ipcc-projections/

https://wattsupwiththat.com/2013/10/02/ipcc-climate-a-product-of-lies-damn-lies-and-statistics-built-on-inadequate-data/

https://wattsupwiththat.com/2016/04/24/particulates-aerosols-and-climate-the-more-important-story/

https://wattsupwiththat.com/2015/11/04/more-ipcc-inadequacies-and-failures-precipitation/

In einem der Artikel wies ich darauf hin, dass das IPCC und zentrale Figuren des AGW-Betrugs genau wussten, dass es keine Daten gibt.

Im Jahre 1993 ist Stephen Schneider, eine an vorderster Stelle stehende Figur der AGW-Hypothese und dem Gebrauch von Modellen verschrieben, über die Zweifel an der Sicherheit hinausgegangen, als er sagte:

Unsicherheit bzgl. bedeutender Rückkopplungs-Mechanismen ist ein Grund, warum das ultimative Ziel der Modellierung des Klimas – also die zuverlässige Vorhersage der Zukunft von Schlüsselvariablen wie Temperatur und Niederschlagsverteilung – nicht realisierbar ist“.

Am 3. Februar 1999 hieß es in einem Report des US National Research Council:

Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen stellen ernste Begrenzungen des Vertrauens dar, das man den Forschungsergebnissen entgegen bringen kann.

Kevin Trenberth erwiderte darauf:

Es ist sehr eindeutig – wir haben kein Klimabeobachtungs-System … Dies könnte für viele Menschen als Schock kommen, die annehmen, dass wir adäquat darüber Bescheid wissen, was mit dem Klima los ist; aber das ist nicht der Fall!“

Zwei CRU-Direktoren, Tom Wigley und Phil Jones sagten:

Viele Unsicherheiten rund um die Gründe des Klimawandels werden niemals erkannt werden, weil es an den notwendigen Daten fehlt“.

Sie haben diese Tatsache nicht verschleiert, weil diese es ihnen erlaubte, die Daten, die sie als Beweis für ihre Hypothese brauchten, zu fabrizieren und die Modelle dann als repräsentativ für die reale Welt auszugeben. Sie wussten auch, dass die Öffentlichkeit wie in den meisten Bereichen der Klimawissenschaft nicht wusste, dass die Datenlage völlig unzureichend war [und die, die es wissen, dürfen das bis auf den heutigen Tag nicht laut sagen, wenn sie keine Schwierigkeiten bekommen wollen. O heilige Welt der Wissenschaft! Anm. d. Übers.]

Auslöser zum Schreiben dieses Artikels war der Vortrag eines mächtigen Vertreters der AGW-Hypothese, der von ,synthetischen‘ Daten so sprach, als seien es reale Daten. Die meisten Menschen wissen einfach nicht, dass die meisten Daten synthetischer Natur sind. Um dem Mangel von Daten für globale Klimamodelle zu begegnen, ist es allgemein üblich, synthetische Daten mit einem Modell zu erzeugen, die dann als ,reale‘ Daten in ein anderes Modell eingehen. Da es praktisch keine Daten für irgendeine aus der Vielfalt der Variablen gibt, die in Kombination Wetter und Klima bewirken, erzeugen sie eine virtuelle Realität.

Das IPCC hat Fortschritte im Bereich Klimawissenschaft seit seiner Gründung im Jahre 1990 eingefroren, indem man den Schwerpunkt absichtlich auf menschliche Gründe richtete. Dann widersprachen sie der wissenschaftlichen Methodik, als sie versuchten, die AGW-Hypothese zu beweisen anstatt sie zu widerlegen. Diese Maßnahmen führte zu einer ganzen Reihe von Dilemmata:

Nationale Wetterbüros beriefen die IPCC-Mitglieder und kontrollierten die Finanzierung der Klimaforschung in ihren Ländern.

Dieses Vorgehen führte dazu, dass es die politische oder wissenschaftliche Kontrolle umging. Skeptiker wurden eliminiert.

Der größte Teil der Förderung floss in Theorien und Forschungen, welche die AGW-Hypothese ,bewiesen‘.

In vielen Fällen wurde das für die Datensammlung gedachte Geld abgezogen, als sich der politische Schwerpunkt festigte. Hier folgen Kommentare von Ken Green aus einer Untersuchung dessen, was bei Environment Canada vor sich gegangen war:

Die Behauptung wissenschaftlicher Unehrlichkeit angemessen zu unterstützen war schwierig infolge der vertraulichen Natur eines großen Teils der internen Kommunikation der Regierungen und dem offensichtlichen Zögern von Beamten auszusagen. Allerdings wurden als Folge einer jüngst erhobenen Forderung nach Informationen [Access to Information request] wissenschaftliche Unehrlichkeit und „aufgebrezelte Schlussfolgerungen“ entdeckt in einem der größten Wissenschafts- und Technologie-Projekte Kanadas jemals – die Bemühung, Klimawandel und die Wissenschaft zu „managen“, welche vermeintlich die Kyoto-Bemühungen unterstützt. Dies wird enthüllt durch die folgende Analyse des anhängenden ,contract reports‘ des Consulting-Unternehmens „The Impact Group“ sowie in damit zusammenhängenden internen Kommunikationen zwischen dem Meteorological Service of Canada (MSC) von Environment Canada und anderen und dem „ADM Committee on Climate Change Science“.

Wetterstationen auf der ganzen Welt wurden stillgelegt, angeblich um sie durch Satellitendaten zu ersetzen. NASA GISS stellte diese Änderungen graphisch dar, in welchen sich zwei verschiedene Abnahmen während der sechziger und der neunziger Jahre zeigten:

Das Problem ist sogar noch viel größer, weil Daten verloren gegangen sind, Aufzeichnungen beendet oder gestutzt worden sind, und weil Proxy-Rekonstruktionen pervertiert wurden, als deren Historie zugunsten einer politischen Agenda umgeschrieben wurde.

Ich hörte von den Kommentaren über synthetische Daten nach meinem Engagement in Australien mit Senator Malcolm Roberts und Tony Heller. Ich war nach Australien gereist, um Senator Roberts zu unterstützen bei seiner Anforderung empirischer Daten als Beweis für die AGW-Behauptungen seitens der Bürokraten beim Commonwealth Scientific and Industrial Research Organization (CSIRO), der Organisation also, die die Regierung bzgl. Klimawandel berät. Wir wollten tatsächliche Daten haben mit begleitenden Beweisen von Ursache und Wirkung, nicht Simulationen von Computermodellen. Sie reagierten mit einem Report, der nichts enthielt außer den mittels Computern erzeugten Behauptungen des IPCC. Aber das war keine Überraschung, weil sie ihnen Daten des IPCC-Mitglieds Australian Bureau of Meteorology übermittelt hatten.

Aber es geht nicht nur um empirische Daten und Beweise für AGW. Die Anzahl realer, direkt gemessener Daten zur Erstellung von Computermodellen sowie die Politik beeinflussender Beweise ist vollkommen unzureichend. Die synthetischen Daten, von der die Person sprach, wurden in einem Computermodell von einem Anteil des riesigen Systems Ozean-Atmosphäre erzeugt und dann als reale Daten in ein größeres Modell gesteckt.

Einer der größten absichtlichen Schwindel ist der Unterschied zwischen den Sicherheiten des IPCC, welche in der Summary for Policymakers (SPM) beschrieben werden, und der beängstigenden Liste von Unzulänglichkeiten im Physical Science Report der Arbeitsgruppe I. Die folgenden Zitate stammen direkt aus jenem Report, aber nur sehr wenige Menschen lesen diesen jemals. Grund hierfür ist, dass die SPM mit großem Tamtam schon Monate vor dem Erscheinen des Science-Reports veröffentlicht wird. Der Experten-Begutachter des IPCC David Wojick schrieb:

Eklatante Auslassungen sind nur für Experten eklatant. Darum werden die „Policymakers“ – einschließlich der Medien und der Öffentlichkeit – welche die SPM lesen, nicht bemerken, dass ihnen nur die eine Seite der Story aufgetischt wird. Aber die Wissenschaftler, die die SPM verfasst haben, kennen die Wahrheit natürlich, wie durch die manchmal kunstvolle Art und Weise enthüllt, mit der sie diese Wahrheit verheimlichen.

Was in den SPM systematisch ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die der Theorie der menschlichen Interferenz entgegen stehen. Anstatt diese Objektionen zu bewerten, beschreiben die SPM vertrauensselig nur jene Ergebnisse, die den Fall stützen. Kurz gesagt, das ist Verfechten und nicht Einschätzung.

In der SPM zum 5. Zustandsbericht wird behauptet:

Anthropogene Treibhausgas-Emissionen haben seit der vorindustriellen Ära zugenommen, getrieben hauptsächlich durch ökonomisches Wachstum und Zunahme der Bevölkerung, und sie sind derzeit höher denn je. Dies hat zu atmosphärischen Konzentrationen von Kohlendioxid, Methan und Stickoxiden geführt, die beispiellos sind zumindest während der letzten 800.000 Jahre. Deren Auswirkungen wurden zusammen mit anderen anthropogenen Antrieben im gesamten Klimasystem entdeckt und waren extrem wahrscheinlich der dominante Grund der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts.

Der Terminus „extrem wahrscheinlich“ ist 95% bis 100%. Man stelle diese Einschätzung in den Zusammenhang mit den folgenden Daten-Begrenzungen aus dem Science Report. Er beginnt mit der Anerkennung der ernsten Begrenzungen in einem allgemeinen Statement.

Unsicherheiten bei den gemessenen Aufzeichnungen

Die große Mehrheit historischer (und moderner) Wetterbeobachtungen wurde nicht explizit zum Zweck des Klima-Monitorings durchgeführt. Messungen haben sich ihrer Natur nach verändert, als sich Anforderungen an die Daten, Beobachtungsverfahren und Technologien entwickelt haben. Diese Änderungen ändern die Charakteristika von Mess-Aufzeichnungen fast immer, ändern deren Mittelwerte, deren Variabilität oder beides. Darum ist es notwendig, die Rohdaten zu bearbeiten, bevor sie als nützlich eingestuft werden können zur Einschätzung der wahren Klimaentwicklung. Dies gilt für sämtliche Messverfahren von physikalischen atmosphärischen Quantitäten. Die Unsicherheit in Messaufzeichnungen umfassen instrumentelle Fehler bzw. Fehler bei der Aufzeichnung, Auswirkungen auf die Repräsentanz (z. B. Position, Häufigkeit von Messungen oder deren Timing) ebenso wie Auswirkungen infolge physikalischer Änderungen bei der Instrumentierung (wie etwa Verlagerung von Stationen oder neue Satelliten). Alle weiteren Bearbeitungsschritte (Übermittlung, Speicherung, Interpolation, Mittelwertbildung) haben jeweils ihre eigenen speziellen Unsicherheiten. Weil es keinen einheitlichen, eindeutigen Weg gibt zur Identifizierung oder zur Berücksichtigung nicht klimabezogener Artefakte in der großen Mehrzahl der Aufzeichnungen, muss es einen Grad der Unsicherheit geben, wie sich das Klimasystem verändert hat. Die einzigen Ausnahmen sind bestimmte Messungen der atmosphärischen Zusammensetzung und der Flüsse, deren Messungen und Unsicherheiten rigoros miteinander verbunden sind mittels einer ununterbrochenen Kette international anerkannter absoluter Mess-Standards (z. B. die CO2-Aufzeichnungen am Mauna Loa; Keeling et al. 1976a).

Unsicherheiten bei der Erstellung von Datensätzen können entweder resultieren aus der Auswahl der Parameter innerhalb einer speziellen analytischen Struktur – parametrische Unsicherheit; oder aus der Auswahl einer analytischen Gesamtstruktur – strukturelle Unsicherheit. Strukturelle Unsicherheiten werden am besten abgeschätzt, wenn mehrere voneinander unabhängige Gruppen die gleichen Daten mit unterschiedlichen Verfahren bewerten. Mehr jetzt bewertete Analysen als im AR 4 enthalten u. A. veröffentlichte Schätzungen parametrischer oder struktureller Unsicherheiten. Es ist wichtig anzumerken, dass es in der Literatur eine sehr große Bandbreite von Verfahren gibt. Große Sorgfalt hatte man walten lassen beim Vergleich der veröffentlichten Unsicherheits-Bandbreiten, weil sie fast niemals einen Punkt-für-Punkt-Vergleich enthalten [as they almost always do not constitute a like- for-like comparison]. Im Allgemeinen zeigen Studien, die multiplen potentiellen Fehlerquellen in rigoroser Weise Rechnung tragen, größere Unsicherheits-Bandbreiten. Dies führt zu einem offensichtlichen Paradoxon in der Interpretation, weil man denken könnte, dass geringere Unsicherheits-Bandbreiten ein besseres Produkt vorgaukeln. Allerdings wäre dies in vielen Fällen eine falsche Herangehensweise, weil die geringere Unsicherheits-Bandbreite stattdessen reflektieren könnte, dass die veröffentlichte Abschätzung nur einen Teil der plausiblen Unsicherheitsquellen berücksichtigt hat. Innerhalb der Zahlen einer Zeitreihe, bei denen dieses Problem am akutesten ist, sind derartige parametrische Abschätzungen daher nicht allgemein enthalten.

Fazit: die große Mehrheit der Rohmessungen, die zum Monitoring des Klima-Zustandes herangezogen werden, enthält Residuen nicht-klimatischer Einflüsse. Die Entfernung dieser Einflüsse kann nicht definitiv vorgenommen werden, ebensowenig wie die Unsicherheiten nicht eindeutig abgeschätzt werden können. Daher ist Sorgfalt erforderlich sowohl bei der Interpretation der Daten-Erzeugnisse und deren festgestellter Unsicherheits-Abschätzungen. Vertrauen kann entstehen aus: Redundanz bei Bemühungen zur Erzeugung der Produkte; Datensatz-Eigenschaften [data set heritage] und Quervergleiche von Variablen, von denen man erwartet, dass sie aus physikalischen Gründen gleichlaufend variieren, wie etwa LSATs [?] und Wassertemperatur an Küsten. Und schließlich werden Trends oftmals als eine Möglichkeit herangezogen, die Daten in eine einzige Zahl zu destillieren.

Warum steht dies nicht auf der ersten Seite der SPM?

Die folgenden Zitate stammen direkt aus dem AR 5 und wurden ausgewählt, weil darin die Datenprobleme eingeräumt werden. Der Bericht verwendet verschiedene Termini, welche ihre Einschätzung der Verfügbarkeit der Beweise anzeigen sollen, das heißt die Menge, das Ausmaß und die Qualität, während ein zweiter Terminus ihr Vertrauen in ihre Wissensgrundlage für Prophezeiungen andeutet. Ich habe ihre Einschätzungen fett und unterstrichen dargestellt sowie Prozentzahlen eingefügt, wo es angebracht war, und die unzulängliche, irreführende Analyse und Ausdrucksweise kommentiert.

In diesem Bericht wurden die folgenden zusammenfassenden Termini verwendet, um die verfügbaren Beweise zu beschreiben: begrenzt, mittel oder robust; und für den Grad an Übereinstimmung: niedrig, mittel und hoch. Ein Vertrauensniveau ist ausgedrückt mittels fünf Kriterien: sehr niedrig, niedrig, mittel, hoch und sehr hoch sowie durch Kursivdruck. Für einen bestimmten Beweis und ein Statement zu Übereinstimmung können unterschiedliche Vertrauensniveaus eingeschätzt werden, aber zunehmendes Vertrauensniveau und Grad an Übereinstimmung sind korreliert mit zunehmendem Vertrauen.

In diesem Bericht wurden die folgenden Termini verwendet, um die eingeschätzte Wahrscheinlichkeit eines Ergebnisses zu zeigen: Fast Sicherheit 99% bis 100% Wahrscheinlichkeit, sehr wahrscheinlich 90% bis 100%; wahrscheinlich 66% bis 100%; eher wahrscheinlich als unwahrscheinlich 33% bis 60%; unwahrscheinlich 0 bis 33%; sehr unwahrscheinlich 0 bis 10%; außerordentlich unwahrscheinlich 0 bis 1%. Zusätzliche Termini (Extrem wahrscheinlich: 95% bis 100%; eher wahrscheinlich als unwahrscheinlich >50% bis 100% und extrem unwahrscheinlich 0 bis 5%) können auch verwendet werden, wo es angebracht ist. Die abgeschätzte Wahrscheinlichkeit ist kursiv.

Wegen der großen Variabilität und relativ kurzen Perioden mit Datenaufzeichnungen ist das Vertrauen in Trends des stratosphärischen Wasserdampfes niedrig. (Dies ist wichtig, weil sichtbar werdende Eiskristalle in Gestalt von Leuchtenden Nachtwolken und Polar Stratospheric Clouds vor allem in Ozonschichten bedeutsam sind, was wahrscheinlich die Ursache für ihre Probleme beim nächsten Punkt ist).

Vertrauen ist mittel in die großräumige Zunahme troposphärischen Ozons auf der Nordhemisphäre seit den siebziger Jahren.

Vertrauen ist niedrig in Ozonänderungen auf der Südhemisphäre infolge begrenzter Messungen. Die Öffentlichkeit glaubt, dass wir in vollem Umfang bzgl. Ozon Bescheid wissen und dass das Montreal-Protokoll allen diesbezüglichen Bereichen Rechnung getragen hat.

Satellitenaufzeichnungen von Strahlenflüssen an der Obergrenze der Atmosphäre sind seit dem AR 4 substantiell ausgeweitet worden, und es ist unwahrscheinlich (0 bis 33%), dass es signifikante Trends gibt im globalen und tropischen Strahlungshaushalt seit dem Jahr 2000.

Die die Erdoberfläche erreichende Solarstrahlung durchlief wahrscheinlich (66% bis 100%) verbreitete dekadische Änderungen nach dem Jahr 1950, mit Abnahme (dimming) bis zu den achtziger Jahren und nachfolgender Zunahme (brightening), welche an vielen Stellen auf dem Festland gemessen worden ist. Es gibt mittleres Vertrauen in eine zunehmende abwärts gerichtete thermische und Gesamt-Strahlung an landbasierten Beobachtungsstellen seit Anfang der neunziger Jahre.

Während die Trends der Wolkenbedeckung in bestimmten Gebieten konsistent in unabhängig voneinander bestehenden Datensätzen sind, verbleibt eine substantielle Vieldeutigkeit und daher geringes Vertrauen in Beobachtungen der Wolkenvariabilität bzw. deren Trends im globalen Maßstab.

Es ist wahrscheinlich (66% bis 100%), dass seit etwa 1950 die Anzahl von Starkregenereignissen auf dem Festland in mehr Gebieten zu- als abgenommen hat. (Eine völlig bedeutungslose Bemerkung).

Das Vertrauen in einen beobachteten Trend hinsichtlich Dürre oder Trockenheit im globalen Maßstab ist seit Mitte des 20. Jahrhunderts niedrig, was dem Fehlen direkter Beobachtungen, methodischer Unsicherheiten und geographischen Inkonsistenzen in den Trends geschuldet ist. (Die Niederschlagsdaten sind in jeder Hinsicht weit stärker begrenzt als Temperaturdaten, und sie sind völlig unzulänglich. Aber trotzdem wird der Öffentlichkeit weisgemacht, dass die Wahrscheinlichkeit von Dürren infolge AGW signifikant zugenommen hat).

Das Vertrauen für langfristige Änderungen (nach Jahrhunderten) der Aktivität tropischer Zyklone bleibt niedrig nach den Veränderungen der Beobachtungs-Kapazitäten in der Vergangenheit. (Heißt dies, dass es nutzlos ist, bevor man diesen Änderungen der Vergangenheit Rechnung trägt?).

Das Vertrauen in großräumige Trends von Stürmen oder Proxys hierzu während des vorigen Jahrhunderts ist niedrig wegen der Inkonsistenzen zwischen Studien oder fehlenden langzeitlichen Daten in einigen Regionen der Welt (vor allem der Südhalbkugel). (Es ist nicht nur die Südhalbkugel, obwohl schon diese den halben Planeten ausmacht).

Infolge unzureichender Studien und Belangen der Datenqualität ist das Vertrauen auch niedrig in Trends kleinräumiger schwerer Wetterereignisse wie etwa Hagel oder Gewitter. (Die hier gemeinten Stürme sind ein grundlegender Mechanismus für den Transfer von Treibhausgasen und latenter Wärme in der gesamten Atmosphäre).

Es ist wahrscheinlich (66% bis 100%), dass sich Zirkulationsmuster seit den siebziger Jahren polwärts verschoben haben, was eine Ausweitung des tropischen Gürtels involviert, eine polwärts gerichtete Zugbahn von Stürmen und Jet Streams sowie eine Konzentration der nördlichen Polarwirbels. (Es liegt vermutlich am unteren Ende von „wahrscheinlich“, weil es viel zu wenig Messpunkte gibt, um die Ausdehnung zu belegen).

Große Variabilität von Jahr zu Jahr sowie im Zeitmaßstab von Jahrzehnten behindert robuste Erkenntnisse hinsichtlich langzeitlicher Änderungen der atmosphärischen Zirkulation in vielfacher Hinsicht. (Was heißt hier „robust“? In der Atmosphäre, bei Wetter und Klima ist alles Zirkulation! Diese Bemerkung ist so grob und vage, dass der Schluss nahe liegt, sie wissen nicht, was los ist).

Das Vertrauen in die Existenz langfristiger Änderungen der übrigen Aspekte der globalen Zirkulation ist niedrig infolge Grenzen von Beobachtungen und Verständnis. (Dies passt zu obiger Erkenntnis, dass sie nicht wissen, was eigentlich los ist).

Unsicherheiten in Datensätzen des Wärmeflusses Luft ↔ Ozean sind zu groß (wie groß ist zu groß?), um eine Änderung des globalen mittleren Wärmeflusses zwischen Ozean und Atmosphäre zu erkennen mit einer Größenordnung von 0,5 W/m² seit 1971, was erforderlich ist, um direkt Trends zu identifizieren in der regionalen oder globalen Verteilung von Verdunstung oder Niederschlag über den Ozeanen im Zeitmaßstab der beobachteten Änderungen des Salzgehaltes seit 1950. (Dies sind massive Maschinen des Transfers latenter Wärme und sind allein schon ausreichend, um zu sagen, dass jedwede Aussagen zu ihrer Wirkungsweise bedeutungslos sind).

Wind-Trends im Maßstab von Ozeanbecken und im Zeitmaßstab von Jahrzehnten bis Jahrhunderten wurden beobachtet im Nordatlantik, dem Tropischen Pazifik und dem Südlichen Ozean mit niedrigem bis mittlerem Vertrauen. (Wind ist eine fast vergessene Variable und mit der geringsten Anzahl von Daten behaftet, aber dennoch unabdingbar für genaue Messungen von Verdunstung und Energie-Transfer).

Beobachtete Änderungen der Eigenschaften von Wassermassen reflektieren wahrscheinlich (66% bis 100%) die kombinierte Auswirkung langzeitlicher Trends des Oberflächen-Antriebs (z. B. Erwärmung der Ozean-Wasseroberfläche und Änderungen bei E – P) sowie die Variabilität von Jahren und Jahrzehnten in Bezug auf Klimazustände. (Eigenschaften von Wassermassen bestimmen den Meeresspiegel. Darum macht diese Bemerkung Behauptungen über einen Anstieg des Meeresspiegels infolge AGW zum Gespött).

Es ist wahrscheinlich (66% bis 100%), dass sich die jährliche Periode des Schmelzens von mehrjährigem arktischen Eis um 5,7 ± 0,9 Tage pro Jahrzehnt im Zeitraum von 1979 bis 2012 verlängert hat. (Die Daten bzgl. des Meereises waren bis 1981 völlig unzuverlässig, und eine Datensammlung über nur 30 Jahre ist absolut unzureichend für jedwede klimarelevante Variable trotz des von der WMO festgelegten Zeitraumes von 30 Jahren als Normalperiode).

Nach fast einem Jahrzehnt stabiler CH4-Konzentrationen seit Ende der neunziger Jahre haben atmosphärische Messungen einen erneuten Anstieg der CH4-Konzentrationen seit dem Jahr 2007 gezeigt. Die Auslöser dieser erneuten Zunahme sind immer noch Gegenstand von Diskussionen. (Offenbar nicht. Die Medien stecken voller Stories über die zunehmende Bedrohung durch Methan aus menschlichen Quellen).

Viele der von den Klimamodellen in wärmeren Klimaten simulierten Änderungen von Bewölkung und Feuchtigkeit werden jetzt als Folge von langfristigen Zirkulationsänderungen angesehen, die nicht stark von Modellprozessen im Meso-Maßstab abhängig zu sein scheinen, was das Vertrauen in diese Änderungen zunehmen lässt. (Aber gerade eben haben sie uns gesagt, dass sie großräumige Zirkulationsänderungen nicht verstehen). Zum Beispiel zeigen mehrere Beweislinien Beiträge durch positive Rückkopplung aus zirkulations-getriebenen Änderungen sowohl der Höhe von hohen Wolken und breitenkreis-abhängige Verteilung von Wolken (mittleres bis hohes Vertrauen). Einige Aspekte der Reaktion der Bewölkung insgesamt variieren jedoch substantiell von Modell zu Modell, und diese scheinen stark abhängig von mesoskaligen Prozessen, in welche es geringeres Vertrauen gibt. (Wie viel weniger? Tatsächlich wissen sie es nicht).

Klimarelevante Aerosol-Prozesse sind besser verstanden, und klimabezogene Aerosol-Eigenschaften werden besser beobachtet als zur Zeit des AR4 (Aber damals waren sie nicht gut verstanden oder gemessen, weshalb dies ein relatives und bedeutungsloses Statement ist). Die Repräsentanz relevanter Prozesse variiert jedoch erheblich in globalen Aerosol- und Klimamodellen, und es bleibt unklar, welches Niveau der Güte [sophistication] erforderlich ist, um deren Auswirkung auf das Klima zu modellieren. Global sind zwischen 20% und 40% der optischen Dichte von Aerosolen (mittleres Vertrauen) und zwischen einem Viertel und zwei Drittel der Konzentration von Wolken-Kondensationskernen (niedriges Vertrauen) anthropogenen Ursprungs. (Dies ist gleichbedeutend der Aussage, dass man bei einer 20/20-Vision 20% aller Dinge über 20% der Zeit sieht. Dazu auch das nächste Zitat).

Die Quantifizierung von Wolken und konvektiver Vorgänge in den Modellen sowie die von Wechselwirkungen zwischen Aerosolen und Wolken bleibt eine Herausforderung. Klimamodelle enthalten inzwischen mehr relevante Prozesse als zu Zeiten des AR 4, aber das Vertrauen in die Repräsentanz dieser Prozesse bleibt schwach. (Ein weiteres relatives Statement, welches bedeutungslos ist. Es ist, als ob man sagt, es war früher nutzlos, aber ich glaube, jetzt ist es etwas besser).

Rückkopplungen Aerosole ↔ Klima erfolgen hauptsächlich mittels Änderungen der Stärke der Quelle natürlicher Aerosole oder Änderungen der Effizienz von Senken bzgl. natürlicher und anthropogener Aerosole; eine gewisse Anzahl von Modellierungs-Studien haben den Rückkopplungs-Parameter als innerhalb ± 0,2 W/m² °C, mit niedrigem Vertrauen. (Was ist eine gewisse Anzahl? Wie viele Studien würden es bedeutsam machen?)

Modelle des Klimas und des Systems Erde beruhen auf physikalischen Prinzipien, und sie reproduzieren viele bedeutende Aspekte des gemessenen Klimas. (Viele, aber nicht alle Aspekte). Beide Aspekte (dies ist irreführend. Sie sprechen über ihre Aspekte und nicht über die des gemessenen Klimas) tragen zu unserem Vertrauen bei in die Eignung der Modelle für Erkennungs- und Zuordnungs-Studien (Kapitel 10) und für quantitative zukünftige Prophezeiungen und Projektionen (Kapitel 11 bis 14). Im Allgemeinen gibt es kein direktes Mittel, quantitative Messungen der Vergangenheit in sichere Statements über die Genauigkeit zukünftiger Klimaprojektionen zu übersetzen. (Das ist ein politisch vollkommen bedeutungsloses Statement. Sagen sie damit, dass das Verhalten in der Vergangenheit keine Messgröße oder kein Prädiktor ihres zukünftigen Verhaltens ist? Also machen wir bitte weiter, vorwärts zu stolpern und Milliarden Dollar zu verschwenden, wenn das gesamte Problem unlösbar ist, weil es keine Daten gibt).

Die projizierte Änderung der globalen mittleren Temperatur wird wahrscheinlich (66% bis 100%) innerhalb der Bandbreite zwischen 0,3°C und 0,7°C liegen (mittleres Vertrauen). (Heißt das, sie sind sich zu 60% sicher, dass sie zu 50% recht haben?)

Klimamodelle haben sich seit dem AR 4 weiterentwickelt und verbessert, und viele Modelle wurden zu Modellen des Systems Erde erweitert, indem die Repräsentanz biogeochemischer Zyklen einbezogen wurden, die für Klimawandel bedeutsam sind. (Sie haben sich seit dem AR 4 nicht verbessert!) Diese Modelle gestatten es, politisch relevante Berechnungen wie etwa CO2-Emissionen durchzuführen, die mit einem speziellen Ziel der Stabilisierung des Klimas kompatibel sind. (Sie gestatten keine „politisch relevanten Berechnungen“, und sie haben sich nicht verbessert, weil sie in jeder erzeugten Projektion versagt haben).

Die Fähigkeit von Klimamodellen, die Temperaturen zu simulieren, haben sich hinsichtlich vieler, jedoch nicht aller Aspekte verbessert relativ zu den in AR 4 eingesetzten Modellen. (Wie viele Modelle haben sich verbessert, und wie viele werden gebraucht, um bedeutsam zu sein? Dies bestätigt, was am vorhergehenden Statement nicht stimmt).

Die Simulation der großräumigen Verteilung von Niederschlag hat sich seit dem AR 4 etwas verbessert, obwohl sich die Modelle weiterhin bzgl. Niederschlag schlechter verhalten als bzgl. Temperatur. (Es gibt praktisch keine Verbesserung. Dies ist eine erhebliche Untertreibung).

Die Simulation von Wolken in Klimamodellen bleibt eine Herausforderung. Es gibt sehr hohes Vertrauen, dass Unsicherheiten bei den Wolkenprozessen einen großen Teil des Spreads der modellierten Klimasensitivität erklären (Ein klassisches Beispiel Orwell’scher Doppeldeutigkeit [double talk]. Sie sind sich sehr sicher, dass sie unsicher sind.

Modelle sind in der Lage, die allgemeinen Charakteristika von Zugbahnen von Stürmen und außertropischen Zyklonen abzubilden, und es gibt einige Beweise der Verbesserung seit dem AR 4. Verzerrungen bzgl. der Zugbahn von Stürmen im Nordatlantik haben etwas abgenommen, aber die Modelle erzeugen immer noch eine Zugbahn, die zu stark zonal ausgerichtet ist, und sie unterschätzen die Intensität der Zyklonen. (Ja was denn nun? Sind sie besser geworden oder nicht? Ich vermute eher nicht. Sonst hätten sie es nämlich gesagt).

Viele bedeutende Zustände der Klimavariabilität und Phänomene innerhalb von Jahreszeiten oder von Jahreszeit zu Jahreszeit werden von den Modellen reproduziert mit einigen belegten Verbesserungen seit dem AR 4. (jene bedeutungslose Relativ-Messung. Die Verbesserung von fast nichts ist immer noch fast nichts). Die Statistik des globalen Monsuns, der Nordatlantischen Oszillation, der ENSO, des Indischen Ozean-Dipols und der Quasi-zweijährigen Oszillation QBO werden von vielen Modellen gut simuliert, obwohl diese Einschätzung abgeschwächt wird durch den begrenzten Umfang der bislang veröffentlichten Analysen oder durch begrenzte Beobachtungen. (Noch ein Beispiel Orwell’scher Doppeldeutigkeit: Die Modelle haben sich verbessert, außer da, wo sie sich nicht verbessert haben).

AGW-Befürworter und IPCC-Mitglieder machen die Öffentlichkeit glauben, dass sie über eine riesige Menge Daten verfügen zur Stützung ihrer Analyse, und sie behaupten, dass sie sich zu 95% sicher sind, dass menschliches CO2 globale Erwärmung verursacht. Sie verkünden auch, dass 97% aller Wissenschaftler dieser Schlussfolgerung zustimmen. Sie tun das mittels spezieller Statements, unterlassen es aber, die Güte der Daten zu untersuchen oder zu sagen, wenn sie wissen, dass sie falsch sind.

Die meisten Menschen, vermutlich mindestens 97%, haben die SPM nie gelesen, einschließlich Wissenschaftler, Politiker und die Medien. Vermutlich 99% aller Menschen haben nie den Science Report gelesen. Wie viele Menschen würden ihre Ansicht ändern, falls ihnen die o. g. Informationen unterkommen? Vielleicht ist das zu viel. Vielleicht ist all das notwendig für die Erfahrung, dass jede jemals vom IPCC erzeugte Projektion falsch war.

Dieser kurze und auszugsweise Blick auf das, was das IPCC selbst sagt, bestätigt den Vorwurf des Prof. Em. Hal Lewis, den er in seinem Brief anlässlich seines Rückzugs aus der American Physical Society im Oktober 2010 erhoben hat:

Der Betrug um die globale Erwärmung ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich je in meinem langen Leben als Physiker erlebt habe“.

Es ist in der Tat ein pseudowissenschaftlicher Betrug, weil es keinerlei Daten als Grundlage für irgendeine ihrer Arbeiten gibt. Die auserwählten Wissenschaftler, deren Aufgabe es war, die Objektive des IPCC hochzuhalten, der zufolge ,wissenschaftlich‘ bewiesen werden soll, dass menschliches CO2 ursächlich für globale Erwärmung ist, mussten die unpassenden realen Daten modifizieren oder eliminieren sowie falsche Daten erzeugen. Selbst wenn unter dem neuen Regime der Betrug bloßgestellt wird und ordentliche Wissenschaft und wissenschaftliche Verfahren wiederhergestellt werden, wird es sehr lange dauern, bis man die minimale Anzahl der erforderlichen Daten beisammen hat. Bis dahin ist alles nichts als eine Handbewegung. Allerdings gibt es genügend Beweise als Beleg, dass das Vorsorgeprinzip hier nicht anwendbar ist. Diese Beweise legen nahe, dass es sicherer ist, wenn wir gar nichts tun..

Link: https://wattsupwiththat.com/2017/01/29/ipcc-objectives-and-methods-mandated-elimination-reduction-manipulation-of-inadequate-real-data-and-creation-of-false-data/

Übersetzt von Chris Frey EIKE