1

Die Täuschung mit den Corona-PCR-Tests

Quelle nicht auffindbar

Corona, Corona und immer wieder Corona. Die Panikmache mit einseitigen Darstellungen geht weiter –  von der politischen Führung, von den Mainstream-Medien, von abhängigen Medizinern, von profitierenden Institutionen. Sie bestätigen sich gegenseitig, schaukeln sich gegenseitig hoch, ziehen die Freiheitsbeschränkungen in die Länge, wollen sie ausweiten. Die wesentlichen Fakten unterdrücken sie. Täglich verbreiten sie neueste Infektionszahlen, am liebsten steigende. Diese Infektionszahlen werden mit den sogenannten PCR-Tests ermittelt. Mit ihnen werden die Bürger massiv und vorsätzlich getäuscht, und die weit überwiegende Mehrheit lässt sich täuschen, jedenfalls in Deutschland.

Was alles die Bürger meist nicht wissen

Die Bürger wissen meist nicht, dass die steigenden Infektionszahlen darauf beruhen, dass immer mehr Personen getestet werden. Sie wissen meist nicht, dass so gut wie nur solche Personen getestet werden, die gar keine Grippe-Symptome zeigen. Sie wissen meist nicht,  dass diese PCR-Tests für die Infektionsdiagnose gar nicht vorgesehen und geeignet sind. Sie wissen meist nicht, dass PCR-Tests, die positiv ausfallen, eine Infizierung nur suggerieren (sollen). Sie wissen meist nicht, dass positiv getestet nicht auch infiziert bedeutet. Sie wissen kaum, dass infiziert nicht auch erkrankt bedeutet.

Immer mehr Mediziner und andere kritische Bürger melden sich zu Wort und klären auf.

Sie wissen meist nicht, dass gegenwärtig von den rund 83 Millionen Einwohnern Deutschlands nur 1,1% als infiziert gelten.*) Sie wissen meist nicht, dass rund 10 Prozent der „Infizierten“ auch wirklich erkranken. Sie wissen inzwischen vielleicht, dass der Krankheitsverlauf sehr unterschiedlich ausfällt (von leicht bis sehr schwer) und nur in den wenigsten Fällen zum Tod führt. Rund 90 Prozent der „Infizierten“ zeigen keine Symptome, erkranken also nicht. Auch vieles andere wissen die Bürger meist nicht, weil es ihnen vorenthalten wird. Aber immer mehr Mediziner und andere kritische Bürger melden sich zu Wort und klären auf. Die Belege sind erdrückend.

Gesundheitsexperten aus aller Welt appellieren gegen die Corona-Beschränkungen

Zu verweisen ist vor allem auf die „Große Barrington Deklaration“. Gesundheitsexperten aus aller Welt fordern mit ihr dazu auf, die Coronavirus-Sperren zu beenden. Sie kritisieren, dass die Abriegelungen „irreparablen Schaden“ anrichten. Unter anderem schreiben sie: „Als Epidemiologen für Infektionskrankheiten und Wissenschaftler im Bereich des öffentlichen Gesundheitswesens haben wir große Bedenken hinsichtlich der schädlichen Auswirkungen der vorherrschenden Covid-19-Politik auf die physische und psychische Gesundheit.“ Würden diese Maßnahmen beibehalten, bis ein Impfstoff zur Verfügung stehe, würden sie irreparablen Schaden verursachen, wobei die Unterprivilegierten unverhältnismäßig stark betroffen seien.

Über 20 000 Wissenschaftler und Ärzte haben den Appell unterzeichnet

Stattdessen schlagen die Fachleute vor: „Der einfühlsamste Ansatz, bei dem Risiko und Nutzen des Erreichens einer Herdenimmunität gegeneinander abgewogen werden, besteht darin, denjenigen, die ein minimales Sterberisiko haben, ein normales Leben zu ermöglichen, damit sie durch natürliche Infektion eine Immunität gegen das Virus aufbauen können, während diejenigen, die am stärksten gefährdet sind, besser geschützt werden. Wir nennen dies gezielten Schutz (Focused Protection).“  Die Deklaration verfasst haben am 4. Oktober 2020 der Professor für Medizin und Epidemiologie Dr. Martin Kulldorf (Universität Harvard), der Professor für Epidemiologie Immunologie Dr. Sunetra Gupta (Universität Oxford) und Prof. Dr. Jay Bhattacharya (Universität Stanford) in Great Barrington (USA). Unterzeichnet haben bisher (Stand Oktober 2020) 7 552 Wissenschaftler, 17 498 von Ärzten und 270 655 Personen aus der sonstigen Bevölkerung. Der ganze Text hier.

Als missbräuchlich haben vier Medizin-Professoren in Wien den Umgang mit den PCR-Tests kritisiert

Gewarnt haben in Wien am 7. Oktober 2020 vier Medizin-Professoren. Die Corona-Gefahr werde völlig überzogen dargestellt, die Maßnahmen seien nicht evidenzbasiert, ihre Folgen wesentlich gefährlicher  als das Virus selbst. Ihre Kritik richtet sich besonders gegen die soziale Isolierung, gegen die Maskenpflicht  und gegen den missbräuchlichen Umgang mit den PCR-Tests. Es ist der Professor für Allgemeinmedizin Andreas Sönnichsen (Medizinische Universität Wien, der Facharzt für Hygiene und Mikrobiologie, Infektiologie und Tropenmedizin Prof. DDr. Martin Haditsch, der Allgemeinmediziner und Facharzt für Gynäkologie und Geburtshilfe DDr. Christian Fiala und der Psychoneuroimmunologe und Universitätsprofessor Dr. Dr. MSc. Christian Schubert. Sie informierten auf Einladung der Initiative für eine evidenzbasierte Corona-Information (ICI). Was sie äußern, finden Sie hier.

Ein Krankenhaus-Arzt klärt Demo-Teilnehmer darüber auf, was positive Tests bedeuten und was nicht

Auf einer Demo spricht ein Krankenhausarzt. Er kritisiert, wie die Menschen seit Monaten mit Zahlen so verängstigt werden, indem man die wichtigen Teile der Zahlen weglässt. Er schildert in einfachen Worten, wie das mit dem Abstrich ist, was eine Infektion ist und warum ein Abstrichfund noch nichts darüber aussagt, ob man infiziert ist und krank wird. Er bemängelt, dass nur die Zahl der positiven (PCR-)Testergebnisse veröffentlich werden, nicht aber die der negativen. „Sind 99 Prozent positiv und nur 1 Prozent negativ, oder sind umgekehrt nur 1 Prozent positiv und 99 Prozent negativ. Diese Zahlen werden überhaupt nicht erhoben.“

Der Arzt erläutert bei den Tests verzerrte Darstellung

Was ebenfalls nicht gefragt werde: warum denn die Leute ins Testzentrum gegangen seien. „Sind das zwei Rentner gewesen, die gesagt haben: Wir treffen uns zu einem Spaziergang, und bei der Gelegenheit lassen wir uns mal abstreichen. Was ich damit sagen will: Waren die also gesund und hatten überhaupt keine Beschwerden und sind da eben nur mal hingegangen. Oder waren da Leute im Testzentrum mit 40 Grad Fieber, Schüttelfrost, Kopf- und Gliederschmerzen, Husten, Naselaufen? Aber ich frage Sie: Wenn Sie morgens aufwachen, Sie haben 40 Grad Fieber, und Sie haben Naselaufen – wo gehen Sie dann hin? Gehen Sie ins Testzentrum oder gehen Sie ins Krankenhaus? Das heißt, wenn jemand krank ist und von gesundem Menschenverstand, der geht zum Arzt und nicht ins Testzentrum. Das verzerrt also diese Daten völlig.“

Der Arzt rät: Erkältete nicht umarmen, häufiger die Hände waschen, gesunden Menschenverstand anwenden. Das reicht.

Ähnlich anschaulich klärt dieser Arzt darüber auf, wann eine Krankheit selten ist, was die Inzidenzzahl wirklich bedeutet, warum Krankenhäuser in Ländern wie Italien, Frankreich oder USA mit Corona-Kranken voll sind, in Deutschland aber nicht, und dass die Covid-19-Erkrankungen nicht so häufig seien „wie es uns weisgemacht wird“. Er wolle nicht verharmlosen, dass diese Krankheit schwer verlaufen könne, nur, es werde übertrieben, und es sei nicht gerechtfertigt, diese Maßnahmen wegen dieser Erkrankung in ihrer Häufigkeit hier in Deutschland so zu dramatisieren. Er empfiehlt seinen Zuhörern: Schützen Sie sich vor dieser Art von Grippe, wie Sie sich jedes Jahr vor jeder anderen Grippe zu der jedes Jahr auftretenden Grippewelle schützen wollen: Umarmen Sie keine Leute, die Husten, Schnupfen, Heiserkeit haben, waschen Sie sich häufiger die Hände und wenden Sie einfach gesunden Menschenverstand an. Das reicht.“ Seinen Auftritt anschauen können sie sich hier.

Einstiger Pfizer-Vizepräsident Mike Yeadon: Testen ist kontraproduktiv

Pfizer ist der zweitgrößte Pharmakonzern der Welt. Dessen Ex-Vizepräsident Dr. Mike Yeadon war dort Leiter der Forschungsabteilung für Lungenkrankheiten und Allergien. Der Brite äußerte sich so: „Heute sind wahrscheinlich mehr als die Hälfte der positiv Getesteten gar nicht positiv. Und von den gefundenen Infizierten sind längst nicht alle noch ansteckend.“ Yeadon bezieht sich auf Großbritannien, wo im September je 100 000 Einwohner dreimal so viele Personen getestet wurden wie in der Schweiz. Der Slogan „testen, testen, testen” sei kontraproduktiv. Yeadon weiter: „Wenn das Fernsehen nicht ständig Fallzahlen der Getesteten verbreiten würde, käme man aufgrund der Hospitalisierungen und der Todesfälle zum Schluss, dass die Pandemie im Wesentlichen vorbei ist. Es gibt keine wissenschaftlichen Daten, die auf eine zweite schwere Welle hinweisen.“ (Stand 12.Oktober 2020, Quelle hier).

Yeadon: Die Politik stützt sich auf komplett falsche Coronavirus-Daten

Im Interview mit Talk-Radio London spricht sich Yeadon deutlich gegen den Umgang der britischen Regierung mit dem Coronavirus aus: „Wir stützen eine Politik, eine Wirtschaftspolitik, eine Politik zur Einschränkung der Menschenrechte, auf komplett falschen Coronavirus-Daten.“ Er warnt vor der falschen Interpretation der Testergebnisse: „Tests zu benutzen, die die falschen Positiv-Erkennungen nicht zeigen, ist schrecklich. Wer das nicht weiß, soll sich schämen. … Fast jeder positive Corona-Test seit Mai ist falsch. Nicht nur ein Viertel, sondern 90 Prozent.“ Mit dem PCR-Test werde der Versuch unternommen, einen Strang vom lebendigen Virus-Code zu bekommen, erklärt Yeadon in seinem Blog mit dem Titel „Lies, Damned Lies and Health Statistics – the Deadly Danger of False Positives“  (hier). Der Test könne aber nicht zwischen einem lebenden Virus und einem kurzen DNA-Strang vom Virus unterscheiden, das vor Wochen oder Monaten bereits zerfallen und virologisch nicht mehr relevant sei. Beim Coronavirus handle es sich um ein neuartiges Virus, das aber sehr eng mit mindestens vier anderen Viren verwandt sei, die frei in der Bevölkerung zirkulierten. Sie alle seien Coronaviren und trügen zu Erkältungen bei. (Der ganze Bericht von Sven Hellmann über das Interview hier). Was Yeadon der britischen Regierung hinter die Ohren schreibt, gilt nicht minder für die deutsche.

Der PCR-Testhersteller Creative Diagnostics warnt: Test für die Diagnose nicht geeignet

Der Hersteller der PCR-Test-Kits “SARS-CoV-2 Coronavirus Multiplex RT-qPCR Kit (CD019RT)”, die Firma Creative Diagnostics (CD), warnt auf dem Beipackzettel (hier) ausdrücklich:  “This product is for research use only and is not intended for diagnostic use.” Creative Diagnostics gilt als führender Hersteller und Anbieter von Antikörpern, viralen Antigenen, innovativen diagnostischen Komponenten und kritischen Assay-Reagenzien. Im letzten Abschnitt der Zettels „Limitations“ ist im Einzelnen dargestellt, dass der Test alleine keine hinreichende Aussagekraft hat, sondern nur im Zusammenwirken mit anderen Untersuchungen gewisse Hinweise geben kann. Genau das geschieht aber in der Praxis nicht, die Testergebnisse werden als absolut aussagekräftige Grundlage für massive Einschränkungen aller Art verwendet.

Wahrscheinlichkeit der Ansteckung in der Öffentlichkeit außerordentlich gering

Aber auf derart falscher Grundlage werden ständig vermeintlich Infizierte ermittelt. Und für jene relativ wenigen, die tatsächlich infiziert sind und dann an Covid-19 auch erkranken, gilt die Erfahrungstatsache, dass die allermeisten von ihnen nur leichte bis mittelschwere Symptome haben und wieder gesund werden, ohne dass sie eine besondere ärztliche Behandlung benötigen. Ohnehin ist dieser Promille-Anteil der Infizierten im wesentlichen auf die älteren Jahrgänge konzentriert, die sich überwiegend in Altersheimen, Pflegeheimen, im häuslichen Umfeld bewegen oder unter Quarantäne stehen. Die Wahrscheinlichkeit, sich in der Öffentlichkeit mit dem Virus anzustecken, ist demnach außerordentlich gering.

Das Sentinel-System von RKI und AGI

Doch der Fehlinformation und Täuschung damit noch nicht genug: Das Info-Portal RT Deutsch (RT-steht für Russia Today) hat am 11. September dies berichtet: „Das RKI veröffentlicht nicht nur täglich Zahlen der positiv Getesteten. Es besitzt Daten aus Überwachungssystemen für Atemwegserkrankungen, die donnerstags in den täglichen Lageberichten veröffentlicht werden. Die Arbeitsgemeinschaft Influenza (AGI, hier ) wertet die Proben aus, die atemwegserkrankten Menschen in Referenzpraxen in ganz Deutschland entnommen und in Laboren auf verschiedene Viren getestet werden.“ Dieses Sentinel-System bestehe schon seit Jahren (Sentinel = Überwachung). Im aktuellen Influenza-Monatsbericht (hier) von Anfang September heißt es (Seite 4 des Berichts):

RKI: Seit Mitte April SARS-CoV.2 im Sentinel nicht mehr nachgewiesen

„Seit der 8. KW 2020 werden die AGI-Sentinelproben bei Probeneingang am RKI auch auf SARS-CoV-2 untersucht. Durch nachträgliche Analysen zuvor eingesandter Sentinelproben wurden Daten für die gesamte Saison generiert. Seit der 40. KW 2019 wurden damit bisher 4.132 Sentinelproben auf SARS-CoV-2 untersucht. Insgesamt wurde in 13 (0,3 %) Proben SARS-CoV-2 nachgewiesen. Alle SARS-CoV-2-Nachweise erfolgten im Zeitraum zwischen der 10. bis 15. KW 2020. Seit der 16. KW 2020 wurde kein SARS-CoV-2 im Sentinel detektiert.“ Also nicht mehr festgestellt, nicht mehr bemerkt, nicht mehr nachgewiesen.

Wo ist das SARS-CoV-2-Virus geblieben?    

Dieser letzte Befund, dass SARS-CoV-2 seit April nicht mehr in den Proben habe nachgewiesen werden können, finde sich, so RT Deutsch,  seit Monaten in zahlreichen Veröffentlichungen des RKI, wie in dem „Täglichen Lagebericht“ vom 3. September (hier, Seite 11): „Seit der 16. KW 2020 gab es in den Sentinelproben keine Nachweise von SARS-CoV-2 mehr.“ RT Deutsch: „Bei Einführung der Maskenpflicht Ende April war das Virus aus den Proben der Atemwegserkrankten also bereits verschwunden.“ (Der ganze RT-Bericht hier). Auch im jüngsten AGI-Wochenbericht (14. bis 20. November, Link Diagramme, hier) ist das Virus verschwindend gering vertreten. Nicht anders in den unmittelbaren Wochen davor. (Alle Wochenberichte hier). Wo also ist das SARS-CoV-2-Virus geblieben?

Wer hohe Fallzahlen braucht, hat mit dem PCR-Test das geeignete Instrument

Zu jenen Bürgern, die sich in Sachen Corona kundig gemacht haben, gehört der Verleger Michael Hauke. Unter der Überschrift Der PCR-Test darf nicht für Diagnosezwecke verwendet werden schreibt er unter anderem: „Wer das Ziel hat, hohe Fallzahlen zu veröffentlichen, egal ob es wirklich Kranke gibt, hat mit dem PCR-Test das geeignete Instrument dazu, wenn er gleichzeitig massenhaft testen lässt. Alle Verantwortlichen in der Politik kennen die Überempfindlichkeit des Tests, die zu riesigen Zahlen falsch-positiver Ergebnisse führt. Die Hersteller warnen ausdrücklich davor, den PCR-Test zu verwenden, um eine Diagnose zu stellen.“ Hauke nennt Beispiele, was in den Beipackzetteln der Test-Kits steht.**)

PCR-Test-Erfinder Kary Mullis: Der Test sagt ihnen nicht, dass Sie krank sind

Hauke zitiert auch den  Erfinder des PCR-Tests, den Nobel-Preisträger für Chemie Kary Mullis (1944 bis 2019). Dieser habe immer wieder auf dieses hingewiesen „It doesn’t tell you that you are sick! And with PCR, if you do it well, you can find almost anything in anybody!“ („Der PCR-Test sagt Ihnen nicht, dass Sie krank sind! Und mit PCR kann man, wenn man es richtig anstellt, fast alles bei jedem finden!“). Genau das aber, so Hauke,  werde jede Woche millionenfach getan. Hier handele keiner fahrlässig, sondern wohlüberlegt und daher vorsätzlich.

Virologe Drosten 2014: Der Test meldet auch Menschen als infiziert, die eigentlich kerngesund sind

Hauke zitiert ferner den von Merkel bevorzugten Virologen Prof. Dr. Christian Drosten aus einem Gespräch mit der Wirtschaftswoche vom 16. Mai 2014. In ihm hat sich Drosten zu einer Mers-Epidemie auf der arabischen Halbinsel geäußert. Diese Epidemie wurde mittels PCR-Tests festgestellt. Drosten sagt zu den PCR-Tests: „Die Methode ist so empfindlich, dass sie ein einzelnes Erbmolekül dieses Virus nachweisen kann. …  Wo zuvor Todkranke gemeldet wurden, sind nun plötzlich milde Fälle und Menschen, die eigentlich kerngesund sind, in der Meldestatistik enthalten. … Es wäre sehr hilfreich, wenn die Behörden in Saudi-Arabien wieder dazu übergehen würde, die bisherige Definitionen der Krankheit einzuhalten. Denn was zunächst interessiert, sind die echten Fälle. Ob symptomlose oder mild infizierte Krankenhausmitarbeiter wirklich Virusträger sind, halte ich für fraglich. Noch fraglicher ist, ob sie das Virus an andere weitergeben können.“ (Quelle hier).

Obwohl für die Diagnose nicht verwendbar, dienen die PCR-Tests als Grundlage aller Beschränkungen

Als Schlussfolgerung stellt Hauke fest: „Der Erfinder wusste es, die Hersteller wissen es, Drosten weiß es, Spahn und Merkel wissen es: Der PCR-Test darf nicht für das Stellen einer Diagnose verwendet werden! Wer es dennoch tut, der baut die Pandemie-Zahlen (und damit die Pandemie) auf einer Lüge auf. Wenn es um eine belanglose Statistik ginge, könnte man über diese Methode den Kopf schütteln. Aber es geht um die Freiheit von uns allen! … Die Ergebnisse aus den PCR-Tests sind die Grundlage aller ‚Maßnahmen‘, insbesondere der Maskenpflicht, der Abstandsregeln und der Reiseverbote, die ganze Branchen und den Einzelhandel (insbesondere in den verwaisten Einkaufszentren) in den Ruin führen. Und die Ergebnisse des PCR-Tests wurden von Anfang an als Argument der Politik benutzt, um die Grundrechte einzuschränken.“ Dann fordert er dazu auf, sich Paragraph 32 des Infektionsschutzgesetzes genau durchzulesen, wonach welche Grundrechte eingeschränkt oder aufgehoben werden können.***)

Unternehmer Lewin Berner: Öffentliche Medien als neutrale Quellen auch diesmal ein Komplettausfall

Der mittelständische Unternehmer Lewin Berner meint: „Leider sind die öffentlichen Medien als neutrale Quellen auch dieses Mal ein Komplettausfall. Es bleibt einem daher nichts anderes übrig, als sich selbst mit den Primärquellen zu beschäftigen und die Zahlen im Kontext zu betrachten.“ Und das tat er dann auch. Unter dem Datum 27. Oktober 2020 schreibt er:

Der Test ist so sensitiv, dass er Personen als corona-positiv identifiziert, die gar nicht infiziert sind

„Die Mutter aller Probleme stellt der  PCR-Test dar. Dieser nicht für diagnostische Zwecke entwickelte und nicht regulär zugelassene Test weist DNA/RNA auf molekularer Ebene nach. Knackpunkt ist hier die Anzahl der Vervielfältigungszyklen (bis zu 40) , die nur teilweise von den Laboren weitergegeben bzw. auf dem Test ausgewiesen werden. Man weiß bei positivem Test nicht, ob tatsächlich Viren, ein Virus oder Fragmente davon gefunden wurden. Bedeutet: der Test sagt nichts über die Viruslast, im Gegenteil: er ist so sensitiv, dass er Patienten als corona-positiv identifiziert, die gar nicht infiziert sind. Das RKI nennt positiv getestete Patienten gleichwohl ‚infiziert‘, die Medien machen daraus ‚erkrankt‘. … Die Zahl der positiven PCR-Tests kann allenfalls als ein Frühindikator von vielen gelten, er wird aber von Politik und Medien als einzig wichtiger Gradmesser für alles missbraucht. Prof. Streek empfiehlt seit langem, andere Indikatoren beizuziehen, dringt damit aber nicht durch.“

Die Zahlen rechtfertigen die Eingriffe in die Grundrechte nicht

Berner stellt im Corona-Zusammenhang eine ganze Reihe von Betrachtungen an (siehe hier) und resümiert dann, im Ergebnis finde er in den Zahlen nichts, das die von Politik und Medien geschürte Panik und die unverhältnismäßigen Eingriffe in die Grundrechte in keiner Weise rechtfertigen würde. „Es drohen weitere Kollateralschäden durch eine irrlichternde, psychotische Politik. Die bereits im ersten Quartal durchgeführten und nun ein weiteres Mal angedrohten Maßnahmen vernichten Abermilliarden privates und öffentliches Vermögen, destabilisieren Staat und Gesellschaft, ruinieren die öffentlichen Finanzen und Sozialkassen und führen ganze Wirtschaftszweige in den Untergang.“ Wohl sei es richtig und wichtig, die wenigen tatsächlich Gefährdeten effektiv zu schützen. Aber: „Die ganze Gesellschaft in Geiselhaft zu nehmen und das dazu noch mit mehr oder weniger wirkungslosen bzw. ineffektiven und weitgehend ungeeigneten Mitteln, ist ein völliger Wahnsinn und stellt eine  Urteilsschwäche und ein Führungsversagen unserer politischen Eliten dar, für das es keine historische Parallele gibt.“

Mit den PCR-Tests wird herbeigeschwindelt, was nicht besteht und trotzdem zu massiven Eingriffen benutzt wird

Die Sachlage ist eindeutig. Die politische Führung und ihre Gefolgschaft täuschen mit den PCR-Tests und den präsentierten Infektionszahlen eine übermäßige Massenerkrankung und eine Pandemie vor, die nicht besteht, nur herbeigeschwindelt wird und die Beschränkungsmaßnahmen nicht rechtfertigt. Gleichwohl ordnen die politischen und staatlichen Organe unter Berufung auf eben diese Testergebnisse massive Eingriffe in das Wirtschaftsleben und in die Bewegungsfreiheit der Bürger an. Die meisten von ihnen, weil indoktriniert, lassen sich das (bisher noch) bieten und im Wesentlichen klaglos gefallen.

Weil trotz Untauglichkeit zur Begründung verwendet, verstoßen die staatlichen Anordnungen gegen das Gebot der Verhältnismäßigkeit und gegen das Übermaßverbot

Quelle: Von einem Freund zugeschickt****)

Der Bundestag, erst jüngst und verspätet in die Entscheidungsfindung einbezogen, hat mit der Mehrheit von CDU und SPD das rigorose Vorgehen abgenickt und damit gegen die Interessen ihrer Wähler verstoßen, von denen aber die meisten den Verstoß wohl gar nicht erkennen wollen, jedenfalls noch nicht. Wegen der untauglichen, aber zur Begründung benutzten PCR-Tests verstoßen die staatlichen Anordnungen gegen das Gebot der Verhältnismäßigkeit und gegen das Übermaßverbot. Beide sind verfassungsrechtlich zu beachten. Sie werden daher juristisch aufzuarbeiten sein und, soweit möglich, auch zu ahnden. Ein politisches Nachspiel wird dann folgen – ein dankbares Feld vor allem für die AfD. Wird diese in Bund und Ländern einzige wirkliche Oppositionspartei diese große Chance zu nutzen verstehen? Bisher hat man diesen Eindruck nicht. Doch mag das daran liegen, dass die „Leidmedien“ über die AfD-Aktivitäten, wo immer möglich und wenig auffällig, nicht berichten – zum Beispiel nicht über diese mit Fakten gespickte Rede von Robert Farle (AfD), gehalten im Landtag Sachsen-Anhalt am 20. November (hier).

PS. Wenn Sie bis hierhin weitergelesen und jetzt so eine richtige Wut im Bauch haben, dann schauen und hören Sie sich den treffenden Kommentar von Jörg Zajonc an, dem Chefredakteur von RTL West. Kurz, knackig und für Corona-Politiker schmerzhaft – dauert 1 Minute und 36 Sekunden: hier

_________________________________________________________

*)  Das Robert-Koch-Institut (RKI) zählt seit Beginn der Pandemie insgesamt 942 687nachgewiesene Infektionen. Lagebericht des RKI vom 24. November 2020 (hier). Bezogen auf die Bevölkerungszahl von rund 83 Millionen sind das 1,135 Prozent. Die täglichen RKI-Lageberichte zur Coronavirus-Krankheit-2019 (COVID-19) finden Sie hier.

**)  Bei RealStar von Altona Diagnostics heißt es: „Nur für Forschungszwecke! Nicht für diagnostische Verfahren geeignet.“

Bei Creative Diagnostics steht im Beipackzettel des Multiplex RT-qPCR Kit: „Dieses Produkt ist nur für den Forschungs- und nicht für einen diagnostischen Gebrauch bestimmt.“

Roche schrieb in der Ankündigung des Testsets LightMix Modular Assays: „Diese Tests sind nicht zur Verwendung als Hilfsmittel zur Diagnose einer Coronavirusinfektion bestimmt. Nur für Forschungszwecke. Nicht für den Gebrauch in diagnostischen Verfahren.“

***) „In § 32 des Infektionsschutzgesetzes hat der Gesetzgeber das exakt geregelt. Lesen Sie sich bitte im folgenden die dort aufgeführten Grundrechte genau durch, und fragen Sie sich bei jedem einzelnen eingeschränkten oder aufgehobenen Grundrecht, was das mit Gesundheitsschutz zu tun haben könnte, insbesondere bei der Unverletzlichkeit der Wohnung und dem Postgeheimnis: „Die Grundrechte der Freiheit der Person (Artikel 2 Abs. 2 Satz 2 GG), der Freizügigkeit (Artikel 11 Abs. 1 GG), der Versammlungsfreiheit (Artikel 8 GG), der Unverletzlichkeit der Wohnung (Artikel 13 Abs. 1 GG) und des Brief- und Postgeheimnisses (Artikel 10 GG) können insoweit eingeschränkt werden.“

****)  Vollständig lautet das Heineman-Zitat: „Die Grundlage der Demokratie ist die Volkssouveränität und nicht die Herrschaftsgewalt eines obrigkeitliches Staates. Nicht der Bürger steht im Gehorsamsverhältnis zur Regierung, sondern die Regierung ist dem Bürger im Rahmen der Gesetze verantwortlich für ihr Handeln. Der Bürger hat das Recht und die Pflicht, die Regierung zur Ordnung zu rufen, wenn er glaubt, dass sie demokratische Rechte missachtet.“

Der Beitrag erschien zuerst auf dem Blog des Autor hier




Zweifelhafte Corona-Tests – und wie Panik geschürt wird

Dies zeigt einmal mehr, dass jeder Test mit dem Problem der falsch positiven Ergebnisse zu kämpfen hat. Diese fallen bei sehr niedriger Infektionsrate (Prävalenz) dann enorm ins Gewicht. Infolge dürfte ein beträchtlicher Teil der aktuell gemessenen positiven Fälle gar nicht infiziert sein. Das hält aber Politik und Medien nicht davon ab, die Bevölkerung weiter in die Irre zu führen und die nächste Welle zu konstruieren. Es wird weiterhin von Infizierten gesprochen (wie zum Beispiel hier), die in Wirklichkeit eben nur positiv getestet und in erheblichem Maße falsch positiv sind.

Einschub der Redaktion

„Der PCR-Test zeigt nur die Nukleinsäuren an, nicht das Virus, er kann keine Infektion nachweisen.

Der PCR-Test kann nicht nachweisen, ob das Virus replikationsfähig ist, sich in dem Wirt tatsächlich vermehrt und ob der Mensch damit ursächlich krank wird. Wenn beim PCR-Test auf der Oberfläche des Abstrichs diese Virus-RNA ist, heisst das noch nicht, dass es in den Zellen drin ist und ob eine intakte vermehrungsfähige Viruslast vorhanden ist.“

(Prof. Dr. Ulrike Kämmerer, Virologing und Immunologin, Uni Würzburg)

Es werden weiterhin ansteigende Zahlen genannt, ohne diese ins Verhältnis zu den ansteigenden Testzahlen insgesamt zu setzen. Und es wird ein R-Wert errechnet, obwohl dies unter diesen Voraussetzungen schlicht unseriös ist. Dies kann man nicht mehr Unwissen nennen, sondern bewusste Täuschung, um die Panik am Leben zu halten. Tatsächlich Erkrankte hingegen gibt es verschwindet wenige. Ca. 230 Intensivpatienten mit Diagnose Covid-19, mit unbekanntem Durchschnittsalter und Vorerkrankungen, sind alles andere als eine nationale Bedrohung.

Die neueste Absurdität im Testtheater ist diese Handelsblatt-Meldung: „900 positiv Getestete nicht informiert: Söder kehrt nach Bayern zurück“.

Wenn 60.000 symptomfreie Urlaubsrückkehrer an der bayrischen Grenze getestet werden und 1,5 Prozent positive Fälle dabei herauskommen, dann liegt der Skandal, wie das Handelsblatt meint, nicht darin, dass diese Menschen zu spät informiert wurden, sondern dass Behörden und das Handelsblatt bei diesen positiv Getesteten von Infizierten sprechen. Nochmal, bei diesen wurden ein Virustrümmerstück und kein aktives Virus auf der Schleimhaut festgestellt durch einen Test, der nicht zu 100 Prozent SARS-CoV-2 spezifisch ist. Aufgrund weiterer Fehlerquellen stellt ein Großteil dieser Menschen überhaupt keine Infektionsgefahr dar. Man könnte Marsmenschen, die vom Besuch der Venus zurückkehren, testen und würde ebenfalls positive Fälle feststellen.

Der Beitrag erschien zuerst auf ACHGUT hier




Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1

Weil es so exemplarisch ist und Klimaskeptikern drastisch vor Augen führt, dass Deutschland in aller Regel immer erst nach einem (finanziellen) Untergang zur Vernunft kommt, eine längere Ausführung darüber.

Sechs Personen mit der festen Überzeugung: Das CO2 ist unserer bekannten Welt ihr Untergang, gelenkt durch einen klimagläubigen Moderator, angestachelt durch einen Professor der Klimaapokalypse, unterstützen und beweihräuchern sich im Klimakampf

In der Schule gibt es Themaverfehlung. Ein „Öffentlicher“ ist zum Glück darüber hinweg und so kann der GRÜNE Propagandasender mit Namen BR eine Runde einberufen, in welcher viel geredet, das angegebene Thema zu Bayern jedoch fast unberücksichtigt bleib. Außer jemand ist wie die BR-Redaktion – und die Teilnehmer – der Meinung, das Alarmgeschrei des Augsburger „Klimaforschers“ würde die Klimawirklichkeit in Bayern beschreiben.

Bild 1 BR Mediathek Screenshot. Link zur BR Mediathek

– Professor Clemens Fuest, Präsident des ifo-Instituts
– Thomas Kreuzer, Vorsitzender der CSU-Fraktion im Bayerischen Landtag (Jurist)
– Harald Kunstmann, Klimaforscher, Universität Augsburg
Katharina Schulze, Grünen-Fraktionschefin im Bayerischen Landtag, Studium: Interkulturelle KommunikationPolitikwissenschaft und Psychologie.

Ein Professor klärt auf

Bild 2 Link zum YouTube-Video

Wie üblich, kommt zu Beginn ein Einspieler. Schlimme Fluten im Alpenvorland und um Simbach, sowie die Kommentare Betroffener zeigen: Bayern ist vom Klimawandel ganz, ganz schlimm getroffen. Nur wie weit der Klimauntergang gerade noch entfernt ist, fehlt.
Die Stimme berichtet: … Katastrophen wie diese nehmen zu. Erdrutsche, Überschwemmungen, Hitze und Dürre. Der Klimawandel trifft uns mit voller Wucht. Wie können wir uns schützen? Was kommt noch auf uns zu? Und: Wie gefährlich wird der Klimawandel für Bayern?

Den Anfang macht Klimaforscher Professor Harald Kunstmann aus Augsburg.
Moderator: Wird das die neue Zukunft in Bayern? Dürre in Franken und abrutschende Berghänge im Süden?
Prof. Kunstmann: Ja wir sehen tatsächlich eine Vielzahl von Klimaänderungen. Wir sehen für die Vergangenheit, sehen wir sehr viele sogenannte „laute“ Klimaänderungen. Dazu zähle ich zum Beispiel die Starkregenereignisse. Wir sehen also eine Häufung der Anzahl der Tage von Starkregen. Wir sehen gleichzeitig auch eine Häufung von großen, starken Hochwasserereignissen. Also die Häufung zum Beispiel innerhalb von weniger Jahre mehrere, sogenannte Hundertjährige Hochwasser. Dann sehen wir auf der anderen Seite aber auch sogenannte, „leise, stille“ Veränderungen. Zum Beispiel dass der Blattaustrieb und die Vegetation teilweise Wochen früher beginnt. Wir sehen auch hier im Alpenraum den Rückgang der allerletzten verbliebenen Gletscher die wir in Deutschland haben, zum Beispiel auf der Zugspitze und auch in Berchtesgaden.

Zu den leisen Klimaänderungen würde ich aber gerne auch die Trockenheit zählen, die wir grad seit dem Sommer 2018 so massiv erlebt ham. Und die uns ins Bewusstsein gerufen hat, dass auch wir in Bayern, wo wir gedacht ham, wir sind eigentlich in einem vergleichsweise wasserreichen Land, doch auch von Dürren und all ihren Auswirkungen auf die Landwirtschaft und die Forstwirtschaft betroffen sein können … Also wir sehen eine Vielzahl von Auswirkungen.

Moderator: Wir blicken in die Alpen. Was richtet da der Klimawandel an?
Wieder Einspieler von Unwetterereignissen

Stimme: … in den Bayerischen und österreichischen Alpen häufen sich solche Erdrutsche. Egal ob Berchtesgaden, Garmisch oder Tirol, sogenannte Murgänge sind für Wanderer und Anwohner eine Bedrohung … Für die Bewohner der Alpen: Ein Wettlauf gegen die Zeit … Am Plansee (Zugspitze) haben sich Intensität und Zahl von 1980 – 2014 gegenüber 1947 – 1979 verdreifacht … Wie gefährlich wird das Leben in den Alpen?

Moderator an Prof. Kunstmann: … werden die Alpen zu einer Gefahrenzone?
Prof. Kunstmann: Also man muss unterscheiden zwischen den sehr hohen Lagen in den Alpen und den etwas niedrigeren Lagen in den Alpen.
In den hohen Lagen … wo der Permafrost auftaut, werden die Instabilitäten in den Bergen vergleichsweise gut überwacht …. da hätte ich jetzt weniger Bedenken, denn da gibt es Vorwarnzeiten.
Was wir hier im Voralpenraum sehen, … wo aufgrund von Starkregenereignissen in kurzer Zeit massive Murenereignisse abgegangen sind. Auf so etwas müssen wir uns tatsächlich häufiger einstellen. Wir müssen uns einstellen, dass die Gefahre, die durch kurze, schnelle Niederschlagsereignisse kommen, zunehmen. Insbesondere zum Beispiel die Gebirgsbäche, das erleben wir auch direkt in der Gegend, die können in ganz kurzer Zeit explodieren und stellen dann eine große Gefahr für den Wanderer dar.
Man muss aber dazu sagen, dass wir gerade mit der modernen Technik, den Smartphones uns mittlerweile sehr gut informieren können …

Doch der Professor sagt das Wichtigste nicht …

Wenn heutzutage ein Professor „öffentlich“ irgend etwas erzählt, muss man immer nachsehen, wie er seine Forschungsmittel generiert. In aller Regel erklären sich dann sofort seine „Zielrichtungen“ der Aussagen. Bei Professor Kunstmann ist es nicht anders.

Er ist sozusagen Bayerischer Klima-Apokalypse-Reisender; macht lokal also ungefähr das, was das PIK global durchführt. Und selbstverständlich ist entsprechend eine ganz große Leidenschaft die Klimasimulation:

Bild 3 Prof. Kunstmann, Wirkungsfeld

Kurz auf den Punkt gebracht: Von diesem Professor ist keinerlei unvoreingenommene Aussage zum Klima zu erwarten. Eine solche würde einmal seine sorgfältig aufgebaute Reputation – (zer-)stören und sein Institut fast überflüssig machen.

Im Alpenvorland nehmen die Extremniederschläge gar nicht zu

Der Autor versucht es an anhand von Beispielen zu zeigen:

Prof. Kunstmann behauptet: … Ja wir sehen tatsächlich eine Vielzahl von Klimaänderungen … Dazu zähle ich zum Beispiel die Starkregenereignisse. Wir sehen also eine Häufung der Anzahl der Tage von Starkregen. Wir sehen gleichzeitig auch eine Häufung von großen, starken Hochwasserereignissen …

Anmerkungen Autor: Solche Aussagen kennt man. Sie sind gängig und warum sollte man sie dann einem Professor nicht glauben, wie es die honorige Sonntagsrunde doch auch einvernehmlich macht?
Ganz einfach: Weil es gelogen nicht richtig ist. Eine solche Aussage „gelingt“ nur mit gezielt, selektiver Darstellung, wohl wissend, dass von den Teilnehmern keiner auch nur entfernt sich Wissen angeeignet hat, um es zu erkennen.
Was sagen „öffentliche“ Berichte? Ein Bayerisches Ministerium veröffentlicht zum Klima regelmäßig. Darin sind auch Angaben zu Starkregenereignissen hinterlegt. Vor einiger Zeit hat der Autor darüber publiziert:
[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

Im Bericht wird selbstverständlich „berichtet“, dass solch Ereignisse zunehmen:
[1] … Bei den Starkniederschlägen (hier: maximale eintägige Gebietsniederschläge im jeweiligen Bezugszeitraum) zeigen die Zeitreihen der halbjährlichen Tageshöchstwerte im Winterhalbjahr von 1931 bis 2010 fast überall positive Trendwerte, die im Nordosten Bayerns über +40 % erreichen. Die Signifikanz ist allerdings unterschiedlich und variiert räumlich sehr stark. Im Sommerhalbjahr sind die Trends uneinheitlich und überwiegend nicht signifikant. Die detektierte Zunahme der winterlichen Starkniederschläge blieb seit 2000 auf dem bisher festgestellten überwiegend hohen Niveau. Eine Bestätigung der vermuteten Zunahme von kleinräumigen und kurzzeitigen Starkniederschlägen hoher Intensität ist auf Basis der vorliegenden Auswertung nicht möglich ….
[1] Die Trends im Starkniederschlag (Dauer=24h) sind uneinheitlicher als im Gebietsniederschlag. Hier gibt es weiterhin regional klare positive Trends im Winterhalbjahr (bis +33 %), eine Voraussetzung für eine Zunahme der winterlichen Hochwasserlagen. Im Sommerhalbjahr sind die Trends regional uneinheitlich ohne eindeutige Entwicklung, aber häufig stärker ausgeprägt als beim Gebietsniederschlag. Aussagen über Kurzzeitereignisse (< 1 Tag) konnten mit dieser Studie wegen der zu kurzen Messreihen und dem weniger dichten Messnetz mit hoher zeitlicher Auflösung nicht getroffen werden.

In der Detailsichtung des Monitoringberichtes zeigt sich dann allerdings, dass dies eine unzulässige „Verdichtung“ ist, weil die Aussage so pauschal nicht aus den Berichtsdaten abgeleitet werden kann [2].

Bild 4 [1] Trends Gebietsniederschlag in Oberbayern (Bildausschnitt, Abb. 8)
Zu dem Hauptbericht gibt es einen Ergänzungsbericht. Dieser zeigt erheblich mehr Details und Grafiken:
[3] KLIWA Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

Beim Betrachten der Extrem-Tagesniederschläge fällt auf, dass in keinem Verlaufsbild eine weitere Zunahme des Mittelwertes vorkommt und häufig sogar eine Abnahme der Extreme seit ca. 2000 festzustellen ist. Was man in den folgenden Bildern nicht deutlich sieht: Eine Trendaussage ist aufgrund der extremen Variabilität und Verteilung auf kleine Umgebungen gar nicht möglich. Zudem hängt ein „Trend“ extrem vom betrachteten Zeitraum ab. Und dafür ist der „gewählte“ auf keinen Fall ausreichend.

[6] EIKE 03.07.2019: Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder
Nimmt man längere Zeiträume, zeigt es sich deutlich die extreme Variabilität von Niederschlag:

Bild 5 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [6]
Dazu zeigen Extremniederschläge auch das Verhalten, nach langer Zeit spontan „wie aus dem Nichts“ aufzutreten.

Bild 6 [6] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt
Im Kern hilft es da wenig – eigentlich nichts -, lediglich den Zeitraum seit 1930 zu betrachten. Die weit zurückreichenden Pegelbilder von Flüssen zeigen es deutlich und unbestechlich:

Bild 7 Kehlheim. Quelle: WIKIPEDIA, Stefan Daller

Bild 8 Intensität von Hochwasserereignissen von Lech und Isar seit 1300 [7]
Trotzdem sind die KLIWA-Berichte natürlich interessant. Sie zeigen die Probleme und wie man daraus die „richtige“ Interpretation ableitet.

Zu den KLIWA-Klimaberichten findet sich eine umfangreiche Sichtung in den folgenden Publikationen:
[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

Bild 9 [3] KLIWA-Berichte, Gebietsaufteilung
Bild 10 [3] Abbildung 8, Gebiet „Iller“ D3. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (+14.3 %)
Bild 11 [3] Abbildung 10, Gebiet „Lech“ D5. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (+12 %)
Bild 12 [3] Abbildung 18, Gebiet „Alz und Salzach“ D13. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (-2,4 %)
Verdichtungen sind erforderlich. Doch auch Messdaten von Einzelstationen geben Aufschlüsse. Deshalb anbei welche von Stationen der bayerischen Alpen.
An keiner Station zeigt sich eine Zunahme von Extremniederschlag:

Bild 13 Bad Reichenhall: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 14 Oberstdorf: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 15 Rosenheim: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 16 Garmisch: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Immer wieder Simbach. Dazu Gefälligkeitsgutachten schlimmsten Ausmaßes

Alle Sichtungen von Niederschlag im Alpenvorland zeigen, dass über Extremniederschlag keine Trendaussage getroffen werden kann. Schlimmer, bezogen auf die Klima-Vergangenheit ein abnehmender Trend zu verzeichnen ist.

Kaltesonne kämpft dazu ebenfalls argumentativ an:
kaltesonne: Im Alpenraum kann kein Zusammenhang zwischen Hitze und Bergstürzen hergestellt werden
Kaltesonne: Überraschung! Weniger Extremwetter im Alpenraum

Kaltesonne: Flüsse im Alpenvorland halten sich nicht an die IPCC-Vorgaben: Mehr Überflutungen in Kälteperioden als in Wärmeperioden

Trotzdem behaupten „Wissenschaftler“, bewiesen zu haben, dass das Unwetter von Simbach ein „tausendjähriges“ Ereignis gewesen wäre.

Man erinnere sich: Die besonders schlimmen Auswirkungen der Flutereignisse von 2016 in Simbach und Braunsbach basieren auf Behördenversagen. Der Niederschlag war nur Anlass der Natur, die Versäumnisse „aufzuzeigen“.

Wie man damit „umgeht“ lässt sich schon an einem Text zu einem Schadensbild zeigen: Obwohl es sich auf dem Bild eindeutig um schön zugesägte Bretter handelt, hat die Redaktion keine Hemmung, auf „umgefallene Bäume“ hinzuweisen, weil um die „Bewohner“ – beim ganz genauen Hinsehen erkennbar – zusätzlich auch wenige „Bäume“ liegen. Die Leser hält die Redaktion anscheinend für besonders dämlich, oder gar blind.
Anmerkung: Die Bretter stammten vom Lagerplatz eines Sägewerkes, welches von der Flutwelle „abgeräumt“ und in den Ort „getragen“ wurde (wo diese sämtliche Abflüsse verstopften).

Bild 17 Original-Bildtext: „Anwohner sitzen in Simbach zwischen Schlamm und umgefallenen Bäumen“. ©dpa. Quelle: Merkur.de 05. Juni 201605. Juni 201605. Juni 2016: News-Ticker zu Hochwasser in Bayern und NRW

Will man das Flutereignis „Simbach“ rekonstruieren, stellt man verblüfft fest, dass der DWD den Datensatz der Messstation Simbach immer noch nicht ergänzt hat. Hintergrund: Die Station fiel kurz nach Beginn des Starkregens aus, zeigt für die zwei wichtigen Tage also eine viel zu geringe Niederschlagsmenge von lediglich 74,6 gegenüber ca. 180 mm. So viel zur Möglichkeit historischer Rekonstruktion historischer Niederschläge aus DWD-Daten.

Bild 18 [8] Niederschlags-Stundenwerte von Simbach und dreier Nachbarstationen vom 31.05. – 01.06.2016
Allerdings eröffnen sich damit Möglichkeiten veschiedenste Werte zu fabulieren rekonstruieren.
Der Autor hat es damals versucht und freut sich, mit seinen einfachen Mitteln – ohne vom LfU Bayern beauftragt gewesen zu sein – schon damals fast punktgenau den Wert des Professors aus Wien ermittelt zu haben:
[8] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
Und kam damit auf das folgende Niederschlagsbild:

Bild 19 [8] Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt
Das Beispiel der Niederschlagsdaten des nahe gelegenen Ortes Pfarrkirchen zeigt die extreme, lokale Begrenzung solcher Niederschlagszellen.

Bild 19a [8] Niederschläge Pfarrkirchen, Tageswerte seit 1951, das Extremereignis Juni 2016 gekennzeichnet. Bild vom Autor anhand der DWD-FTP-Daten erstellt
Das Niederschlagsbild der Station Hohenpeißenberg zeigt, welche extremen Datenlücken in historischen Messreihen vorhanden sind und damit mit Sicherheit jeglichen Versuch historischer Vergleiche verzerren:

Bild 20 [8] Niederschlag Hohenpeißenberg seit 1801 – 2016, 2-Tages-Summen. Grafik vom Autor anhand der DWD-FTP-Daten erstellt
Das Fazit des DWD sagt dazu:
[8]Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor. Zwar deuten Analysen von flächendeckenden Radardaten daraufhin, dass es in den vergangenen 15 Jahren zumindest regional eine Zunahme auch von Starkniederschlägen kurzer Dauer gegeben hat, jedoch sind diese Aussagen aufgrund der geringen Länge der Zeitreihen nicht sonderlich aussagekräftig.
DWD [9]: Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf.
Das beliebte Spiel, fehlende Daten mittels Simulationen zu erzeugen, klappt hier ganz und gar nicht:
DWD [9] Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.
[9] Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[9] Der Zeitraum ist aber (noch) zu kurz um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.

[10 … „Die Niederschlagssummen in Simbach liegen noch weit unter historischen Rekorden!“

Man kann sich demnach absolut sicher sein, dass niemand den wirklichen Niederschlag am 31.05./01.06.2016 bei Simbach ermitteln kann – und schon gar nicht, wie solche Extreme dort – auch in der jüngeren – Vergangenheit waren.

Professoren gelingt allerdings jeder Beleg, wenn ausreichend Auftragsgeld fließt:
[8] Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.
„Phänomen neuer Ausprägung“
Tausendjähriges Hochwasser – im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.
Nach historischen Aufzeichnungen könnte es im Jahr 1766 einmal eine ähnliche Wetterlage gegeben haben, doch genau klären lässt sich das nach Grambows Angaben nicht.

Ein Professor aus Wien ging noch weiter. Im Auftrag des Landesamts für Umwelt (LfU) „belegte“ sein Team, dass die Flutwelle von 5 m in Simbach „natürlich“ war, wie es seine Simulierungen belegen:
Wissenschaftler der Wiener Universität für Bodenkultur: Abschlussbericht zur Flutkatastrophe von Simbach:
… Ziel der wissenschaftlichen Untersuchung war eine „Niederschlagsabflusssimulation“. Die Experten analysierten, wie viel Wasser ins Einzugsgebiet gekommen wäre, hätte der Damm gehalten. Ergebnis: Durch den Dammbruch ist der Abfluss des Simbachs etwa um 100 Kubikmeter/Sekunde höher gewesen.
Anhand der Abflussmenge haben die Wissenschaftler überschwemmte Fläche und die Wasserhöhen simuliert. Im Ortsbereich gab es durch den Dammbruch im Vergleich zur Simulation ohne Dammbruch eine Erhöhung des Wasserstands um gerade mal einen knappen halben Meter, erklärt Prof. Hübl. Im Bereich der B12 sei die Erhöhung durch den Dammbruch deutlich höher gewesen.

Die Perversion an Datenmanipulation dieser „Professoren“ erschließt sich erst, wenn man sich die damaligen Bilder vor Ort und den Dammbruch betrachtet. Aber erstmals ist somit in die Klimageschichte ein Dammbruch aus Behördenversagen als für den nach dem Bruch erreichten, riesigen Pegel einer Flutwelle als „nicht Ereignisrelevant“ eingestuft.

Fazit

Auch für das Alpenvorland lässt sich eine Aussage zu immer mehr Extremereignissen nicht belegen. Professor Kunstmann berichtet in der Runde nach rein persönlicher Überzeugung des Autors nicht die Wahrheit. Im Kern fabuliert er über Ergebnisse seiner Simulationen.

Dabei ist bekannt und in vielen Studien erhärtet, dass Niederschlagsprojektionen – besonders zu Extremniederschlag geradezu grottenschlechte Ergebnisse ausweisen.
Das gilt bereits für die Simulation der aktuellen Niederschläge, die sie nicht entfernt reproduzieren (zeigen die Niederschlagsbilder im DWD-Viewer mit den Klima-Simulationskurven bis 2100 überdeutlich).

Was machen die „Simulanten“ daraus: Sie lassen die „schlechten“ Simulationen weg, nehmen nur die „richtigen“ – ohne zu wissen, welche diese sein mögen – und behaupten einfach, dass die simulierten Werte zwar aktuell – wo man es nachprüfen und auch „kalibrieren“ kann – untauglich sind, in der ferneren Zukunft aber aus irgend einer „programmiertechnischen Eingebung“ heraus stimmen würden.

Bild 21 [7] Fig. 3 Observed (E-OBS, ALP-IMP, and EURO4M-APGD) and simulated area mean monthly mean precipitation from historical CORDEX simulations (mm day−1) for 1976–2005. The red crosses in Fig. 1 show the CORDEX grid used in the calculation of the area mean. The solid black line indicates the mean of all the CORDEX simulations, and the black dotted line is the mean excluding the cclm and smhi simulations. Grafik vom Autor ergänzt
In der Studie steht dazu:
[7]: … Runs with historical data (1975–2005) reveal errors up to 120% with an ensemble mean of around 50%. The results show a large spread between the simulations, which primarily results from deficiencies in the precipitation data. This makes an analysis of the extreme runoff values with the present investigation design difficult.

Und was in solchen Vorträgen immer und grundsätzlich untergeht: Mag es auch negative Einflüsse geben, die bisher bereits aufgetretenen Vorteile des sich stetig wandelnden Klima werden nirgens auch nur entfernt erwähnt. Und diese sind gewaltig. Auch im Alpenvorland (und dahinter).

Bis zu Beginn der angeblich so klimaschlimmen Neuzeit waren die Gletscher, Überschwemmungen, Murenabgänge usw. stetige Extrembedrohungen für die Alpenbewohner, die man sich heute gar nicht mehr vorstellen möchte. Die Bewohner (übrigens von ganz Bayern) waren bis in die 50er Jahre des letzten Jahrhunderts bettelarm und lebten im Armenhaus Deutschlands. Nichts mehr davon ist heute zu sehen. Man hat inzwischen das Geld (und technischen Mittel), sich gegen schlechtes Wetter zu wappnen. Und wenn nicht Behördenversagen – inzwischen auch Ablehnungen von Bürger-Protestgruppen – dazu kommt, gelingt es gut.
Die Stadt Rosenheim zeigte, wie es mit viel, viel Glück gelingen kann [6] :
Hemmungslos hatte man in das Überflutungsgebiet gebaut. Der Schutzdamm wurde dann gerade noch in letzter Sekunde fertig:

Bild 22 [6] Zeitungsartikel (Oberbayerisches Volksblatt 4.Juni 2013, Ausschnitt) der Flut von Rosenheim im Jahr 2013.
In der illustren Runde wurde davon aber nichts erwähnt. Die meisten Teilnehmer werden es auch gar nicht wissen oder hören (wollen), es hätte die traute Gemeinsamkeit im Klimaschmerz nur gewaltig gestört.

Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[3] KLIWA Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[4] KLIMA Klimawandel in Süddeutschland Veränderungen von meteorologischen und hydrologischen Kenngrößen Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[6] EIKE 03.07.2019: Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder

[7] O. BÖHM & K.-F. WETZEL 2006: Flood history of the Danube tributaries Lech and Isar in the Alpine foreland of Germany

[8] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[9] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[10] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[11] EIKE 04.07.2020: Ist die aktuelle Meerespegeländerung im Vergleich mit historischen Zeiten einzigartig?

Anlagen
Tweets von Frau Botzki https://twitter.com/annemariebotzki?lang=de




Noch ein ketzerischer Klima-Artikel: Patrick Frank aus Stanford stellt grundsätzlich Klimamodelle infrage

Und spätestens an dieser Stelle wird man feststellen müssen, dass auch Klimawissenschaftler nur Menschen sind und zutiefst menschlich reagieren. Mit Ablehnung, Verdrängung, Empörung und sogar mit Gegenangriffen. Sie holen ihre „großen Brüder“ zu Hilfe, versuchen sich Mehrheiten zusammenzutrommeln und schrecken manchmal sogar vor Tricksereien, Verleumdung und Betrug nicht zurück.

Dazu kommt das Problem einer sehr knappen Ressource, die im Wissenschaftsbetrieb als Währung gilt und bei der Frage nach Reputation oder Förderung eine immense Rolle spielt: die Veröffentlichung. Dabei handelt es sich aber nicht um Bücher oder Maischberger-Auftritte, sondern um Artikel in anerkannten wissenschaftlichen Journalen, wo man nur dann publizieren kann, wenn die Arbeit einer mehr oder weniger anonymen mehrstufigen Prüfung durch andere Experten auf eben diesem Gebiet standhält. Das hält zwar sicher einigen Unsinn aus den Blättern heraus und hilft, Fehler zu finden, kann sich aber als fast unüberwindbare Hürde erweisen, wenn man davon ausgehen kann, dass ein „Konsens“, gegen den man anschreibt, für ausreichend Vorurteile und Ignoranz sorgt. Stellen Sie sich einfach vor, liebe Leser, Galileo Galilei hätte sein „Paper“ im Vatikan zur Begutachtung vorlegen müssen und fragen Sie sich, ob sich dort eine demokratische Mehrheit von Gelehrten für eine Veröffentlichung ausgesprochen hätte. Die Sonne würde sich wohl immer noch um die Erde drehen.

Video des Vortrages von EIKE Vize Michael Limburg zur großen Unsicherheit die auch Zeitreihen aus historischen Temperaturdaten begleiten müssen. (Mehr Details dazu hier) zur Behandlung seiner Dissertation zum Thema durch die Universität Leipzig hier

Zunächst noch ein paar Worte zu den Wissenschaftsjournalen, die zwar große Namen haben, aber natürlich auch nicht frei sind von wirtschaftlichen Erwägungen und Trends. Gerade, wenn diese politisch verstärkt werden. Wer der scheinbar übermächtigen Einheitsmeinung nur ein paar weitere Krümel Gewissheit hinzufügt, ihr aber insgesamt nicht schadet und dem Trend folgt, hat es leichter. Falls Sie, sagen wir, die verheerende Wirkung von Brausepulver auf das Erdklima untersuchen wollen oder ein weiteres Treibhausgas auf die Anklagebank bringen möchten… das wird sich sicher machen lassen. Rechnen Sie aber nicht mit wohlwollenden Reviews, wenn sie die heiligen Knochen ausbuddeln, die das Fundament eines verfestigten Konsenses sind, um sie auf ihren Calciumgehalt zu prüfen. Man muss sich durch viel Beton durchkämpfen, bis man am Ziel ist und darf bei denjenigen, die sich behagliche Häuser auf dem Fundament gebaut haben, nicht auf große Liebe hoffen.

„Mehr vom Selben” statt „Probier was Neues”

Große Schwierigkeiten bekommt man zum Beispiel, wenn man eine der Säulen des Klimaalarmismus als Baugutachter unter die Lupe nimmt. Also die Rolle von CO2, die Qualität der Klimamodelle, welche als Werkzeuge der Vorhersage und als Alarmglocken dienen oder die Paläo-Messreihen, die aus Eisbohrkernen oder anderen Bohrungen indirekt auf Temperaturen der Vergangenheit schließen. Letzteres führte beispielsweise zu den Auseinandersetzungen rund um Manns Hockeystick-Kurve, von denen ich berichtete.

Warum das so ist, kann man leicht erraten. Denn seit Politiker vor etwas mehr als 100 Jahren begannen, bei Gesundheitsprogrammen auf die Expertise von Medizinern zu vertrauen, hatte noch nie eine so kleine Gruppe von Wissenschaftlern so große Macht über die Politik wie die Klimaforscher heute. Sogar ein bei der UN angesiedeltes Wächtergremium mit enger Agenda haben sie sich geschaffen. Der Weltklimarat, das IPCC, muss man wissen, hat nicht die Aufgabe, den Klimawandel zu untersuchen und Maßnahmen vorzuschlagen – das wäre ja ein Segen. Nein, das IPCC hat die Aufgabe, den menschengemachten Klimawandel zu untersuchen und Maßnahmen vorzuschlagen. Das sperrige Adjektiv macht den Unterschied und gibt die einzige Richtung vor, in die der Blick gehen darf. Raten Sie, was man herausfindet: Der Klimawandel ist menschengemacht. Und zwar ausschließlich! Damit konnte natürlich niemand rechnen…

Flankiert von mit Parolen ausgestatteten Aktivisten, die häufig nicht einmal die elementarsten Zusammenhänge verstehen, exekutiert die Politik die ausgesprochenen Empfehlungen: ruft in Städten den Klimanotstand aus, denkt laut über Klimasteuern nach und bereitet Verbote vor, gibt großzügig Forschungsgelder… Kurz: Man hängt auch als Wissenschaftler tief drin im Aktionismus und dem Umbau der Gesellschaft und ist Stichwortgeber bei einem gigantischen Gesellschaftsexperiment, das nach Meinung aller Ökonomen auch und nach Meinung vieler nur schief gehen kann. Es steht für einen Wissenschaftler also mehr auf dem Spiel als ein paar Drittmittel. Aber Geld schafft Begehrlichkeit, wenn es auf den Tisch gelegt wird und das Paris-Abkommen allein (bei dem jedes teilnehmende Land völlig verschiedene Verpflichtungen auf je einen Zettel schrieb, welche dann zusammengebunden und als Abkommen proklamiert wurden) sorgt dafür, dass es um hunderte Milliarden Dollar und Euro geht.

Die westliche Gesellschaft (und nur diese) hat sich hineinziehen lassen in eine offene wissenschaftliche Debatte und sich dort binnen kurzer Zeit auf jene Seite geschlagen, die ihr den meisten Aktionismus und die umfassendste politische Einflussnahme versprach. Dabei sind die Protagonisten und die Argumente im Wesentlichen dieselben wie vor 30 Jahren, wie man in dieser sehenswerten Channel4-Doku aus dem Jahr 1990 sehen kann. Aber die Zeit lässt sich nicht zurückdrehen, und man kann denjenigen, die schon vor 30 Jahren zu Sachlichkeit und Vernunft rieten, kaum vorwerfen, dass sie nicht deutlich genug vor dem Gedanken-Kollektivismus warnten, in den wir uns heute freiwillig begeben.

Gleichschaltung, Hysterie, Faktenfreiheit

Als ich neulich über einen Zivilprozess wegen Verleumdung berichtete, den einer der bekanntesten Vertreter der Klimaalarmisten gegen einen seiner Kritiker angestrengt hatte und der nun eingestellt wurde, erhielt mein Artikel viel Aufmerksamkeit. Sowohl Skeptiker als auch Alarmisten sahen sich bestätigt und spannen einen Faden weiter, der so im Artikel überhaupt nicht zu finden war. Dr. Mann sei verurteilt worden, das Gericht hätte dem Klimaschwindel ein Ende bereitet, war vielerorts zu lesen.

Nichts davon habe ich geschrieben, weil nichts davon passiert war. Selbst der sonst so besonnene Boris Palmer – sicherlich genervt, weil er von verschiedener Seite meinen Artikel zugeschickt bekam – konnte nicht an sich halten und unterstellte mir Aussagen, die ich nie geschrieben hatte. Auf der anderen Seite schlugen die reflexhaften Verteidiger von Manns Hockeystick-Kurve Purzelbäume, weil sie sich veranlasst sahen, ein Paper aus dem Jahr 1998 zu verteidigen, von dem viele glaubten, es sei nach jahrelangen Kontroversen endlich in Vergessenheit geraten. Nun wurde es wieder ans Licht gezerrt, und die Verteidiger stellten sich schützend vor einen Leichnam, bei dessen Beerdigung sie wohl noch zur Schule gingen.

Da waren Aussagen zu lesen wie „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“, was nochmal einen Zacken mehr falscher Gewissheit enthält als die üblichen Eröffnungszüge solcher Debatten, bei denen man als erstes etwas von 97 Prozent oder 99 Prozent zu hören bekommt – ganz so, als sei die Dimension von DDR-Wahlergebnissen jemals Beleg für Wahrhaftigkeit gewesen.

Wie dem auch sei, den voreiligen Skeptikern sei gesagt, dass die Theorie Manns in Kanada nicht vor Gericht stand, sondern sein Kontrahent Ball in Person und dass Gerichte generell nicht über wissenschaftliche Theorien entscheiden. Noch nicht. Auch wenn wir aktuell nur noch ein Augenzwinkern davon entfernt zu sein scheinen, „Klimaleugnung“ als Straftatbestand zu betrachten. Doch was Gerichte noch unterlassen, exekutieren längst die Aktivisten. In der deutschen Wikipedia werden bereits fleißig Markierungen angebracht, um gute von bösen Wissenschaftlern und Publizisten zu unterscheiden. Weitere mentale Infektionen sind also zu erwarten.

Die menschengemachte Klimawissenschaft

„Sobald der Menschenseele ein neues Dogma eingepflanzt ist, inspiriert es die Institutionen, die Künste und das Verhalten der Menge. Die von ihm über die Seelen geübte Herrschaft ist dann eine absolute. Die Männer der Tat denken nur an dessen Verwirklichung, die Gesetzgeber nur an dessen Anwendung, die Philosophen, Künstler, Schriftsteller beschäftigen sich nur mit dessen Umsetzung in verschiedene Formen.”

(Gustave Le Bon, „Psychologie der Massen”, 1895)

Dass es sich beim „Menschengemachten Klimawandel“ um ein Dogma handelt, wie es Le Bon beschrieb, zeigte sich wieder einmal in Gesprächen, Kommentaren und e‑Mails, die mich nach dem Artikel erreichten. Ich unterschlage hier die Beschimpfungen und „guten Reisewünsche“ und bringe nur dieses, leicht eingedampfte Beispiel:

A: 97% der Wissenschaftler sind sich einig: Der Klimawandel ist menschengemacht. Es muss also stimmen!

Ich: Die Zahl 97% ist ein Mythos, die zugrundeliegende Metastudie von Cook et al. klammerte viele jener Studien aus, die sich nicht festlegten, ob oder ob nicht und wenn ja, wieviel Einfluss der Mensch hat.

A: Ob nun 97 Prozent, 50 Prozent oder 20 Prozent – das ist dem menschengemachten Klimawandel doch egal!

Das heißt, eine unbewiesene Hypothese ist längst ins Fundament eingesickert und dort fest geworden. Unerhört, diese noch infrage zu stellen – man würde den Aktivisten ja ihre liebsten Satzanfänge wegnehmen. Deshalb auch die absolutistische Verteidigung der Mann’schen Hockeystick-Kurve, die sehr wohl im Feuer der Kritik stand und bis heute steht.

Die Sache mit der Genauigkeit

Ich möchte an dieser Stelle nur den Beweis führen, dass die Aussage „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“ schlicht falsch ist, ohne die Diskussion wieder auf das juristische Geplänkel zwischen Mann und Ball zu lenken. Zu nennen ist hier insbesondere die Arbeit von Stephen McIntyre und Ross McKitrick von 2005, in der sie, vereinfacht gesagt, besonders die Temperatur-Messreihen Manns in Zweifel ziehen, die dieser aus den Baumringen amerikanischer Borstenkiefern herleitete und nach Meinung von McIntyre und McKitrick (M&M) die historischen Temperaturwerte als zu niedrig angab. (Wer übrigens wissen möchte, was man mit historischen Messreihen so alles machen kann, dem empfehle ich dieses Video.)

Der Vorwurf von M&M zielte mitten ins Herz der Klimaalarmisten, weil er sich mit einem Feld befasst, dem schon so manche schöne Theorie zum Verhängnis wurde: mangelhaftes Fehlerbewusstsein und Fehlerdiskussion. Die Debatte über die von M&M gefundenen Ungereimtheiten ist hochinteressant und gleicht eher einem spannenden Krimi als der bloßen Kollision zweier wissenschaftlicher Interpretationen. Und sie ist keinesfalls entschieden oder abgeschlossen, auch wenn es heute etwas ruhiger ist an dieser Front, weil sich das Feuer längst auf andere Schauplätze verlagert hat. Die vorlaute Verteidigung, Manns Kurve hätte einhellige Zustimmung erfahren und sei allgemein unumstritten, darf jedoch als widerlegt betrachtet werden.

Während Mann sich auf der Seite der Messreihen in einem alten Krieg befindet, gibt es andere Wissenschaftler, die eher die prognostische Seite der IPCC-gesteuerten Klimaforschung in Zweifel ziehen: die Klimamodelle. Richtige Panik kann nämlich erst aufkommen, wenn man der Menschheit mit schrecklichen Graphen droht, die für die Zukunft nichts Gutes prophezeien. Auch alle politischen Ziele wie die Begrenzung des CO2-Ausstoßes oder das 1,5°-Ziel von Paris gehen aus diesen Prognosewerkzeugen hervor. Vereinfacht gesagt, füttert man die Modelle – und es gibt Dutzende davon – mit Werten für Temperatur und CO2 und ändert die Werte solange, bis die gewünschte Kurve dabei herauskommt. Die Werte erhält die Politik und übersetzt diese in Verbote und Steuern. Wie gesagt, etwas komplizierter ist es schon, aber die zweite (Was soll ich tun?) und dritte (Was darf ich hoffen?) Grundfrage der Vernunft, wie sie Kant formulierte, beantwortet die Klimawissenschaft mit diesen Werkzeugen. Handeln und Glaube sind gesetzt, doch sollten wir die erste Frage „Was kann ich wissen?“ nicht aus dem Auge verlieren. Womit wir wieder bei der Genauigkeit wären und der Frage, was die Klimamodelle wirklich taugen, aus deren Orakeln die Politik Handlungsanweisungen ableitet.

Die Klimawissenschaft als „nackter Kaiser“?

„Nach dem gegenwärtigen Stand der Theorie wird sich ein AGW-Signal (siehe 1., Roger Letsch), falls vorhanden, niemals aus dem Klima-Rauschen hervorheben, egal wie lange die Beobachtungsaufzeichnung dauert, da die Unsicherheitsbreite notwendigerweise viel schneller zunimmt als ein projizierter Trend der Lufttemperatur. Jegliche Auswirkung von Treibhausgasen geht immer innerhalb des Unsicherheitsintervalls verloren. Selbst fortgeschrittene Klimamodelle weisen eine schlechte Energieauflösung und sehr große Projektionsunsicherheiten auf. Die unvermeidliche Schlussfolgerung ist, dass ein Temperatursignal von anthropogenen CO2-Emissionen (falls vorhanden) nicht in Klima-Observablen nachgewiesen werden konnte oder kann.“

Da stellt jemand grundlegend infrage, ob die Klimamodelle – und zwar alle – überhaupt in der Lage seien, die Einflüsse von Treibhausgasen auf das Klima zu zeigen, weil die Mess- oder Regelgröße vollständig im Fehlerrauschen untergehe. Wer ist dieser „Klimaleugner“, dieser Ketzer, der da so frech die Offenbarung der Orakel-Modelle stört?

Sein Name ist Dr. Patrick Frank vom SLAC National Accelerator Laboratory der Stanford University, Menlo Park, Kalifornien und er hat sein Paper „Fehlerausbreitung und Zuverlässigkeit globaler Lufttemperaturprojektionen  gerade eben im Journal „frontiers in Earth Science“ veröffentlicht.

Hier kommentiert er den langen Weg bis zur Veröffentlichung in einem angesehenen Journal – es dauerte sechs Jahre – und legt auch die kompletten Schriftwechsel (ZIP-Datei), Einwände und seltsamen Schummeleien offen, (ich verwende das Wort, ohne hier inkriminieren zu wollen, mir fällt dazu einfach nichts passenderes ein) welche die Veröffentlichung so lange behinderten. Die Einwände waren zum Teil hanebüchen, weil die Reviewer wohl teilweise Franks Mathematik nicht verstanden oder die angefragten Journale sein Paper ausgerechnet an jene zur Durchsicht gaben, die von der Entwicklung der angegriffenen Klimamodelle leben. Diese „peers“ sollten nun also den Daumen über Franks Arbeit heben oder senken. Der Spruch vom Bock und dem Gärtner ist das einzige, was mir zu solchen Possen einfallen will.

„Physikalisch bedeutungslos“

Ich möchte Dr. Frank hier aber nicht zum Galileo Galilei hochschreiben, auch seine Arbeit muss sich Kritikern stellen und das tut sie bereits (logisch, angesichts ihrer Brisanz). Aber das Vorspiel zur Veröffentlichung zeigt, dass eine zum Konsens neigende, voreingenommene wissenschaftliche Community, die alle wesentlichen Forschungen für abgeschlossen und in Stein gemeißelt hält, Gift für die Klimawissenschaft sein kann. Die Frage nach der Erkenntnisfähigkeit in Bezug auf das Klima von übermorgen beantwortet Frank so:

„Meine Arbeit zeigt, dass fortschrittliche Klimamodelle die Lufttemperatur lediglich als lineare Extrapolation des Treibhausgaseffekts projizieren. […] Eine einfache Gleichung, deren Forcierung linear ist, emuliert erfolgreich die Lufttemperaturprojektionen von praktisch jedem Klimamodell. Willis Eschenbach (siehe 2., Roger Letsch) hat das auch vor einiger Zeit ebenfalls untersucht.

Kurz gesagt, Klimamodelle können zukünftige globale Lufttemperaturen nicht vorhersagen. Nicht für ein Jahr und nicht für 100 Jahre. Klimamodell-Lufttemperaturprojektionen sind physikalisch bedeutungslos. Sie sagen überhaupt nichts über die Auswirkungen von CO₂-Emissionen auf die globalen Lufttemperaturen aus.

Die Unsicherheit allein aufgrund des jährlichen durchschnittlichen Modellfehlers beim Wolken-Anteil (siehe 3., Roger Letsch) (± 4 Wm⁻²) ist ungefähr ± 114-mal größer als der jährliche durchschnittliche Anteil des CO₂ (ungefähr 0,035 Wm⁻²). Eine vollständige Bestandsaufnahme von Modellfehlern würde eine enorm größere Unsicherheit erzeugen. Klimamodelle sind somit völlig unfähig, Auswirkungen der geringen Störung durch Treibhausgasemissionen aufzulösen. Die unvermeidliche Schlussfolgerung lautet, dass die Auswirkungen von CO₂-Emissionen auf das Klima in der Vergangenheit oder heute nicht gefunden werden können. Es scheint, dass Exxon (siehe 4., Roger Letsch) „es“ doch nicht wusste. Exxon hätte es nicht wissen können. Auch sonst niemand.“

Einige Panikattacken weiter

Es ist also möglicherweise nicht viel, was wir über das künftige Klima wissen können. Die Ergebnisse, mit denen die Klimamodelle unsere Politiker füttern, enthalten nach Franks Annahme Fehler, die um den Faktor 114 größer sein können als die Resultate. Wenn man aber erklärt, „1“ gemessen zu haben und dabei verschweigt, dass das statistische Rauschen um den Faktor 114 höher war als der Messwert – was genau hat man dann eigentlich „gemessen”? Die Fehlerdiskussion erweist sich also nicht nur bei den Paläo-Messreihen Manns, sondern auch bei den Forecast-Szenarien der Klimamodelle als Achillesferse. Der aktuelle Alarmismus steht also möglicherweise auf sehr dürftigen Argumenten.

Es bleibt also spannend, wenn man die Augen offenhält und vorurteilsfrei die Forschung beobachtet. Aber um ehrlich zu sein, ich erwarte nicht, dass sich die Hysterie legen wird. Nicht wegen einem Gallieo Dr. Frank! Die Zweifler und Häretiker kommen schnell unter die Räder des Zugs mit der Aufschrift „Klimakatastrophe“ oder sind wie A. von weiter oben komplett borniert und ideologisiert. Aber vielleicht kann ja wenigstens jemand Greta sagen, dass sie ruhig mit dem Flieger nach Europa zurückkehren kann? Denn das Klima „kippt“ nicht um und geht auch in zehn Jahren nicht so kaputt, dass es für sie unbenutzbar wird.

Das letzte Wort möchte ich diesmal einem Journalisten überlassen, der über das Dilemma spricht, in dem sich Klimawissenschaft und Politik befinden. Sie werden kaum glauben, aus welcher Zeitschrift das Zitat stammt:

Experten sind demnach im Dilemma: Sie haben kaum eine Chance, den richtigen Rat zu geben. Bleibt die Warnung aus, wird ihnen mangelndes Pflichtbewusstsein vorgeworfen. Eine alarmistische Vorhersage wird jedoch kritisiert, sofern sich nicht wenig später entsprechende Veränderungen zeigen. Die Unsicherheiten der Forschungsergebnisse bleiben in der Klimaforschung wohl auch bei weiterem Fortschritt bestehen. Nun sei die Frage, ob Wissenschaftler und Gesellschaft damit umzugehen lernen […]. Vor allem Politiker müssten lernen, dass es keine einfachen Resultate gibt. Auf Wissenschaftler, die simple Antworten versprechen, sollten Politiker nicht mehr hören.“

Quelle: Spiegel

Ja, sie haben richtig gelesen. Aber der Artikel ist ja auch noch aus dem Jahr 2010, also aus dem Jahr 8 v. H. (vor Hysterie). Heute ist man auch beim Spiegel bereits einige Panikattacken weiter.

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt und auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.

Anmerkungen

1. AGW = Anthropogen Global Warming. Die Abkürzung finden sie in Fachjournalen überall

2. Eschenbach untersuchte das GISSE-Klimamodell wie eine Blackbox, von der man wissen möchte, wie sie funktioniert. Es gilt nämlich das Prinzip der Ergebnisgleichheit. Das heißt, zwei Blackboxen sind gleichwertig, wenn sie bei identischen Eingaben identische Ergebnisse produzieren, ganz gleich, welcher Hokuspokus im Inneren vollführt wird. Eine y=x*8/4 Blackbox ist gleichwertig mit einer y=2x Blackbox. Eschenbach zeigte nun, dass das GISSE-Modell auf simpelsten linearen Gleichungen basiert. Er glaube nicht, dass das Klima so funktioniere, meint Eschenbach.

3. Im Original: „cloud forcing” error, womit im weitesten Sinne die Wirkung von Wolken bei der Reflektion von Infrarotstrahlung bei Ein- und Rückstrahlung gemeint ist. Die Tatsache, dass sich die Wolkenbildung ab-so-lut nicht vorhersagen lässt und deshalb nur als extrem unsichere statistische Größe in jedes Klimamodell eingeht, ist Franks Ansatzpunkt für seine oben erwähnte Arbeit.

4. Gemeint ist eine Untersuchung der Firma Exxon, in der schon 1977 vom Klimawandel und der vermeintlichen Ursache CO2 die Rede war. Diese Studie wird gern als der ultimative Beweis für den anthropogenen Klimawandel und dessen Auslöser CO2 betrachtet, weil er „von der anderen Seite“, also von den Bösen kam. Dass die Studie „geheim gehalten” wurde, bestreitet Exxon (heute Exxon-Mobile).




Warnte Hans Rosling vergebens?

Verlegt in vielen Sprachen, auch in Deutsch bei Ullstein 2018 , erhielt sein Buch enthusiastische Zustimmung. Lieferte es doch ein durchweg optimistisches, und trotzdem ungeschönt realistisches Weltbild aus statistisch gesicherten Belegen. Es ist ein wertvolles, weil aufklärendes Buch gegen eine medial verzerrte alarmistische Weltsicht. Es liest sich gut. Es bildet. Es erheitert. Wer es kürzer braucht, schaue in die informative Rezension von Kip Hansen unter:

https://eike.institute/2018/11/17/factfulness-eine-buchrezension/

Mahnte Rosling vergebens vor Panikmache? Ja, wenn man die globale Pandemie erkennt, die gerade auch von  schwedischen Eliten angezettelt, die Welt  infiziert. Sie trägt den Namen eines psychisch erkrankten skandinavischen Kindes „Greta Thunberg“.

Hans Rosling, der Professor für Internationale Gesundheit am schwedischen Karolinska-Institut, Arzt und erfahrener Bekämpfer von Infektionskrankheiten, ist leider zu früh verstorben, um gegen das Panikorchester seines Landsmädchens eingreifen zu können. Tun wir es, indem wir seine Mahnungen auffrischen. Er schreibt in „Urgency instinct“ salopp „ Panikmache“

  • tritt ein Problem auf, ist es das Erste eben nicht zu rufen „Der Wolf kommt“, sondern die Sachlage zu prüfen. Es geht nur im akuten Notfall um „Jetzt oder Nie“
  • Bestehe auf validen und detaillierten Daten. Wenn irgendetwas wichtig und dringlich ist, muss dazu auch eine Datengrundlage bestehen. Sei vorsichtig, wenn Daten relevant, aber ungenau sind, oder umgedreht. Es braucht beides!
  • Hüte Dich vor Horror-Darstellungen! Jede Vorhersage ist unsicher. Fordere Szenarien, wenn es „alternativlos“ heißt! Kommentar: Rosling forderte von Al Gore die Darstellung aller Klimaszenarien, was dieser mit seinem Motto: „ Wir müssen Furcht erzeugen“ verweigerte
  • Hüte Dich vor drastischen Aktionen! Frage nach deren Nebenwirkungen! Frage nach Erfahrungen damit!
  • Strebe ein stufenweises Herangehen mit parallelem Monitoring an!

Um Rosling nicht komplett zu vereinnahmen: er glaubt an den  menschengemachten Klimawandel in Form der AGW-Hypothese. Aber er ist als erfahrener Arzt klug genug, um zu erkennen, ob die Diagnose tragfähig ist.

„Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.“

„Was ich für besonders bedenklich halte, ist der Versuch mit der Erfindung des Klimaflüchtlings Aufmerksamkeit zu erzeugen….Die Klimaaktivisten sind inzwischen leider überzeugt, dass der Zweck die Mittel heiligt, aber wer zu oft ruft“ der Wolf kommt“ setzt seine Glaubwürdigkeit und seinen Ruf als seriöser Klimaforscher aufs Spiel.

Die Rolle des Klimawandels zu überzeichnen und ihn mit Kriegen  und Konflikten , mit Armut und Migration in Zusammenhang zu bringen bedeutet auch, andere wichtige Ursachen dieser globalen Problematik zu ignorieren und unsere Fähigkeiten, diesen zu  begegnen, zu schwächen.

Wir dürfen nicht in eine Situation geraden, in der wir einander nicht mehr zuhören. ….

Wer sich seriös mit dem Klimawandel  befassen will, muss immer zwei Dinge im Kopf behalten. Man darf nie zum Opfer der eigenen frustrierten und alarmierenden Botschaften werden . Man darf einerseits die Augen  vor den Worst-Case-Szenarien nicht verschließen, muss aber andererseits auch um die Unsicherheiten der Datenlage wissen. Und wer anderen Dampf machen will, muss trotzdem eine kühlen Kopf behalten, um kluge Entscheidungentreffen zu können und seine Glaubwürdigkeit nicht aufs Spiel zu setzen…

Der Klimawandel ist dafür zu wichtig. Er verlangt systematische Analyse, gut durchdachte Entscheidungen , abgestufte Aktionen und sorgfältige Bewertungen.

Mit einem Wort: Vernunft.

 




Die Öko-Horrorprognosen und ihre perversen Folgen

Diverse Katastrophen rund ums Thema Energie, Ökologie und Ernährung werden vor allem von Medien benutzt, um Zuschauer zu gewinnen oder Zeitungen zu verkaufen.

Politiker und nutzen erfundene Katastrophen, um den Bürgern Angst zu machen, mit der man sie populistisch manipulieren kann. Denken Sie nur an Angela Merkels vermurkste Energiewende von 2011 – ein unmittelbares Ergebnis der medial geschürten Atomangst nach dem Großunfall im AKW Fukuschima/Japan.

Der Youtube-Kanal GROSSE FREIHEIT TV schaut sich die Panikmacherei der Eliten im historischen Rückblick an. Erstaunlich: Der Trick ist gar nicht neu – schon Thomas Malthus orakelte im 18. Jahrhundert, daß die Weltbevölkerung sich exponentiell vermehre, das Essen aber nur linear produziert werde. Und wenn man bedenkt, wie oft uns schon „das Öl ausgeht“, ……

Pikant: Bereits 1992 wurden Kinder eingesetzt, um moralischen Druck aufzubauen.

Mit freundlicher Genehmigung von GROSSE FREIHEIT TV.

 

 




„Der vergessene Atomkrieg“, ein Bericht in der WamS vom 8.10.2017

Die ICAN hat in diesem Jahr den Friedensnobelpreis erhalten — was ist aber ICAN? Es bedeutet „International Campaign to Abolish Nuclear Weapons”, also eine weltweites Bündnis von Nichtregierungsorganisationen, die sich für ein weltweites Verbot von Nuklearwaffen einsetzen. Vor 10 Jahren wurde diese Organisation gegründet, jetzt erhielt sie durch die Preisverleihung öffentliche Aufmerksamkeit, was sich bei der feierlichen Verleihung im Dezember fortsetzen wird. Offenbar als eine erste Reaktion darauf brachte die „Welt am Sonntag“ einen 4-seitigen Bericht „Der vergessene Atomkrieg“ über das Testgelände der Amerikaner in der Südsee.

Schon das Wort „Krieg“ in der Überschrift lässt den Leser erschrecken, und so geht es weiter auf vier ganzen Seiten mit „verstrahlt“, „verbrannt“, „radioaktiv verseucht“, „auf ewig unbewohnbar“, „unsichtbare Gefahr“, „Hölle“, „sind alle gestorben“, „Evakuierung notwendig“…

Aber Radioaktivität lässt sich sehr genau messen, dazu kein Wort. Auch Gefahren kann man messen, indem man deren Wirkung beschreibt und in Zahlen fasst, auch dazu kein Wort.

Es gibt drei Ereignisse, die eine Einordnung der Gefahren durch Strahlung für die Menschen zulassen:

1) Hiroshima und Nagasaki

Dort explodierten Kernwaffen über den Städten etwa 500 Meter über dem Boden. Es wurden sofort weit über 200 000 Menschen durch Druckwelle, Hitze und Feuersbrunst getötet. Aber die ionisierende Strahlung (oft als radioaktive Strahlung bezeichnet) erreichte kaum die letale Dosis, die im Bereich von 5 bis 10 Sievert liegt [1]. Als Spätfolge wurde unter den Überlebenden eine erhöhte Krebsrate festgestellt, es starben daran etwa 440 Menschen, die eine Dosis über etwa 0,5 Sievert erhielten. Im Dosisbereich <0,3 Sievert ist die Datenlage unklar, es zeigte sich aber eher eine niedrigere Krebsrate als normal, das wird meist verschwiegen.

2) Tschernobyl

Dort gab es eine Explosion des Reaktors (korrekter ist hier das Wort Leistungsexkursion), der Graphitmoderator brannte und sehr viel vom radioaktiven Inventar wurde mit der Feuersäule in die Luft getragen und vom Wind rund um die Erde verteilt. Es litten etwa 140 Feuerwehrleute an der Strahlenkrankheit, 28 Personen von ihnen starben. Aus der Umgebung des Kraftwerks wurden über 300 000 Personen evakuiert. Bei den Bewohnern der stark kontaminierten Zone bei Bryansk und unter den Aufräumarbeitern wurde keine erhöhte, sondern eine erniedrigte Mortalitätsrate bei Krebs festgestellt. In der evakuierten Zone liegt der Strahlenpegel heute im Bereich 0,000 0001 bis 0,000 0003 Sievert pro Stunde, und in der Nähe des Kraftwerks werden 0,000 002 bis 0,000 008 Sievert pro Stunde erreicht. Zur Zeit des Unglückes im April 1986 lag der Strahlenpegel im 3 km vom Kraftwerk entfernten Ort Pripyat bei 0,001 bis 0,01 Sievert pro Stunde.

3) Fukushima

Im dortigen Kernkraftwerk mit 6 Reaktoren gab es wegen der ausgefallenen Stromversorgung Kernschmelzen und folglich Druckanstiege in den Reaktoren. Bei der Druckentlastung wurden radioaktive Spaltprodukte frei gesetzt. Die damals von den automatischen Meßpunkten auf dem Kraftwerksgelände registrierten Werte zum Strahlenpegel waren weltweit verfügbar, täglich fortgeschrieben auf neuestem Stand. In Deutschland wurden diese Meßkurven von Mitarbeitern der GRS beschriftet und weiter verbreitet. Bei jeder Druckentlastung stieg der Strahlenpegel auf hohe Werte an, um danach wieder abzufallen, weil mit dem Wind die radioaktiven Nuklide verteilt wurden. Aus diesen Kurven war zu sehen, daß es außerhalb des Kraftwerksgeländes keine gesundheitliche Gefahr durch Strahlung geben konnte, und das wurde später von UNSCEAR bestätigt. Dennoch wurden in der Umgebung über 100 000 Menschen evakuiert, weil dieses vom Gesetz verlangt wurde. Es wurden auch die Krankenhäuser und Altenheime evakuiert. Etwa 150 bis 600 StrahlenSCHUTZopfer gibt es [2], weil die ärztliche Versorgung der Intensivpatienten abgebrochen wurde.

Woher kommt die Strahlung?

Die in Waffen oder Kraftwerken eingesetzten Ausgangsstoffe sind sehr schwach radioaktiv. Auch der Mensch ist ein radioaktiv strahlender Körper. Erst bei der Kernspaltung entstehen Spaltprodukte mit kurzer Halbwertszeit, und damit eine starke Strahlung, die gefährlich sein kann. Daher ist die Menge der gespaltenen Atomkerne ein Maß für die Strahlung.

Bei den Sprengsätzen auf Hiroshima (U-235) und Nagasaki (Pu-239) war die Explosionsenergie 13 bzw. 22kt TNT. Dabei wurde jeweils etwa 1 kg Uran bzw. Plutonium gespalten, es sind also jeweils 1kg strahlende Spaltprodukte entstanden.

In einem Reaktor der üblichen Größe von 1000 MWe wird in einem Jahr rund eine Tonne Spaltstoff gespalten und es sammeln sich in einem Jahr bis zu einer Tonne strahlende Spaltprodukte an. Es können in Reaktoren wie Tschernobyl und Fukushima daher bis zu tausendmal mehr strahlende Spaltprodukte im Vergleich zur Bombe enthalten sein.

Die schreckliche Gefahr der Bombe sind die Druckwelle und Hitzestrahlung der Explosion, das brachte in Japan den Tod für über 200 000 Menschen. Als strahleninduzierte Opfer unter den 86 000 Überlebenden werden bis zum Jahre 2000 etwa 440 Tote der Strahlung zugeschrieben.

Bei einem Reaktor ist die angesammelte Menge an strahlenden Spaltprodukten eine potentielle Gefahr, die durch mehrfache Barrieren eingeschlossen bleibt und nur bei Unfällen frei gesetzt werden kann. Nur dann kann sie Schaden anrichten, falls die Dosis groß genug ist. Daher ist die potentielle Strahlengefahr bei Reaktorunfällen wesentlich größer als bei einer Bombe wie in Hiroshima und Nagasaki.

Demagogie: Alles ist verstrahlt!

Strahlung ist gefährlich bei großer Dosis in kurzer Zeit im Bereich über einem Sievert. Das ist bei allen Dingen so, im Übermaß sind alle Dinge schlecht, können gefährlich werden. Das wusste vor über 500 Jahren schon der berühmte Paracelsus. Nur bei Strahlung wurde diese Weisheit vom modernen Menschen vergessen.

Nur bei Strahlung macht man die Annahme, daß wegen der Gefahr bei hoher Dosis auch jede noch so kleine Dosis schädlich sei. Das ist eine Hypothese. Mit dieser Hypothese werden oft hypothetische Opfer ausgerechnet, die dann als nicht nachweisbar bezeichnet werden. Ein hypothetischer Schaden ist jedoch KEIN Schaden. Jeder kann das an einem Selbstversuch testen und eine Woche lang nur hypothetische Nahrung zu sich nehmen — das Ergebnis wird deutliches Magenknurren sein, denn hypothetische Nahrung ist KEINE Nahrung.

Aus den Reihen der Internationalen Strahlenschutzkommission ICRP heißt es zu der hypothetischen Strahlengefahr „speculative, unproven, undetectable and ‚phantom‘“. Wegen dieser spekulativen Gefahr steigt Deutschland aus seiner gesicherten Stromversorgung aus und wirft seine Kernkraftwerke mit einem Wiederbeschaffungswert von über 150 Mrd. EURO auf den Müllhaufen.

Auch in der Südsee bei den oberirdischen Kernwaffentests war die Strahlengefahr eine spekulative Gefahr. Man wusste um mögliche Gefahren, und man hatte entsprechend gehandelt und vorsorglich Menschen evakuiert. Wenn heute dazu „Der vergessene Atomkrieg“ gesagt wird und jegliche Dosisangaben fehlen, dann kann man bei Kenntnis der in Tschernobyl und Fukushima gemessenen Dosen nur von Angstmache reden.

Die UN-Kommission UNSCEAR zählt von Anbeginn bis zum Jahre 2005 für die friedliche Nutzung der Kernenergie 147 Todesopfer, dabei ist Tschernobyl eingeschlossen. Bei jeder neuen Technik gibt es Unfälle, diese Zahlen zur Kerntechnik zeigen das wohlüberlegte Herangehen der Wissenschaftler an diese Technik.

Die wirkungsvollste Demagogie: Land ist auf Jahre unbewohnbar!

Schon lange vor der Entdeckung der Kernspaltung wurden in den 1930-er Jahren für den Umgang mit Röntgengeräten Grenzwerte für ionisierende Strahlung eingeführt. Damals wird das Motiv echte Vorsorge vor der noch unbekannten Wirkung der Strahlung auf Lebewesen gewesen sein. Das hat sich fortgesetzt mit immer neuen Vorschriften zu immer kleineren erlaubten Dosen wegen der hypothetischen Strahlengefahr.

Schon 1955 gab es bei Freisetzung von Radioaktivität die Warnung „auf Jahre nicht bewohnbar“. Diese Warnungen wurden in Tschernobyl und Fukushima befolgt, daher wurden dort Menschen evakuiert.

Heute kann man aus Kenntnis der Bestrahlungsdosis sicher sagen:

  • In Fukushima wird durch Abtragen der obersten Bodenschicht in der evakuierten Zone ein Strahlenpegel von 0,000 0001 Sievert pro Stunde angestrebt. Wer sich dort alle Stunden des Jahres im Freien aufhält, der erhält eine kumulierte Dosis von 0,001 Sievert im Jahr. Das ist ein Zehntel der Dosis einer CT-Ganzkörperuntersuchung. Eine CT-Untersuchung ist erlaubt, der Aufenthalt in der Umgebung von Fukushima ist verboten — wo bleibt da die Logik?
  • Die „Todeszone“ rund um Tschernobyl ist weiterhin unbewohnt, aber der Strahlenpegel liegt dort heute bei etwa einem Zehntel bis Hundertstel des Strahlenpegels im Flugzeug auf Reiseflughöhe auf unserer geographischen Breite. Die „Todeszone“ ist verbotenes Land, aber Fliegen ist erlaubt — wo bleibt da die Logik?

In beiden Fällen hat man Menschen wegen der hypothetischen Strahlengefahr ihre Heimat genommen.

In der Südsee hatte Greenpeace die Menschen in den ursprünglich evakuierten Zonen, die später wieder besiedelt wurden, erneut evakuiert, wegen einer „unsichtbarer Gefahr“. Die Menschen dort kennen sich nicht aus in der Materie, sie GLAUBEN, was man Ihnen sagt.

Eine HYPOTHETISCHE Gefahr ist keine reale Gefahr, aber sie kann Angst erzeugen. Und das wurde über Jahrzehnte gemacht. Die Menschen wurden systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Sie haben es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Das ist zu tadeln, denn bei niedrigem Strahlenpegel ist Strahlung in niedrigem Dosisbereich von hohem Nutzen: Es gibt allein in Deutschland 8 Radonheilbäder, wo durch die Radioaktivität des Gases Radon die Kurgäste profitieren. Allein in EU gibt es über 80 000 Patienten im Jahr, die die heilende Wirkung von Strahlung für sich nutzen, sie werden „schön verstrahlt“ [2]. Das ist ein kraftvolles Argument gegen die Aktionen der Angstmacher. Wir sind es den unschuldigen Evakuierungsopfern der Demagogen schuldig, zu sagen: Eine nicht nachweisbare Gefahr ist KEINE Gefahr.

Gesetze können falsch sein, denn sie werden von Menschen gemacht. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall, und viele Fachleute der Strahlenbiologie protestieren gegen diese Gesetze [3]. Die Strahlenschützer sehen das anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Medien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt — das ist schade.

[1] „Legenden vom bösen Atom“, DER SPIEGEL, 47/2007

[2] „Schön verstrahlt”, DER SPIEGEL, 17/2016

[3] Z. Bsp.: Feinendegen, Becker, Calabrese, Cuttler, Luckey, Cohen, Doss, Tubiana, Muckerheide, Allison, Jaworowski, Sanders, Marcus, Miller und sehr viele andere