1

Warum Australiens Verbot der Nutzung von Kernenergie dem Verstand und der Logik trotzt

Aufmacher: Wargus; wikimapia.org

Was aber nicht sonderlich auf dem Prüfstand steht, ist die Tatsache, dass die Propheten des Weltuntergangs zur Möglichkeit von CO2-freier Stromerzeugung schweigen.

Anstatt die einzige eigenständige Stromquelle zu fördern, die zuverlässig und kostengünstig Strom liefert, ohne dabei Kohlendioxid zu erzeugen, versteifen sich die Panikmacher darauf, dass Windmühlen und Sonnenkollektoren der einzige Weg sind, um dem drohenden Untergang zu entgehen.

Stark subventionierter und chaotisch intermittierender Wind- und Sonnenstrom bieten keine Hoffnung auf eine sinnvolle und zuverlässige Stromversorgung; Sie haben das noch nie geboten und werden es auch nie können.

Demzufolge können Klimaalarmisten, die CO2 verteufeln, aber die Kernenergie nicht vorantreiben, nicht ernst genommen werden. Und ihr Versagen, die Kernenergie voranzutreiben, ist ein ziemlich klares Indiz dafür, was ihre Agenda wirklich ist: den Westen zu deindustrialisieren und den Rest in steinzeitlicher Armut zu halten.

Australien verfügt über die  weltweit größten Uranreserven und ist trotz seiner begrenzten Drei-Minen-Politik der drittgrößte Uranexporteur der Welt .

Daher überrascht es andere Mitglieder der Ersten Welt im Allgemeinen, dass Australien nicht nur nicht selbst von der Kernkraft profitiert, sondern diese bereits Jahren verbietet.

Lassen Sie sich von einem australischen Politiker erklären, warum Australien als größter Uranexporteur die einzige G20-Nation ohne Atomkraft ist und so weit gehen will, selbst die Verarbeitung von Uran und dessen Verwendung als Brennstoff für die Stromerzeugung überhaupt, gesetzlich zu verbieten.

Das  Gesetz  zum Schutz der Umwelt und der biologischen Vielfalt und das australische Gesetz zum  Strahlenschutz und zur nuklearen Sicherheit verbieten insbesondere die Herstellung, den Betrieb, die Anreicherung oder die Wiederaufbereitung von Kernbrennstoffen.

Für einen australischen Uran-Bergmann muss die Tatsache, dass Australien unter den G20-Nationen das einzige Land ist, das das Verbot der Kernenergieerzeugung verbietet, nicht nur absurd, sondern völlig lächerlich erscheinen.

Einer von ihnen, Tony Gray, gründete Pancontinental Mining und war an der Erkundung und Entdeckung der Jabiluka-Uranvorkommen beteiligt. Dies ist eine überarbeitete Version seiner Rede auf der diesmonatigen AusIMM International Uranium Conference in Adelaide.

 

Lassen Sie uns unseren natürlichen Vorteil in Bezug auf Energie nutzen, um Wohlstand zu schaffen.

The Australian, Tony Gray, vom 20. Juni 2019

Australien ist eine Schatzkammer, eine riesige Aladdin-Höhle voller Energiequellen, die mit ihrer Kombination aus Uran, Kohle und Erdgas nahezu einzigartig auf der Welt ist, ganz zu schweigen von einer beneidenswerten Menge Öl.

Aber etwas stimmt nicht. Wir können uns niemals darauf einigen, wie der Segen genossen werden kann. Im Gegenteil, oft unter dem Deckmantel der Bekämpfung des Klimawandels, sprechen subversive Stimmen dagegen, dieses Erbe zu genießen.

Uran war früher der Teufel; jetzt ist es Kohle. In den USA finanzierte der Steinkohlenbergbau ironischerweise die Anti-Atomkampagne, denn Kohle war damals heilig. Heutzutage kommt sogar Erdgas aus der Hölle.

Wind und Sonne sind die neuen Heiligen, aber sie lassen sich nicht befehlen, wann sie zu unserer Energie beitragen.

Die Genese dieses Arguments (statt einer Debatte) geht auf die soziale Revolution der 1970er Jahre zurück, als die Umweltbewegung vom Wunsch junger Radikaler nach einem neuen Anliegen beflügelt wurde, nachdem der Frieden in Vietnam den aufregenden Protesten die Grundlage nahm. Ihre harte Linke verschlang die Regeln des Club of Rome, der 1972 seinen Bericht The Limits to Growth veröffentlichte, eine These, die den Boden für einen perfekten Sturm gegen den Kapitalismus bereitete, indem behauptet wurde, die Welt müsse ihre wirtschaftliche Aktivität auf das verlangsamen konzentrieren – was als nachhaltig wäre.

Es gibt in allen Nationen, mit Sicherheit in der westlichen Welt, eine idealistische Phase [, wenn die Menschen nicht durch Existenzsorgen gequält werden]. Die gesicherte Energieverteilung ist eine unabdingbare Voraussetzung für moderne Volkswirtschaften [und damit ein besonders lohnendes Ziel für linke Weltverbesserer]. Der Ressourcenreichtum Australiens bietet ein verlockendes Potenzial, insbesondere wenn die Kosten für die Bekämpfung der Entwicklung als leicht erschwinglich eingeschätzt werden.

1983 musste ich als geschäftsführender Vorsitzender von Pancontinental Mining dem Chief Operating Officer von Electricite de France (EDF), Jean Feron, mitteilen, dass die neue ALP-Regierung unserem Unternehmen nicht erlauben würde, seine Vereinbarung (im Wert von Hunderten von Millionen Dollar) zum Verkauf von Uran an EDF von Jabiluka [damals geplante Uran-Mine] abzuschließen Der Franzose schüttelte traurig den Kopf und sagte: „Vous etes trop riches“ („Du bist zu reich“).

Wir haben riesige Kohlevorkommen, sowohl metallurgische als auch dampfende, und sie werden attackiert. Die Tugend-Vorgeber haben ihr Ziel von Uran auf fossile Brennstoffe umgestellt, wobei Kohle das Hauptziel ist.

In Wahrheit gibt es berechtigten Grund zur Sorge. Genauso wie Ängste vor der Kernenergie (und ihrem Proxy-Uran) berücksichtigt werden müssen, muss die Geschichte vom Klimawandel angegangen werden. Aber beide Fälle werden besser in der ruhigen Luft der Vernunft als in einem Gewitter der Emotionen behandelt.

Noch schwieriger wird es, wenn die Akteure der Debatte über Wirtschaftsentwicklung gegensätzliche Vorstellungen von der Grundstruktur der Gesellschaft haben. Es ist wie „zwei Menschen, die im selben Bett schlafen, aber unterschiedliche Träume haben“, wie die Japaner sagen.

Die harte Linke nutzt „Klimawandel“ für ihr eigentliches Ziel. Diese Taktik, durch übertriebene „wissenschaftliche“ Behauptungen und die Auslösung von Alarm getrieben, hat zu einer erheblichen Gegenbewegung geführt, die durch Misstrauen [gegen die offiziellen Informationen] ausgelöst wurde.

Die jüngsten Bundeswahlen zeigten eine Gegenreaktion der regionalen Wählerschaft, die ungeduldig auf Verzögerungen in Bezug auf die Adani-Mine in Queensland durch die Labor Party reagierte und auf die Frage nach der Relevanz des Klimawandels im Allgemeinen.

Die Gegenreaktion kommt sogar von denen, die es für angebracht halten, angemessene Schritte zur Verringerung der Abhängigkeit von fossilen Brennstoffen zu unternehmen. Dabei wird die Reputation der Wissenschaft geschwächt, das Vertrauen in Regierungen und Institutionen untergraben, die Öffentlichkeit unnötig geschreckt. Dabei bleiben oft sinnvolle und vernünftige Maßnahmen zur Bewältigung eines wichtigen Themas, dem fast alle zustimmen, auf der Strecke.

Unabhängig von der Politik, die unsere Regierung verfolgt, wäre es eine der albernsten, die Entwicklung unserer riesigen Energieressourcen, ob Uran, Kohle oder Erdöl, zu behindern.

Die Beschränkung unserer Uranindustrie, um der Welt als Vorbild zu dienen, machte keinen Unterschied für die Nutzung von Kernenergie in Übersee. Gleiches gilt für jeden Versuch, unsere Kohle als Signal zum Klimaschutz aufzugeben.

Das wäre Torheit und würde Investitionen und Arbeitsplätzen schaden. Die einzigen Nutznießer wären die Kohle produzierenden Länder, die mit uns im Wettbewerb stehen. Sie werden weiterhin Hunderte von Kohlekraftwerken auf der ganzen Welt versorgen, die noch in Betrieb sind (und gebaut werden), genau wie sich unsere politische Einschränkung des Uranabbaus in den 80er Jahren und das vollständige Verbot der Kernenergie in Australien 1998 als Segen erwiesen haben, für den Uranhandel in Kanada und Namibia.

The Australian (Bezahlsperre Anfrage)

Gefunden auf StopTheseThings vom 25.06.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/06/25/nuclear-no-brainer-why-australias-ban-on-nuclear-power-generation-defies-common-sense-logic/




90 italienische Wissenschaftler unterzeichnen Petition gegen Klimaalarm

Ja, in Italien haben vor kurzem über 90 Wissenschaftler eine Petition unterzeichnet mit dem Titel: “Klima, eine Gegenstrom-Petition“:

————

An den Präsidenten der Republik
An den Präsidenten des Senats
An den Präsidenten der Abgeordnetenkammer
An den Präsidenten des Rats

19.6.2019

 

PETITION ZUR GLOBALEN ANTHROPOGENEN ERWÄRMUNG

Die Unterzeichnenden, Bürger und Wissenschaftler, schicken eine warme Einladung an die politischen Führungskräfte, eine Umweltschutzpolitik einzuführen, welche im Einklang mit den wissenschaftlichen Erkenntnissen steht.

Insbesondere ist es dringend, die Verschmutzung dort zu bekämpfen, wo sie auftritt, gemäß den Befunden der modernsten Wissenschaft. Diesbezüglich ist die Verzögerung beklagenswert, mit welcher der Wissensreichtum, der von der Welt der Forschung zur Verfügung gestellt wird, benutzt wird, um die anthropogenen Schadstoffemissionen zu reduzieren, welche sowohl in den kontinentalen als auch Meeresumweltsystemen weit verbreitet vorhanden sind.

Aber uns muss bewusst sein, dass KOHLENDIOXID SELBST KEIN SCHADSTOFF IST. Im Gegenteil. Es ist für das Leben auf unserem Planeten unentbehrlich.

In den letzten Jahrzehnten hat sich eine These verbreitet, dass die Erwärmung der Erdoberfläche um rund 0,9°C, welche ab 1850 beobachtet worden ist, anomal wäre und ausschließlich von menschlichen Aktivitäten verursacht werden würde, insbesondere durch den Ausstoß von CO2 in die Atmosphäre beim Gebrauch fossiler Brennstoffe.

Dies ist die These der anthropogenen globalen Erwärmung, welche von dem Weltklimarat (IPCC) der Vereinten Nationen gefördert wird, deren Konsequenzen Umweltveränderungen sein würden, die so ernst wären, dass man enormen Schaden in der unmittelbaren Zukunft fürchten muss, außer wenn drastische und kostenintensive Abschwächungsmaßnahmen unverzüglich ergriffen werden.

Diesbezüglich sind viele Nationen in der Welt Programmen beigetreten, um Kohlendioxidemissionen zu reduzieren, und werden unter Druck gesetzt, auch durch eine nicht nachlassende Propaganda, zunehmend fordernde Programme anzunehmen, deren Umsetzung, welche mit hohen Belastungen auf die Wirtschaften der einzelnen Mitgliedsstaaten verbunden ist, von Klimakontrolle abhängig wäre und daher die „Rettung“ des Planeten.

Jedoch ist der anthropogene Ursprung der globalen Erwärmung EINE UNBEWIESENE HYPOTHESE, nur abgeleitet von einigen Klimamodellen, d.h. komplexen Computerprogrammen, genannt ‚General Circulation Models‘.

Hingegen hat die wissenschaftliche Literatur zunehmend die Existenz einer natürlichen Klimaschwankung betont, welche die Modelle nicht reproduzieren können.

Diese natürliche Schwankung erklärt einen beachtlichen Teil der globalen Erwärmung, welche seit 1850 beobachtet worden ist. Die anthropogene Verantwortung für die Klimaveränderung, welche in dem letzten Jahrhundert beobachtet worden ist, wird daher UNGERECHTFERTIGT ÜBERTRIEBEN und Katastrophenvorhersagen SIND NICHT REALISTISCH.

Das Klima ist das komplexeste System auf unseren Planeten, daher muss man sich damit mit Methoden befassen, welche adäquat sind und mit seinem Niveau der Komplexität übereinstimmen.

Klimasimulationsmodelle reproduzieren nicht die beobachtete natürliche Schwankung des Klimas und rekonstruieren insbesondere nicht die warmen Perioden der letzten 10.000 Jahre. Diese haben sich ungefähr alle tausend Jahre wiederholt und schließen die gut bekannte mittelalterliche Warmzeit ein, die heiße römische Periode, und generell die Warmzeiten während des „Holozänen Optimums“.

Die PERIODEN DER VERGANGENHEIT SIND AUCH WÄRMER GEWESEN ALS DIE GEGENWÄRTIGE ZEIT, obwohl die CO2 Konzentration niedriger war als die gegenwärtige, dieweil sie mit den tausendjährigen Zyklen der Sonnenaktivität verbunden sind. Die Auswirkungen werden von den Modellen nicht reproduziert.

Es sollte daran gedacht werden, dass die Erwärmung, welche seit 1900 beobachtet worden ist, tatsächlich in den 1700en begann, d.h. am Tiefpunkt der Kleinen Eiszeit, der kältesten Periode der letzten 10.000 Jahre (übereinstimmend mit dem tausendjährigen Tiefpunkt der Sonnenaktivität, welche Astrophysiker Maunder Minimum nennen). Seitdem ist die Sonnenaktivität, ihrem tausendjährigen Zyklus folgend, angestiegen, wobei sie die Erdoberfläche erwärmt.

Des Weiteren versagen die Modelle dabei, die bekannten Klimaschwankungen von ungefähr 60 Jahren zu reproduzieren.

Diese waren zum Beispiel verantwortlich für eine Warmzeit (1850-1880) gefolgt von einer kühleren Periode (1880-1910), eine Erwärmung (1910-40), eine Abkühlung (1940-70) und einer neuen wärmeren Periode (1970-2000) ähnlich der, welche 60 Jahre früher beobachtet wurde.

Die folgenden Jahre (2000-2019) sahen einen Anstieg, der nicht von den Modellen vorhergesagt wurde, von ungefähr 0,2°C pro Jahrzehnt, und eine beachtliche Klimastabilität, welche sporadisch von den schnellen natürlichen Schwankungen des äquatorialen Pazifischen Ozeans  unterbrochen wurde, bekannt als die El Nino Southern Oscillations, wie diejenige, welche zu der temporären Erwärmung zwischen 2015 und 2016 führte.

Die Medien behaupten auch, dass extreme Ereignisse, wie z.B. Hurrikans und Zyklone, alarmierend angestiegen sind. Umgekehrt sind diese Ereignisse, wie viele Klimasysteme, seit dem zuvor erwähnten 60-Jahre-Zyklus moduliert worden.

Zum Beispiel, wenn wir die offiziellen Daten von 1880 über tropische Atlantikzyklone betrachten, welche Nordamerika getroffen haben, scheinen sie eine starke 60-Jahre Schwankung zu haben, entsprechend der thermischen Schwankung des Atlantiks, genannt Atlantic Multidecadal Oscillation (=atlantische mehrdekadische Schwankung).

Die Spitzen, welche pro Jahrzehnt beobachtet wurden, sind in den Jahren 1880-90, 1940-50 und 1995-2005 miteinander kompatibel. Von 2005 bis 2015 nahm die Anzahl der Zyklone ab, wobei dies präzise dem zuvor erwähnten Zyklus folgte. Somit gibt es in der Zeitspanne von 1880-2015 zwischen der Anzahl der Zyklone (welche schwanken) und dem CO2 (welches monoton ansteigt) keine Korrelation.

Das Klimasystem wird noch nicht ausreichend verstanden. Obwohl es wahr ist, dass CO2 ein Treibhausgas ist, ist laut dem IPCC die Klimasensitivität auf dessen Anstieg in der Atmosphäre immer noch extrem unsicher.

Es wird geschätzt, dass eine Verdoppelung der Konzentration des atmosphärischen CO2 von ungefähr 300ppm vorindustriell auf 600ppm die Durchschnittstemperatur des Planeten von einem Minimum von 1°C bis zu einem Maximum von 5°C erhöhen kann.

Diese Unsicherheit ist enorm.

Jedenfalls schätzen viele neue Studien, die auf experimentellen Daten basieren, dass die Klimasensitivität auf CO2 BEDEUTEND NIEDRIGER ist als jene, die von den IPCC Modellen geschätzt wird.

Dann ist es wissenschaftlich unrealistisch, die Verantwortung für die Erwärmung, welche vom vergangenen Jahrhundert bis heute beobachtet wurde, den Menschen zuzuschreiben. Die voreilenden Vorhersagen der Panikmacher sind daher nicht glaubwürdig, da sie auf Modellen basieren, deren Ergebnisse den experimentellen Daten wiedersprechen.

Alle Beweise legen nahe, dass diese MODELLE den anthropogenen Beitrag ÜBERSCHÄTZEN und die natürliche Klimaschwankung unterschätzen, besonders jene, die von der Sonne, dem Mond und den Meeresschwankungen verursacht wird.

Schließlich veröffentlichen die Medien die Nachricht, laut dessen es in Bezug auf die menschliche Ursache der gegenwärtigen Klimaänderung einen fast einstimmigen Konsens unter den Wissenschaftlern gibt, dass die wissenschaftliche Debatte abgeschlossen werden würde.

Jedoch müssen wir uns zuerst einmal bewusst werden, dass die wissenschaftliche Methode bestimmt, dass die Fakten und nicht die Anzahl der Anhänger eine Mutmaßung zu einer gemeinsamen wissenschaftlichen Theorie machen.

Wie dem auch sei, der gleiche angebliche Konsens EXISTIERT NICHT. Es gibt tatsächlich eine bemerkenswerte Variabilität an Meinungen unter den Spezialisten – Klimatologen, Meteorologen, Geologen, Geophysiker, Astrophysiker – von denen viele einen wichtigen natürlichen Beitrag zur globalen Erwärmung anerkennen, welche von der vorindustriellen Zeit und sogar von der Vorkriegszeit bis heute beobachtet worden ist.

Es hat auch Petitionen gegeben, welche von tausenden von Wissenschaftlern unterschrieben worden sind, die eine abweichende Meinung zur Mutmaßung der anthropogenen globalen Erwärmung ausgedrückt haben.

Diese umfassen diejenige, welche 2007 von dem Physiker F. Seitz gefördert wurde, ehemaliger Präsident der American National Academy of Science, und diejenige, welche von dem nichtstaatlichen Weltklimarat (NIPCC) gefördert wurde, deren Bericht von 2009 zu dem Schluss kommt, dass „die Natur, und nicht die Aktivität des Menschen, regiert das Klima“.

Zum Schluss, angesichts der ENTSCHEIDENDEN WICHTIGKEIT, WELCHE FOSSILE TREIBSTOFFE für die Energieversorgung der Menschheit haben, schlagen wir vor, dass sie  nicht der Politik von kritikloser Reduzierung der Emission von Kohlendioxid in die Atmosphäre unterworfen werden sollten mit DEM ILLUSORISCHEN ANSCHEIN DES BEHERRSCHENS DES KLIMAS.

 

FÖRDERKOMITEE :

1. Uberto Crescenti, Emeritus Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara, formerly Rector and President of the Italian Geological Society.

2. Giuliano Panza, Professor of Seismology, University of Trieste, Academician of the Lincei and of the National Academy of Sciences, called of the XL, 2018 International Award of the American Geophysical Union.

3. Alberto Prestininzi, Professor of Applied Geology, La Sapienza University, Rome, formerly Scientific Editor in Chief of the magazine International IJEGE and Director of the Geological Risk Forecasting and Control Research Center.

4. Franco Prodi, Professor of Atmospheric Physics, University of Ferrara.

5. Franco Battaglia, Professor of Physical Chemistry, University of Modena; Galileo Movement 2001.

6. Mario Giaccio, Professor of Technology and Economics of Energy Sources, University G. D’Annunzio, Chieti-Pescara, former Dean of the Faculty of Economics.

7. Enrico Miccadei, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.

8. Nicola Scafetta, Professor of Atmospheric Physics and Oceanography, Federico II University, Naples.

UNTERZEICHNENDE

1. Antonino Zichichi, Emeritus Professor of Physics, University of Bologna, Founder and President of the Ettore Center for Scientific Culture Majorana di Erice.

2. Renato Angelo Ricci, Professor Emeritus of Physics, University of Padua, former President of the Italian Society of Physics and Society European Physics; Galileo Movement 2001.

3. Aurelio Misiti, Professor of Health-Environmental Engineering, University of Sapienza, Rome.

4. Antonio Brambati, Professor of Sedimentology, University of Trieste, Project Manager Paleoclima-mare of PNRA, already President of the National Oceanography Commission.

5. Cesare Barbieri, Professor Emeritus of Astronomy, University of Padua.
6. Sergio Bartalucci, Physicist, President of the Association of Scientists and Tecnolgi for Italian Research.
7. Antonio Bianchini, Professor of Astronomy, University of Padua.
8. Paolo Bonifazi, former Director of the Institute of Interplanetary Space Physics, National Astrophysical Institute.
9. Francesca Bozzano, Professor of Applied Geology, Sapienza University of Rome, Director of the CERI Research Center.
10. Marcello Buccolini, Professor of Geomorphology, University University G. D’Annunzio, Chieti-Pescara.
11. Paolo Budetta, Professor of Applied Geology, University of Naples.
12. Monia Calista, Researcher in Applied Geology, University G. D’Annunzio, Chieti-Pescara.
13. Giovanni Carboni, Professor of Physics, Tor Vergata University, Rome; Galileo Movement 2001.
14. Franco Casali, Professor of Physics, University of Bologna and Bologna Academy of Sciences.
15. Giuliano Ceradelli, Engineer and climatologist, ALDAI.
16. Domenico Corradini, Professor of Historical Geology, University of Modena.
17. Fulvio Crisciani, Professor of Geophysical Fluid Dynamics, University of Trieste and Marine Sciences Institute, Cnr, Trieste.
18. Carlo Esposito, Professor of Remote Sensing, La Sapienza University, Rome.
19. Mario Floris, Professor of Remote Sensing, University of Padua.
20. Gianni Fochi, Chemist, Scuola Normale Superiore of Pisa; scientific journalist.
21. Mario Gaeta, Professor of Volcanology, La Sapienza University, Rome.
22. Giuseppe Gambolati, Fellow of the American Geophysica Union, Professor of Numerical Methods, University of Padua.
23. Rinaldo Genevois, Professor of Applied Geology, University of Padua.
24. Carlo Lombardi, Professor of Nuclear Plants, Milan Polytechnic.
25. Luigi Marino, Geologist, Geological Risk Forecasting and Control Research Center, La Sapienza University, Rome.
26. Salvatore Martino, Professor of Seismic Microzonation, La Sapienza University, Rome.
27. Paolo Mazzanti, Professor of Satellite Interferometry, La Sapienza University, Rome.
28. Adriano Mazzarella, Professor of Meteorology and Climatology, University of Naples.
29. Carlo Merli, Professor of Environmental Technologies, La Sapienza University, Rome.
30. Alberto Mirandola, Professor of Applied Energetics and President of the Research Doctorate in Energy, University of Padua.
31. Renzo Mosetti, Professor of Oceanography, University of Trieste, former Director of the Department of Oceanography, Istituto OGS, Trieste.

32. Daniela Novembre, Researcher in Mining Geological Resources and Mineralogical Applications, University G. D’Annunzio, Chieti Pescara.
33. Sergio Ortolani, Professor of Astronomy and Astrophysics, University of Padua.
34. Antonio Pasculli, Researcher of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
35. Ernesto Pedrocchi, Professor Emeritus of Energetics, Polytechnic of Milan.
36. Tommaso Piacentini, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.
37. Guido Possa, nuclear engineer, formerly Deputy Minister Miur.
38. Mario Luigi Rainone, Professor of Applied Geology, University of Chieti-Pescara.
39. Francesca Quercia, Geologist, Research Director, Ispra.
40. Giancarlo Ruocco, Professor of Structure of Matter, La Sapienza University, Rome.
41. Sergio Rusi, Professor of Hydrogeology, University G. D’Annunzio, Chieti-Pescara.
42. Massimo Salleolini, Professor of Applied Hydrogeology and Environmental Hydrology, University of Siena.
43. Emanuele Scalcione, Head of Regional Agrometeorological Service Alsia, Basilicata.
44. Nicola Sciarra, Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
45. Leonello Serva, Geologist, Director of Geological Services of Italy; Galileo Movement 2001.
46. ​​Luigi Stedile, Geologist, Geological Risk Review and Control Research Center, La Sapienza University, Rome.
47. Giorgio Trenta, Physicist and Physician, President Emeritus of the Italian Association of Medical Radiation Protection; Galileo Movement 2001.
48. Gianluca Valenzise, ​​Director of Research, National Institute of Geophysics and Volcanology, Rome.
49. Corrado Venturini, Professor of Structural Geology, University of Bologna.
50. Franco Zavatti, Astronomy Researcher, University of Bologna.
51. Achille Balduzzi, Geologist, Agip-Eni.
52. Claudio Borri, Professor of Construction Sciences, University of Florence, Coordinator of the International Doctorate in Engineering Civil.
53. Pino Cippitelli, Agip-Eni Geologist.
54. Franco Di Cesare, Executive, Agip-Eni.
55. Serena Doria, Researcher of Probability and Mathematical Statistics, University G. D’Annunzio, Chieti-Pescara.
56. Enzo Siviero, Professor of Ponti, University of Venice, Rector of the e-Campus University.
57. Pietro Agostini, Engineer, Association of Scientists and Tecnolgi for Italian Research.
58. Donato Barone, Engineer.
59. Roberto Bonucchi, Teacher.
60. Gianfranco Brignoli, Geologist.
61. Alessandro Chiaudani, Ph.D. agronomist, University G. D’Annunzio, Chieti-Pescara.
62. Antonio Clemente, Researcher in Urban Planning, University G. D’Annunzio, Chieti-Pescara.
63. Luigi Fressoia, urban architect, Perugia.
64. Sabino Gallo, nuclear engineer.
65. Daniela Giannessi, First Researcher, Ipcf-Cnr, Pisa.
66. Roberto Grassi, Engineer, Director of G&G, Rome.
67. Alberto Lagi, Engineer, President of Restoration of Complex Damaged Plants.
68. Luciano Lepori, Ipcf-Cnr Researcher, Pisa.
69. Roberto Madrigali, Metereologo.
70. Ludovica Manusardi, Nuclear physicist and scientific journalist, Ugis.
71. Maria Massullo, Technologist, Enea-Casaccia, Rome.
72. Enrico Matteoli, First Researcher, Ipcf-Cnr, Pisa.
73. Gabriella Mincione, Professor of Sciences and Techniques of Laboratory Medicine, University G. D’Annunzio, Chieti-Pescara.
74. Massimo Pallotta, First Technologist, National Institute for Nuclear Physics.
75. Enzo Pennetta, Professor of Natural Sciences and scientific divulger.
76. Nunzia Radatti, Chemist, Sogin.
77. Vincenzo Romanello, Nuclear Engineer, Research Center, Rez, Czech Republic.
78. Alberto Rota, Engineer, Researcher at Cise and Enel.
79. Massimo Sepielli, Director of Research, Enea, Rome.
80. Ugo Spezia, Engineer, Industrial Safety Manager, Sogin; Galileo Movement 2001.
81. Emilio Stefani, Professor of Plant Pathology, University of Modena.
82. Umberto Tirelli, Visiting Senior Scientist, Istituto Tumori d’Aviano; Galileo Movement 2001.
83. Roberto Vacca, Engineer and scientific writer.

—————-

Italienisches Original hier

Englische Übersetzung hier

Der Beitrag erschien zuerst bei „Die kalte Sonne“




Die illusionistischen Tricks von Klimaprofessoren – heute: Volker Quaschning

Quaschning ist neben seinen Youtube-Aktivitäten hauptsächlich dafür bekannt, eines der Gesichter der Scientists for future zu sein, also der Erwachsenen-FFF-Groupies von Greta. In einem seiner Videos steht er erst in voller Montur in einem See und verdeutlicht das „Ansteigen des Meeresspiegel“ dadurch, daß er selbst immer weiter ins Wasser steigt. Anders wäre der Anstieg auch nicht zu „beweisen“, denn der „Meeresspiegel“(1)  steigt immer noch nirgendwo schneller als sonst.

Dann führt er ein Experiment durch, das „beweist“, wie gefährlich CO2 für unser Klima sei. Dazu kippt er Essig auf Backsoda („Natron“) und leitet das entstehende Kohlendioxid unter eine Plastikhaube, die von einer althergebrachten Glühbirne bestrahlt wird. Und siehe da: Die Temperatur der „Atmosphäre“ unter der Haube steigt deutlich an. Und nun Sie, geneigter skeptischer Leser: Wie geht der Trick?

Zunächst die Reaktionsformel: NaHCO3 + CH3COOH -> CH3COONa + H2O + CO2.

Die Kommentare der zahlreichen Klimaleugner unter dem Video geben weitere Auskunft. Zunächst einmal entsteht bei den meisten chemischen Reaktionen, die spontan unter Standardbedingungen (Raumtemperatur, Normaldruck) ablaufen, Reaktionswärme. Heißt, der Professor hat mutmaßlich warmes CO2 und/oder warmen Wasserdampf unter die Haube geleitet. Ein Hinweis darauf ist die extrem schnelle Aufheizung der Hauben-Atmosphäre, die angeblich allein auf die Wechselwirkung des CO2 mit der Glühbirnenstrahlung zustande kommen soll. Ein ordentlich arbeitender Wissenschaftler hätte hier eine Kontrolle eingebaut, also die Temperatur der entstehenden Gase sofort gemessen und ggfls. nachweislich gewartet, bis die Reaktionsprodukte Raumtemperatur angenommen hätten (und dies mit dem Thermometer überprüft!). Darauf hingewiesen, antwortet Quaschning lapidar:

„Die angegebene Temperatur wurde nach Einleiten des Gases bestimmt. Die Masse des Gases ist im Vergleich zu den Materialien des Versuchsaufbaus gering, sodass sich nach kurzer Zeit annähernd die gleiche Temperatur wie bei Luft eingestellt hat, bevor die Lampe die Temperatur nach oben getrieben hat.“

Und:

„Natürlich haben wir gewartet, bis sich das Temperaturgleichgewicht eingestellt hat. Im Video sind die Wartezeiten rausgeschnitten, um Längen zu vermeiden. Die Lösung mit Soda und Essig lässt sich zu Hause leichter realisieren als die CO2-Flasche. Das ist der Hauptgrund für die Wahl dieser Methode.“ [Gemeint ist hier eine technische Gasdruckflasche.]

Nebenbei: Ich habe das Video heruntergeladen und die Antworten von Quaschning per Bildschirmfoto gesichert. Löschen ist also sinnlos.

Andere kritische Kommentatoren verweisen darauf, daß der Professor den Raum unter seiner Plastikhaube mit Kohlendioxid regelrecht geflutet und zudem versäumt habe, den CO2-Gehalt zu bestimmen. Das Experiment hat also mit der natürlichen Erdatmosphäre nur wenig zu tun, da unsere Atemluft nur rund 0,04% Kohlenstoffdioxid enthält und nicht 50 (?) oder gar 90 % (?) wie im Experiment. Ein anderer Kritiker meint, warum die umständliche Methode mit der Säure-Base-Reaktion genutzt wurde. Eine geschüttelte Sprudelflasche hätte es auch getan. Ja, warum?

Man sieht, Quaschning macht grobe Fehler, die uns peniblen wissenschaftspuristischen Klimarealisten gleich mehrere Steilvorlagen liefern. Im Angesicht von „eingeschätzten Meeresspiegelanstiegen“, durchgewunken von PIK-Rahmstorf und PIK-Schellnhuber, und dem sozial konstruierten „gewinkelten“ CO2 von PIK-Levermann wundert mich aber nichts mehr. Wie sagte Kabarettist Vince Ebert so schön: Klimatologen seien so etwas wie die Homöopathen der Naturwissenschaft; Methodik, Beweisführung, alles „huschi-pfuschi“. Was wundert, ist die Unbekümmertheit und Dreistigkeit der Klimaforscher, solche „Beweisexperimente“ auch noch auf Youtube zu veröffentlichen. Sollten eines Tages Gesetze gegen Wissenschaftsbetrug vom Bundestag beschlossen werden, könnte Quaschnings Video der Anklage dienen.

Wieso macht der Energiesysteme-Professor es dann? Nun, wie das „gewinkelte“ CO2 beweist, sind die Klimaprofs eher Politiker und Schauspieler als Wissenschaftler und mutmaßlich über Vitamin B an ihre Professuren gekommen, und nicht durch ihre Kompetenz. Meine eigene Erfahrung als Laborratte bestätigte mir das: Die wirklich fähigen Wissenschaftler sind politisch kaum aktiv und legen wenig Wert auf großes Medientamtam. Die werkeln lieber still im Büro oder Labor und versuchen, ihre Ergebnisse in möglichst guten Zeitschriften unterzubringen. Das Geld für viel Material und Personal hingegen bekommen eher die Politischen. „Wer am lautesten schreit, kriegt auch das meiste Geld“, wie mir einmal ein Chefarzt verriet.

Ein weiterer Faktor dürfte die „Filterblase“ sein, in der die Polit-Wissenschaftler leben. Sie bewegen sich nur in Kreisen Gleichgesinnter und werden von den Medien für ihre Panikmache gebauchpinselt. Ein Untergebener, der sich wagte, Kritik anzumelden, würde nicht mehr lange beim Klimaprof arbeiten, den kurzen Zeitverträgen sei Dank. Kompetente kritische Geister lockt man so nicht an, man kultiviert eher die Mittelmäßigkeit. Wenn überhaupt; sagen wir lieber, Niveaulosigkeit.

(1) „Der Meeresspiegel“ ist ebenso eine fiktive Variable wie mittlere Globaltemperatur. Es gibt soviele „Meeresspiegel“ wie es Pegel-Messstellen gibt, deren stark fluktuierende Daten müssen erst durch aufwendige und durch diskussionswürdige Rechnungen zum relativen Meeresspiegel (relative sea level rsl) verdichtet werden.

 

 




Klimawissen­schaftler manipu­lieren die Daten wieder und wieder und wieder und wieder

Auf dem Blog von Pierre Gosselin gibt es einen Beitrag von Kirye aus Japan über die Temperatur-Adjustierungen des GISS bei der NASA (hier, auf Deutsch beim EIKE hier). In der jüngsten GISS-Version V4 unterscheiden sich die vermeintlich „nicht adjustierten“ Daten von den nicht adjustierten Daten in der Vorgängerversion V3.

Tony Heller zeigt Graphiken der Versionen von NASA GISTEMP aus den Jahren 2000, 2017 und 2019. Aus diesen geht hervor, dass Gavin Schmidt und sein Team es fertig gebracht haben, die Erwärmung immer weiter hochzuschrauben, besonders im Zeitraum des unbequemen Stillstands. Den Effekt erkennt man auch in den Abbildungen 2 und 4 auf der GISS history page.

Hier in UK macht das HadCRUT4-Team genau das Gleiche. Clive Best fragt „Was ist mit dem Global Warming Hiatus?“ Die Antwort lautet, das man ihn zerschlagen hat mittels einer ganzen Reihe von Adjustierungen der Daten. HadCRUT3, zeigt so wie im Jahre 2014 veröffentlicht einen eindeutigen Stillstand ohne jede Erwärmung von 2001 bis 2013, aber die jüngsten neuen, verbesserten Daten der letzten Zeit im HadCRUT4 wurden nach oben korrigiert. Clive dachte, dass dies der Erfassung von Stationen mit unterschiedlichen Messungen geschuldet ist, fand jedoch bei Nachforschungen heraus, dass dies mitnichten der Fall ist. Die Zahlen wurden einfach so adjustiert.

Die früheren Versionen von HadCRUT4 können hier eingesehen werden. Daraus wird ersichtlich, wie der Temperaturunterschied zwischen 2013 und 2001 in nachfolgenden Versionen stetig aufwärts getrieben worden ist:

Aber der wesentliche Punkt in diesem Beitrag (das 4. Mal ,wieder‘ in der Überschrift) ist der Bericht über die jüngste Datenmanipulation, von welcher in keinem der obigen Beiträge die Rede ist. Sie stammt von John Kennedy und seinen Kollegen vom UK Met.-Office (UKMO) und wird in einer sehr langen Studie hier beschrieben. Man befasst sich darin mit den Wassertemperaturen (SSTs) und dem brandneuen Datensatz mit der Bezeichnung HadSST4 (verwirrenderweise verwendet HadCRUT4 den Datensatz HadSST3)

Hier folgt Abbildung 14 aus jener Studie. Die Achsenbeschreibung befindet sich in einem Plot weiter unten, aber die großen Merkpunkte sind 1850, 1900, 1950, 2000. In der Graphik wird die gegenwärtige Version HadSST3 verglichen mit der vorgestellten neuen Version HadSST4.

Offensichtlich brauche ich nicht zu erklären, welches die neue und welches die vorherige Version ist. Die Erwärmung wurde einfach um 0,1°C verstärkt, oder 10% insgesamt.

Abbildung 16 in jener Studie zeigt Temperaturtrends gekennzeichnet bis 2012:

Hier stehen die roten Karos für die Rohdaten und die grünen für HadSST3. Die neue Version HadSST4 ist als die schwarze Linie dargestellt, wobei die graue Schattierung die Unsicherheits-Bandbreite repräsentiert. Während der frühen Jahre des 20. Jahrhunderts passte die globale Erwärmung nicht zu der Theorie der Klimawissenschaftler einer Erwärmung durch Kohlendioxid, also wurden die Daten kurzerhand nach unten korrigiert. Aber man betrachte den Trend während des Zeitraumes des Stillstands: hier zeigen die Rohdaten buchstäblich keinerlei Trend. HadSST3 adjustierte den Trend aufwärts, um Erwärmung zu erzeugen, und in HadSST4 wurde noch einmal nach oben adjustiert, wobei die Adjustierung von zuvor in etwa verdoppelt wurde. Und das in einer Ära, in welcher die Datenqualität hervorragend sein sollte dank der Einführung des ARGO float system.

Was also geht hier vor sich? Einen Hinweis darauf gibt es in den anderen beiden Karos in blau und orange. Hierbei handelt es sich um zwei weitere Methoden, die Wassertemperatur zu messen, nämlich ERSST und COBE-SST. Da diese einen signifikant höheren Erwärmungstrend als bei HadSST3 erzeugt haben, musste das UKMO ihre Temperaturdaten ebenfalls aufwärts adjustieren, um damit mitzuhalten. Diese „reduzierte Diskrepanz zwischen Datensätzen“ ist einer der Schlüsselpunkte auf der ersten Seite der Studie.

Durch die ganze Studie zieht sich wie ein roter Faden die Darstellung von Verzerrungen in den Daten und wie diese entfernt werden. Aber die Autoren scheinen die größte Quelle von Verzerrungen zu vergessen, nämlich den Bias, der sich in ihren Köpfen abspielt.

Link: https://cliscep.com/2019/06/30/climate-scientists-fiddling-the-data-again-and-again-and-again-and-again/?

Übersetzt von Chris Frey EIKE




Die Erde wird grüner und fruchtbarer mit mehr CO2 und infolge Klimawandel!

Das ist eine Erkenntnis, die Wissenschaftler durch die Auswertung von Satellitendaten der letzten vier Jahrzehnte gewonnen haben. Auch wenn die Medien und Klimafolgenforscher Anderes behaupten.

16-04-25-greenearth

Eine in Nature Climate Change veröffentliche Studie von 2016 belegt das die Erde in den letzten Jahrzehnten grüner geworden ist und zwar erheblich. Für ihre Studie werteten die Forscher um Zaichun Zhu Vegetationsdaten aus, die drei Satelliten in der Zeit von 1982 bis 2009 aufgezeichnet hatten. Bei ihren Messungen erfassen die Satelliten über die Reflektion von Infrarotlicht, wie groß die Blattfläche und Dichte der Vegetation in einem Gebiet jeweils ist. Die Auswertung ergab: Seit 1982 ist die Pflanzenwelt auf einem Großteil der irdischen Landflächen üppiger und damit grüner geworden. „Die größten Ergrünungstrends zeigen sich dabei im Südosten Nordamerikas, im nördlichen Amazonasgebiet, in Europa, Zentralafrika und in Südostasien“, berichten Zhu und seine Kollegen. Insgesamt hat die pflanzliche Biomasse in einem Viertel bis der Hälfte der mit Pflanzen bewachsenen Landgebiete zugenommen. „Dieses von uns beobachtete Ergrünen ist in seinem Ausmaß vergleichbar mit einem zusätzlichen grünen Kontinent von der doppelten Fläche der USA“, sagt Zhu.

Um herauszufinden, was genau für diesen Zuwachs an Pflanzenmaterial verantwortlich ist, fütterten die Wissenschaftler zehn globale Ökosystem-Modelle mit Daten zum Treibhausgas-Ausstoß, zur Landnutzung und zur Entwicklung von Klimafaktoren wie der Temperatur oder den Niederschlägen. Das Ergebnis: 70% des Ergrünens der Erde ist auf den Düngeeffekt der steigenden CO2-Werte zurückzuführen und 30% auf klimatische Effekte und andere Effekte, wie den Klimawandel, Stickstoffablagerung und Veränderung der Landbedeckung. So ist in den hohen Breiten und in Tibet und anderen Hochlagen der Gebirge der Anstieg der Temperaturen dafür verantwortlich, dass die Vegetation dort üppiger wurde. „Die Erwärmung fördert die Fotosynthese und verlängert die Wachstumssaison“, erklären die Forscher. In der Sahelzone und in Südafrika machen sich dagegen zunehmende Niederschläge bemerkbar. Die Region wird dadurch fruchtbarer und grüner.

CO2-Anstieg und Klimawandel begünstigen also das Ergrünen der Erde und das Pflanzenwachstum. Wer hätte das gedacht? Vor allen, da Medien und Klimafolgenforscher genau das Gegenteil davon behaupten und auf zunehmende Dürren und Missernten, z.B. in Syrien und auch hier in Deutschland hinweisen und Kriege und Flüchtlingsströme damit in Verbindung bringen. Hier nun die Realität. (Zum Vergrößern anklicken).

sat-data

Die Erde ist in den letzten 33 Jahren grüner geworden. Dies ist die wichtigste Schlussfolgerung einer internationalen Studie, die am 25. April 2016 in Nature Climate Change veröffentlicht wurde. In 40 Prozent der Weltregionen wurde im Zeitraum von 1982 bis 2015 ein signifikanten Anstieg der Blatt-Biomasse feststellt, während nur 4 Prozent signifikante Verluste an Vegetation aufwiesen. Die Ergrünung entspricht der Größe eines Kontinents der die doppelte Fläche der USA hat.

Grüner geworden sind auch Wüstenregionen, wie der Sahel an der Grenze zur Sahara, der Fruchtbare Halbmond, der sich über die Türkei, Syrien, den Irak und Iran erstreckt und das einstige Gebiet von Karthago, in Nordafrika, welches früher die Kornkammer Roms war. Diese Gebiete waren auch schon im Klimaoptimum des Holozäns direkt nach der letzten Eiszeit grün und fruchtbar. Vor dort aus breitete sich im Zuge der neolithischen Revolution der Ackerbau nach Europa und Nordeuropa aus.

dia-98-3data6-africa-veg

Während der letzten Eiszeit war die Sahara eine Wüste. Im Zeitraum von 9.000-6.000 Jahre vor heute hatten wir die wärmste Zeit des Holozäns, das Meereis der Arktis war im Sommer nahezu verschwunden und große Teile der Sahara waren fruchtbares Grasland. Es zogen große Herden durch das Grasland und es gab sogar Krokodile, dort wo heute Wüste ist. Davon zeugen heute noch Felsenbilder der Ureinwohner in der heutigen Wüste.

Gilf_Kebir_jan_2007_rock_carvings

Sahara

Die Felsbilder der Sahara entstanden seit 12.000 Jahren in Nordafrika. Also mit dem Ende der letzten Eiszeit. Die Sahara war während Millionen Jahren eine immer wieder extremen Klimaschwankungen unterworfene Wüste und ergrünte im Warmzeiten zeitweise wieder. Vor 3.500 Jahren setzte eine Austrocknung ein, die mit Unterbrechungen bis heute anhält. Seit gut vier Jahrzehnten ergünt der Sahel aber wieder.

11c_05pages-from-un-sahel-report-1982-2003-trendOverall-trends-in-vegetation-greenness-throughout-the-period-1982-2003-based-on-monthly

Das zeigen diverse Studien, die die Ergrünung der Sahelzone mit Hilfe von Satellitendaten seit 1982 aufzeigen.

Selbst der Tschadsee am Südrand der Sahara wächst wieder und wird grüner.

05-107-1

Auch der Fruchtbare Halbmond, der sich über und um Syrien erstreckt ist nicht dürrer und wüster geworden. Vor allen die grenznahe Türkei ist grüner geworden. Der Krieg in Syrien und die Flüchtlingsströme von 2015 sind auf ganz andere Ursachen zurückzuführen, als den Klimawandel, der dort angeblich Dürren und dann Konflikte ausgelöst hat. Schaut man auf die Bevölkerungsentwicklung in Syrien so zeigt sich dieses Bild:

Syrien

Zwischen 1950 und 2010 ist die Bevölkerung von Syrien von 4 Millionen Einwohner auf über 20 Millionen Einwohner angestiegen. Sie hat sich also in 60 Jahren mehr als verfünffacht. Somit benötigt man fünfmal mehr Lebensraum, Wasser, Nahrung, etc. bei selben Lebensstandart. Mit Erhöhung des Lebensstandrats sogar noch mehr. Kommt es dann zu einzelnen Dürrejahren und politischen und Glaubens-Konflikten, so ist es weiter verwunderlich, dass eine Krise ausbricht. Mit dem Klimawandel hat das wenig zu tun. Denn insgesamt ist die Region um den Fruchtbaren Halbmond bei Syrien in den letzten vier Jahrzehnten nicht dürrer und wüster geworden, wie die Satellitendaten aufzeigen.

Und auch in Deutschland ist es in den letzten vier Jahrzehnten nicht dürrer und wüster geworden, wie uns zuletzt von den Medien und Klimafolgenforscher vermittelt wurde. Ganz im Gegenteil.

Deutschland-Gruen

Vor allen der Norden, der Osten, die Mittelgebirgsregionen und Alpen sind grüner geworden, wie die Satellitendaten aufzeigen. Auch die Waldfläche wächst zusehens in Deutschland. Deutschland ist zu über 30% bewaldet. Zwischen 1992 und 2008 ist die Waldfläche in Deutschland „pro Jahr durchschnittlich um 176 Quadratkilometer gewachsen“. Das entspricht pro Jahr einer Fläche von 13 km mal 13 km, oder einem Quadrat mit 13 km Kantenlänge.

Nicht nur die Grünfläche wächst weltweit und auch in Deutschland, sondern auch die Ernteerträge nehmen immer weiter zu. Weltweit und auch in Deutschland. Sehen Sie selbst. Die Ernteerträge pro Fläche und die gesamten Erntemengen steigen an.

GetreideertragSimb1_01

Welternten-Mais,-Reis,-Weizen-2011-BMK664290   Mia-Weizen-Ertraege

Die Erde wird also nicht nur grüner, sondern auch fruchtbarer. Nicht nur die produzierte Grünmasse und Vegetation nimmt zu, sondern auch die Ernteerträge.

Ein weiterer Mythos welchen die Klimaalarmisten und Klimafolgenforscher verbreiten ist, dass die Waldbrandgefahr mit dem Klimawandel und zunehmender Dürre steigt. Schaut man sich die Daten der letzten Jahrzehnte für Europa an, so stimmt auch das nicht.

Waldbraende-Europa

Sowohl die Zahl an Waldbränden, als auch die brennende Waldfläche haben in Europa in den letzten 20 Jahren abgenommen und nicht zugenommen. Zudem spielt bei Waldbränden der Klimawandel eher eine untergeordnete Rolle, da die meisten Waldbrände durch menschliches Fehlverhalten (vorsätzlich, oder Fahrlässig) entstehen.

Fazit

Was lernen wir daraus? Trotz CO2-Anstieg und Klimawandel, oder gerade wegen CO2-Anstieg und Klimawandel wird die Erde grüner und fruchtbarer und die Ernteerträge steigen. Auch wenn Medien und Klimafolgenforscher Ihnen anderes erzählen. Dabei handelt es sich um „Märchengeschichten“, um die Bevölkerung politisch und gesellschaftlich zu beeinflussen, was auch treffend gelingt. (Wie schon beim Märchen vom bösem Juden). Man siehe heute nur Fridays for Future und Co.. Die Mehrheit der Bevölkerung glaubt das, was Medien und sogenannte „Experten“, die in den Medien auftauchen erzählen und macht sich kein eigenes Bild. Und das ist von den Protagonisten auch so gewünscht. Also denken Sie nach und machen sich ein eigens Bild, bevor es zu spät ist.

Der Beitrag erschien zuerst bei ScienceSceptical



MAJESTÄT BRAUCHEN ALIBI – NORD-LINK VOLLENDET

Mit einem Klick gelangen Sie zum Artikel.

Der überschüssige Windstrom, der zur Zeit in Schleswig-Holstein die Stromkunden 400 Mio. Euro jährlich kostet, soll darüber durchs Meer nach Norden geleitet werden, um in norwegischen Wasserkraftwerken gespeichert zu werden und bei schleswig-holsteinischer Flaute wieder zurückzufließen – so die offizielle Lesart.

Was zunächst gut klingt, verdient eine nähere Betrachtung:

Norwegen versorgt sich selbst zu nahezu 100 % mit Wasserkraft. Die norwegischen Wasserkraftwerke sind allerdings Talsperren- und – in geringem Umfang – Laufwasserkraftwerke, die den Strom aus natürlich fließenden Gewässern generieren. Wenn die “natürlichen Speicher”, die Talsperren, leer oder die Flüsse vereist sind, wird Norwegen regelmäßig zum Stromimporteur. Das Nachbarland Schweden überbrückt dann die norwegischen Engpässe (u.a. mit Strom aus Kernenergie). Im Januar und Mai 2019, zwei durchaus exemplarischen Monaten, stellte sich dies so dar:

Die Norweger können mit deutschem Windstrom also vergleichsweise wenig anfangen. Keineswegs benötigen sie ihn, wie oftmals suggeriert wird, um Wasser in dortige Speicherseen zu pumpen. Allenfalls kann deutscher Windstrom die notwendige Entnahme aus den durch fließende Gewässer gespeisten Stauseen in homöopathischen Dosen etwas reduzieren. Wenn die Stauseen aber leer sind, ist sprichwörtlich und faktisch “Schicht im Schacht”. Insbesondere im Winter, wenn Norwegen am ehesten auf Importe angewiesen ist, ist in Schleswig-Holstein eine “Kaltdunkelflaute” am wahrscheinlichsten. Das energiewirtschaftliche Eigeninteresse Norwegens an deutschem Windstrom ist also vergleichsweise gering. Dass Schleswig-Holstein andererseits mit norwegischen Wasserkraftstrom liebäugelt, ist klar. Schließlich soll die lokale CO2–Bilanz nicht, wie bisher, nur durch polnischen Kohle- oder französischen Atomstrom gesichert werden.

Allerdings brauchen die Norweger ihren Wasserkraftstrom zuvörderst selbst. Speicherseen, im eigentlichen Sinne, in denen der überschüssige deutsche Windstrom in relevanter Größenordnung gespeichert werden kann, gibt es (noch) nicht. Es müssten solche erst geschaffen werden, die dann mit Hilfe des deutschen überschüssigen Windstroms vollgepumpt werden könnten.

Selbst wenn die Norwegische Regierung es als opportun ansieht, die eigene Energie-Exportwirtschaft weg von Öl und Gas und hin zu Wasserkraftstrom umzubauen, sollte in Deutschland ehrlich kommuniziert werden, dass die (größenordnungsmäßig relevante) Zwischenlagerung von schleswig-holsteinischem Windstrom in Norwegen vor Ort erst einen gewaltigen Strukturausbau voraussetzt und zu massiven ökologischen Verwerfungen führt. Das Fluten von Tälern ist ein massiver Eingriff in die Natur, Ökosysteme werden dabei in großem Umfang zerstört.

Norwegens Natur wird so zur Windstromdeponie für Deutschlands gutes Gewissen.

VERNUNFTKRAFT. – Empiriker Rolf Schuster – sonst vor allem für nüchterne Zahlen aufschlussreiche Abbildungen bekannt- findet für den Sachverhalt diese prägnanten Worte:

Selbst wenn Norwegen als “Zwischenlager” für deutschen Windstrom zur Verfügung stünde, wäre es im Übrigen naiv zu hoffen, dass Strom für deutsche Verbraucher dadurch billiger würde. Es ist nicht davon auszugehen, dass Norwegen uns den Strom kostenfrei lagert, bis wir ihn irgendwann unkalkulierbar einmal brauchen.

Die grundlegende Analyse, die Dr. Björn Peters bereits im Dezember 2016 angestellt hat, bleibt auch nach dem Anlanden des Kabels unverändert gültig.

peters

Mit einem Klick gelangen Sie zum Beitrag.

 

Auf andere, in ihrer zerstörerischen Wirkung sehr ähnliche Weise wie die schleswig-holsteinischen Strommüllproduzenten versuchen übrigens auch die Münchner Stadtwerke, ihr “Öko-Image” auf Kosten der Natur Norwegens aufzupolieren:

 

Mit einem Klick gelangen Sie zum Artikel.

Mit einem Klick gelangen Sie zur Pressemitteilung von Naturschutzorganisationen.

Es drängt sich die Frage auf, wer die Norweger eigentlich gefragt hat, bzw. welche Norweger gefragt wurden, ob sie auf diese oder die andere Weise ihr Land in den Dienst deutscher Ideologie stellen wollen.

Ebenso aufdringlich ist der Eindruck, dass es sich beim Rückgriff auf nordische Sagen und Mythen und beim Übergriff auf nordische Natur um Öko-Kolonialismushandelt. Sowohl die Batteriespeicher als auch die geplanten “Ökostrom”-Anlagen in Norwegen erfüllen primär den Zweck, für die offenkundigen Probleme der “Energiewende” Lösungen vorzugaukeln. Es sind exotische Elemente des hiesigen Erfolgsmärchens.

Die ganze Kolonialgeschichte ist ja Schwindel, aber wir brauchen sie für die Wahlen.

Otto v. Bismarck, 1884


Belege für diese in anderem geschichtlichen Zusammenhang getätigte Aussage, finden sich u.a. hier, hier und hier.

Der Beitrag erschien zuerst bei Vernunftkraft hier




Klimaschutz: Alles nur heiße Luft? Das Video von Naomi Seibt

Es handelt sich um ein Youtube-Video, welches, angesichts der heutigen Zensurzustände, nicht mehr überraschend, kurz nach dem Erscheinen gesperrt wurde. Ein sachlicher Grund für die Sperre war nicht zu erkennen. Nun ist das Video wieder da, nachdem Anwältin Karoline Seibt juristisch gegen Youtube vorging.

Video einer jungen Klimarealistin

Wir beurteilen den sachlichen Inhalt des Videos als sehr gut, verzichten auf minimale Korrekturen, wie z.B. „Kernenergie“ anstelle von „Atomenergie“ und überlassen es der öffentlichen Diskssion. Offenbar ist das Video erst Teil I einer Gesamtbetrachtung, so dass wir auf Teil II sehr gespannt sind.

Bereits dieses Video (Teil I) ist geeignet, Unterrichts- und Diskussionsstoff in einem sachgerechten, nicht ideologisch geprägten Naturkunde-Unterricht gymnasialer Oberstufen zu werden. Die EIKE-Redaktion und der Verfasser wünschen der jungen Dame alles Gute für ihre weitere, vermutlich akademische Karriere und natürlich für ihre Arbeit am Teil II ihres Videoprojekts.




Gegenwind : Das Phänomen Greta Thunberg*

Der Irrtum beginnt schon früher. Diskussionsgrundlage ist ja, die „Friday for Future“-Bewegung sei von der jungen Schwedin ins Leben gerufen worden. Das ist falsch, der Plan ist ein paar Jahre älter. Während der Greta-Rummel im Jahr 2018 losbrach, veranstaltete die „Plant for the Planet Foundation“ drei Jahre zuvor in Bonn einen globalen Jugend-Gipfel. Ein Ergebnis dieses Treffens ist auf der Internetseite climastrike.net zu finden, wo es heißt: „Auf dem Global Youth Summit im Mai 2015 haben wir uns die Idee eines globalen Schulstreikes für Klimaschutz ausgedacht.“ Es dauerte drei geschlagene Jahre, bis die Leute im Hintergrund Greta als ihre geeignete Repräsentantin gefunden und ihr die Mutterschaft für die Idee des Schulstreiks übertragen hatten. Um wen es sich dabei handeln könnte, wird klar, wenn man nachforscht, wer die „Plant for the Planet Foundation“ organisiert und mit den nötigen Mitteln ausgestattet hat, und hier wird das Bild etwas klarer: Es sind dies der „Club of Rome“ und die „German Mar-shall Plan Foundation“.

Fällt der Name „Club of Rome“, so tut ein kleines Ausholen not. Er wurde von David Rockefeller gegründet und erlangte schlagartig Weltruhm, als er 1972 im Auftrag seines Gründers das Buch „Grenzen des Wachstums“ veröffentlichte. In Erinnerung daran blieben zwei zentrale Voraussagen. Da war einmal das sogenannte Waldsterben, wonach es zur Jahrtausendwende jedenfalls in Europa keinen Baum mehr geben werde. Das zweite war die Prognose, dass zehn Jahre später die Erdölvorräte des Planeten erschöpft wären. Tatsächlich nahmen in Deutschland die Wälder zu und weltweit wurde jährlich mehr Petroleum gefunden als verbraucht.

Diese blamablen Fehlprognosen tun dem Renommee des „Club of Rome“ keinen Abbruch. Weithin gilt er als eine Einrichtung, die in Sachen Umweltschutz globale Maßstäbe setzt. Er ist die Öko-Außenstelle der Vereinten Nationen und beansprucht widerspruchsloses Gehör. Die Gründung der „German Marshall Plan Foundation“ wird zwar offiziell dem früheren Bundeskanzler Willy Brandt zugeschrieben, doch stößt man auch hier sofort wieder auf Rockefeller, der Vorsitzender des German Marshall Fund gewesen ist. Neben Rockefellers Chase Manhattan Bank tauchen noch andere Adressen von Schwergewichten der US-Hochfinanz auf, wie das Aspen-Institut und die Carnegie-Stiftung. Willy Brandt in allen Ehren – aber neben solchen Namen war sein Einfluss doch eher gering.

Während man für die „German Marshall Plan Foundation“ Willy Brandt als Aushängeschild genommen hatte, benutzte man  für die „Plant for the Planet Foundation“ bereits das System wie später bei Greta und stellte ein Kind in die erste Reihe: Felix Finkbeiner, der nach offizieller Lesart mit dem unschuldigen Alter von zehn Jahren anno 2007 die Stiftung gegründet hat. Es gibt noch weitere Ähnlichkeiten mit Greta. Gleich ihr ist er auf du und du mit Weltgrößen wie dem Fürsten Albert von Monaco oder dem Hollywoodstar Harrison Ford. Und wenn Greta mit dem Papst plaudert, hält Felix eine Rede vor den Vereinten Nationen. Irgendwie muss es aber mit der Stiftungs-Gründung doch ein wenig anders gelaufen sein, denn mit zehn Jahren war nicht einmal Jung-Felix geschäftsfähig, doch dabei dürfte ihm sein Vater Frithjof geholfen haben. Väterchen ist – wie ein glücklicher Zufall so spielt – Mitbegründer des „German Marshall Plan“.

Dass Gretas „Friday for Future“-Bewegung (FFF) eng mit der „Plant for the Planet Foundation“ verbunden ist, bezeugt eine Selbstauskunft auf ihrer Internetseite. Die beiden Organisationen seien aufs Engste miteinander verbunden, wobei die „Plant for the Planet Foundation“ eine „als gemeinnützig anerkannte Stiftung des deutschen Club of Rome-Präsidenten“ sei. Bei der Antwort auf die Frage, wer denn Präsident des deutschen „Club of Rome“ sei, stoßen wir auf einen alten Bekannten: Mojib Latif, einer der rührigsten Klima-Propheten der Nation.

Schaut man sich das Impressum der Website von FFF an, so kann man lesen: den Namen Ronja Thein, eine Anschrift in Kiel und die E-Mail-Adresse von FFF. Doch Frau Thein scheint es nicht zu geben, auf Nachfrage werden Sicherheitsbedenken vorgeschützt. Die Kieler Adresse aber ist diejenige eines linksalternativen „Kulturzentrums“ mit dem Namen „Alte Mu“. Dort scheinen zahlreiche linke Vereine zu domizilieren, aber keine Privatpersonen. Auf die Frage nach einem Konto von FFF gibt es die Auskunft: „Als Bewegung wollen wir bewusst so wenig Strukturen wie möglich aufbauen, um jederzeit flexibel auf die Gegebenheiten reagieren zu können. Daher wird das Konto von einer befreundeten Organisation, der Plant for the Planet Foundation, betreut. So können wir sicherstellen, dass alle finanziellen Dinge vollkommen professionell erledigt werden. Dazu gehört, dass Geld nur gegen ordnungsgemäße Abrechnung ausgezahlt wird.“ Mit der angeblichen Selbstständig-keit der Friday-Bewegung scheint es also nicht allzu weit her zu sein, nicht einmal in finanzieller Hinsicht.

Kurzum – über den „Club of Rome“ und die „Plant fort the Planet Foundation“ beteiligt sich der Rockefeller-Clan an der Finanzierung der Veranstaltung Greta Thunberg. Maßgeblich, darf man unterstellen, denn mit Kleinigkeiten haben sich die Rockefellers nie abgegeben. Doch wo Rockefeller klotzt, mag George Soros nicht kleckern. Der notorische Spekulant und Kriegstreiber hat seine Finger auch im Klima-Geschäft. Er setzt im selben Sinne wie Rockefeller, doch an einem anderen Ende an. Und das sieht so aus.

Jedes Mal, wenn Greta in Deutschland auftritt, wird sie begleitet von einer Studentin namens Luisa-Marie Neubauer, nicht nur optisch der Kontrapunkt zur kleinen Schwedin. Neubauer ist fit, taff und selbstbewusst, Mitglied der Grünen und erhält ein Stipendium der Heinrich-Böll-Stiftung. Außerdem ist Neubauer Jugendbot-schafterin der US-amerikanischen Lobbyorganisation „ONE“, die politische Kampagnen durchführt. Finanziert wird „ONE“ unter anderem von der Bank of America, Coca-Cola, SAP, Google und eben von George Soros, dem Allgegenwärtigen, der seine ganze „Open Society Foundation“ einsetzt.

Michael Krüger bilanziert auf der Internet-Seite „Science sceptical“ diese Zusammenhänge:

„Letztendlich handelt es sich um eine groß angelegte Klima-PR-Kampagne der Ökolobby und von grünen NGOs, wie dem Club of Rome, We don’t have Time, Plant for the Planet, Greenpeace, dem BUND, der Interventionistischen Linken (IL), Extinction Rebellion (XR) und anderer Nutznießer, dazu gehören letztendlich auch die Medien. Aus diesem Grund ist auch nicht zu erwarten, dass in den Medien über diese Hintergründe kritisch berichtet werden wird. Greta ist dabei letztendlich ein Spielball der NGOs und Medien, um Geschäfte zu machen, Aufmerksamkeit zu erreichen und politische Ziele durchzusetzen.“

Demgegenüber dürften alle Freunde Gretas Genugtuung über die Nachricht empfinden, dass ihr eine belgische Universität den Ehrendoktor verleihen will. Oft ist derlei mit finanziellem Aufwand verbunden, aber in Gretas Fall wohl kaum.

=================================================================

)*  Anmerkung der EIKE-Readktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 28. Juni 2019, S.8 ; EIKE dankt der PAZ-Redaktion sowie dem Autor Florian Stumfall für die Gestattung der ungekürzten Übernahme.

=================================================================




Die Welt geht einem Deep Solar Minimum entgegen

Abbildung: Tägliche Beobachtungen der Sonnenflecken seit 1. Januar 1977 den Daten des Solar Influences Data Analysis Center (SIDC) zufolge. Die dünne blaue Linie repräsentiert die tägliche Sonnenfleckenzahl, während die dunkelblaue Linie das gleitende jährliche Mittel darstellt. Die derzeitige geringe Sonnenflecken-Aktivität zeigen sich eindeutig in den geringen Werten der solaren Einstrahlung. Man vergleiche außerdem mit dem geomagnetischen AP-Index. Datenquelle: WDC-SILSO, Royal Observatory of Belgium, Brussels. Letzter dargestellter Tag: 31. Mai 2019. (Quelle: climate4you.com/)

Tatsächlich deutet alles darauf hin, dass das bevorstehende solare Minimum sogar noch ruhiger werden könnte als das Vorige, welches das tiefste Minimum in fast einem Jahrhundert war. Außerdem gibt es derzeit Prognosen, dass der nächste Sonnenzyklus Nr. 25 der schwächste Zyklus seit über 200 Jahren sein wird. Der gegenwärtige Zyklus Nr. 24 war der schwächste Zyklus mit den wenigsten Sonnenflecken, welcher im Februar 1906 seinen Höhepunkt erreichte. Der Zyklus Nr. 24 setzt den jüngsten Trend sich abschwächender solarer Zyklen fort, der mit Zyklus Nr. 21 mit seinem Höhepunkt um das Jahr 1980 begonnen hatte, und falls die jüngsten Prognose korrekt sind, wird sich das ein weiteres Jahrzehnt fortsetzen.

Deep Solar Minimum

Die Sonne ist wieder einmal fleckenfrei, und während des Zyklus‘ Nr. 24 gab es bereits vier mal Serien von 30 aufeinanderfolgenden Tagen ohne Sonnenflecken. Letztmalig war das während der 1910er Jahre der Fall. Derzeit treten wir in die nächste Phase eines solaren Minimums ein, und es gibt viele Anzeichen dafür, dass es tiefer und länger denn je seit über ein Jahrhundert sein wird. Ein solares Minimum ist eine irgendwie nicht verstandene Phase eines Sonnenzyklus‘, und das bleibt nicht ohne Konsequenzen.

Eine der natürlichen Auswirkungen abnehmender Sonnenaktivität ist die Abschwächung des Sonnenwindes und des Magnetfeldes. Dies wiederum gestattet, dass mehr und mehr kosmische Strahlung in das Sonnensystem eindringen kann. Galaktische kosmische Strahlung besteht aus hoch energetischen Partikeln von außerhalb unseres Sonnensystems, und sie kann die Erdatmosphäre beeinflussen. Die erste Verteidigungslinie gegen diese Strahlung bilden das solare Magnetfeld und der Sonnenwind, die in Kombination einen ,Schild‘ aufbauen, welcher die kosmische Strahlung abblockt. Diese Schildwirkung ist während solarer Maxima am stärksten und während solarer Minima am schwächsten. Die Intensität kosmischer Strahlung variiert global um etwa 15% über einen Sonnenzyklus infolge von Änderungen der Stärke des Sonnenwindes, der ein schwaches magnetisches Feld in die Heliosphäre trägt.

Zusätzlich zum Einfluss auf kosmische Strahlung durch die Abschwächung des solaren Magnetfeldes öffnen sich in der Sonnenatmosphäre Löcher. Austretende Ströme Sonnenwindes treffen auf das Magnetfeld der Erde, was zu Nordlichtern führt selbst ohne Flares und Sonnenflecken. Einige Beobachter glauben, dass Nordlichter während solarer Minima anders gefärbt sind, nämlich mehr rosa als während anderer Phasen des Sonnenzyklus‘.

Und schließlich neigen Leuchtende Nachtwolken dazu, während eines solaren Minimums vorherrschender zu sein, begünstigt diese Periode doch das Anlagern von Wassermolekülen um Meteoritenstaub hoch über der Erdoberfläche. Dadurch bilden sich Eiskristall-Wolken, welche elektrisch blau aufleuchten, wenn sie von Sonnenlicht in großer Höhe getroffen werden. Extreme ultraviolette Strahlung (EUV) kann jene Wassermoleküle zerstören, bevor sie gefrieren. Weniger EUV während solarer Minima kann daher mehr Leuchtende Nachtwolken erzeugen. Da wir nun vermutlich in das tiefste solare Minimum des vorigen Jahrhunderts eintreten, liegt die extreme UV-Strahlung von der Sonne auf dem niedrigsten Niveau seit Jahrzehnten – ein Defizit, das direkt zur Bildung mehr Leuchtender Nachtwolken beitragen kann. Zufälligerweise begann die Saison 2019 für Leuchtende Nachtwolken Ende Mai, gerade als die Sonne am Beginn einer Periode nachhaltiger Fleckenlosigkeit stand – inzwischen über 30 Tage lang [bei Redaktionsschluss dieses Beitrags. Anm. d. Übers.] Weitere Informationen über den Zusammenhang zwischen Sonnenaktivität und Leuchtenden Nachtwolken finden sich hier.

Der Sonnenzyklus Nr. 25

Der allerjüngsten Prognose bzgl. des nächsten Sonnenzyklus‘ (Nr. 25) zufolge wird dieser noch schwächer ausfallen als der gerade zu Ende gehende Zyklus Nr. 24 und außerdem der Schwächste der letzten 200 Jahre sein. Es muss aber erwähnt werden, dass die Prognose von Sonnenzyklen ziemlich schwierig ist, und früheren Prognosen zufolge sollte der nächste Zyklus von ähnlicher Größenordnung wie der Zyklus Nr. 24 sein. Allerdings haben jüngste Forschungen offenbar eine zuverlässigere Methode der Prognose von Weltraumwetter ergeben. Das Maximum dieses nächsten Zyklus‘ – gemessen an den Sonnenfleckenzahlen – könnte um 30% bis 50% niedriger liegen als beim letzten Zyklus Nr. 24. Die Ergebnisse dieses neuen Prognoseverfahrens zeigen, dass der nächste Sonnenzyklus im Jahre 2020 beginnen und im Jahre 2025 sein Maximum erreichen wird.

Diese neue Prognose beruht auf der Arbeit eines Teams unter der Leitung von Irina Kitiashvili vom Bay Area Environmental Research Institute am Research Center der NASA in Silicon Valley. Mit den Daten, die seit 1976 von den Weltraummissionen des Solar and Heliospheric Observatory und des Solar Dynamics Observatory aufgezeichnet worden waren, konnten die Forscher eine Prognose erstellen mittels direkter Beobachtung des solaren Magnetfeldes anstatt lediglich der einfachen Zählung von Sonnenflecken. Letztere gestattet lediglich eine grobe Abschätzung der innersolaren Vorgänge. Weil es ein relativ neues Verfahren ist, gibt es nur Daten von vier vollständigen Zyklen, aber mittels der Kombination von drei Quellen von Sonnenbeobachtungen mit Schätzungen der inneren Aktivität der Sonne konnte das Team im Jahre 2008 eine Prognose erstellen, die gut zu der beobachteten Aktivität der folgenden 11 Jahre passte.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/world-entering-a-deep-solar-minimum/

Übersetzt von Chris Frey EIKE




Klimawandel – die gar nicht so versteckte Agenda totalitärer Kontrolle

Im Moment feiert diese Doktrin Triumphe, trotz der zunehmenden Opposition abweichender Wissenschaftler und Anderer, die sich zunehmend der immensen ökonomischen Gefahr dieser Doktrin bewusst werden. Aber die einfache Reflektion der Themen um Klimawandel und die Empörung über denselben sind nicht alles.

Die Lage im US-Bundesstaat Washington dreht sich wirklich nicht um Umweltpolitik per se, sondern um die Einvernahme eines großen Teils der Vorstellungen in der Öffentlichkeit seitens manipulativer Eliten, um diese an der Macht zu halten. Eine anti-industrielle Bewegung, welche die Früchte der industriellen Revolution zerschlagen will, übernimmt die Kontrolle der westlichen Welt – im Namen der Erlösung des Planeten und mittels einer nicht sehr versteckten Agenda totalitärer Kontrolle. Die Doktrin ist antidemokratisch, wenn nicht sogar selbstmörderisch.

Gegenwärtig erscheint die Taktik der Republikaner in Oregon wie ein Witz. Aber man beachte, dass öffentliche Unterstützer der Republikaner in Gestalt einer bewaffneten Miliz den Weg in die Zukunft weisen. Es ist inhärent, dass ein anti-industrielles und anti-ökonomisches Programm, wie es die Grünen fordern, immer mehr verzweifelte Verlierer hervorbringen wird.

Es hieß, dass Gesellschaft kein Selbstmord-Pakt ist. Einer Politik dieser Art muss mit allen Mitteln Widerstand geleistet werden. Die streikenden Republikaner argumentieren, dass die gegenwärtigen Strukturen der Regierung belastet werden. Die Möglichkeiten der Verlierer, in einem politischen Kampf den Erfolg der Gewinner auszuhalten, nehmen zu.

Unglücklicherweise scheint es unwahrscheinlich, dass der Widerstand schnell genug zunehmen wird, um eine grüne Diktatur des derzeitigen Musters zu verhindern. Große Teile der Regierung und im Wesentlichen sämtliche Medien sind fest in der Hand der Grünen. Die Propaganda trommelt ununterbrochen, und die formale Macht der Opposition wird geschwächt.

Es ist wahrscheinlich, dass die USA und der Westen allgemein dieser inzwischen so groß gewordenen Bedrohung unterliegen. Aber dennoch gibt es eine Hoffnung eines deux ex machina, welche den Tag rettet. Wir wissen alle, dass wir angesichts des Grand Solar Minimum am Rande der nächsten Kaltzeit stehen, geht doch Jenes einer solchen Kaltzeit voran. Lange bevor man einräumen muss, dass eine neue Eiszeit begonnen hat, wird das sich ändernde Klima die Landwirtschaft beeinträchtigen und die globale Erwärmung als Lüge überführen.

Wir können nur hoffen, dass die gegenwärtigen Schäden in der Landwirtschaft, hervorgerufen durch globale Abkühlung, ausreichen werden, um eine allgemeine Krise auszulösen. Ein niederschlagsreicher Winter, gefolgt von einem kühlen Sommer und frühen Frösten wären Ereignisse, die verheerende Auswirkungen auf die Landwirtschaft der Nordhemisphäre nach sich zögen. Der Schaden für das Narrativ der globalen Erwärmung, ausgelöst durch sinkende Temperaturen und dem dadurch einsetzenden Beginn großer ökonomischer Krisen könnten ein harter Schlag gegen die Grüne Bewegung sein und erweitert auch gegen die Glaubwürdigkeit und Autorität der Neuen Linken. Die Wirtschaft ist schon jetzt schwer belastet durch exzessive Schulden, Handelskriege, politische Spannungen und allgemein durch ein Scheitern effektiver Investitionen in neue Kraftwerke und Infrastruktur in den USA. Dieser gar nicht mehr so dünne Strohhalm könnte dem Elefanten das Genick brechen.

Entweder mit demokratischen Mitteln oder durch Aktivitäten lokaler Milizen, denen zunehmend öffentliche Unterstützung für die Zerschlagung der Grünen Bewegung zuteil wird, könnte es mitten im Chaos tatsächlich dazu kommen. All jene, die den Wert des industriellen Zeitalters wiederzubeleben wünschen, sollten sich bereit machen. Die Natur selbst könnte uns die Gelegenheit geben, eine schändliche Doktrin auszulöschen – eine Doktrin, welche einen vollständigen Sieg zu erringen die Gesellschaft fast schon zugelassen hat.

Link: https://www.iceagenow.info/climate-change-the-not-so-hidden-agenda-of-totalitarian-control/

Übersetzt von Chris Frey EIKE




Medienversagen: wirre Ausreden für das Versagen des Windkraft-Sozialismus

Als vor einigen Monaten der erwartbare Zusammenbruch des sozialistischen Venezuela nicht mehr zu verheimlichen war, kamen die ultralinken Quantitätsjournalisten Deutschlands sofort mit grotesken Erklärungen um die Ecke – es liege am Ölreichtum des südamerikanischen Landes. (Seltsam, daß die Saudis nicht….)

Schon der erwartbare Zusammenbruch der DDR und der Sowjetunion wurde von Indoktrinierten mit westlicher Agententätigkeit und/oder gezieltem Angriff durch kapitalistischen Konsum entschuldigt.

Wie der geneigte liberale EIKE-Leser weiß, sind frei erfundene Ökokatastrophen wie Waldsterben oder Klimakollaps ein Trick von Marxisten, ihren geliebten Staatssozialismus über die Hintertür wieder einzuführen, um langfristig Billionen Steuergelder ohne Arbeit in die eigene Tasche zu leiten. Klappt aber dummerweise nicht, wenn die Energie-Infrastruktur zu früh schlapp macht und zu viele Bürger merken, daß ihnen bald venezolanische Verhältnisse drohen. Wir Deutschen sind schon mehrfach knapp am Netzzusammenbruch vorbeigeschrammt; nun muß die grüne Presse reagieren. Relotius online versucht es allen Ernstes mit Kapitalismuskritik:

„Elektrizität wurde knapp, Nachbarländer starteten Hilfsaktionen, die Preise explodierten. Ursache könnten Spekulationen von Händlern sein.“

Worauf basiert die blitzgescheite Analyse des Spiegel-Schreibers? Er bestätigt immerhin, daß am 6., 12. und 25. Juni weniger Strom erzeugt wurde als benötigt. Die Lücke musste wieder einmal von unseren genervten Nachbarländern gestopft werden (wahrscheinlich von französischen oder tschechischen Alt-Kernkraftwerken). Schuld sei aber natürlich nicht die deutsche Energiewende-Politik mit ihrem unbrauchbaren Zappelstrom, sondern „Spekulanten“, also Händler, die „Versorgungslücken im Regelenergiemarkt zunächst bewußt nicht ausgeglichen hätten, um später höhere Gewinne einzustreichen“. Die Theorie stammt übrigens im Original von Next Kraftwerke, also einem Anbieter, der vielleicht die Konkurrenz schlecht machen will.

Dabei würde ich noch gar nicht mal grundsätzlich ausschließen, daß Schwarze Schafe den Klimasozialismus für ihre Zwecke missbrauchen. Im Gegenteil, kaltblütiger Egoismus und Tricksereien von hinterhältigen Opportunisten sind in JEDEM sozialistischen System der Regelfall. Deswegen hungern die Venezolaner ja.

Die Next Kraftwerke– Leute seien laut Relotius der Meinung, daß die „Rahmenbedingungen des Regelenergiemarktes“ nicht ausreichend seien, um Manipulationen entgegenzuwirken. Ob ein bißchen Symptomdoktorei etwas verbessern kann?

Ich verstehe den Spiegel-Artikel daher eher als psychologische Vorbereitung auf die bald kommenden flächendeckenden Stromausfälle. Den grün-wählenden urbanen wohlhabenden Spiegel-Lesern soll schon einmal der Schuldige dafür präsentiert werden, wenn Licht, Internet, Wasser und Heizung tagelang ausfallen: Es ist der Kapitalismus! Dem können wir nur entgegenwirken, indem wir, wie der schlaue Kevin von der SPD zum Glück gerade erst vorschlug, Firmen „vergesellschaften“, und damit gierige Besitzer entmachten. Gute Idee, oder?

Peter Grimm hat auf der Achse ähnliche Gedanken: Sündenbock-Suche beim Strom-Notstand.
Überall diese Libertären……

Lesetipp für Interessierte:

Netzregelverbund: „Mit dem Begriff Netzregelverbund (NRV) wird ein Konzept bezeichnet, das das Gleichgewicht von Verbrauch und Erzeugung elektrischer Leistung (Systembilanz) in untereinander verbundenen Stromnetzen optimiert, indem die gleichzeitige Aktivierung von positiver und negativer Regelleistung vermieden wird, sofern es die Netzkapazitäten und die Netzsicherheit zulassen.“




Ein kleines Licht am Ende des Tunnels? Anti-Greta-Bewegung in Schweden

Gar nicht klein, aber fein: Auf Facebook hat Peder Blohm Bokenheim aus dem schwedischen Borås in den letzten Monaten eine rund 650.000 Mitglieder zählende Gruppe namens „Benzinaufstand 2.0“ gegründet, im Original „Bensin upproret 2.0“. Diese Aktivisten, wohl meist ethnische Schweden und vom Land, wehren sich ähnlich wie die Gelbwestenkollegen aus Frankreich gegen hohe Kraftstoffsteuern, die mäßig verdienende Werktätige, die weite Strecken pendeln müssen, besonders treffen. Es fanden bereits in Stockholm und anderen größeren Städten friedliche Demonstrationen mit einigen Hundert Teilnehmern statt.

Da sich die Land-Schweden nicht im Wirkungskreis parareligiöser Lehrer und Kulturschaffender (wie Malena Ernman) befinden, glauben sie wohl auch nicht an die Untergangsprophetien der Großstädter. Wußten Sie, daß an den Universitäten in Schweden Bewältigungskurse gegen „Klimaangst“ angeboten werden? Medizinisch soll sogar schon eine neue Krankheit namens „Klimadepression“ definiert worden seien. Ich hoffe, letzteres ist dann eine Folge der „Flugscham“, die heuchlerische Vielflieger aus der Ökobourgeoisie betrifft……aber die schämen sich für gar nichts.

Schweden war für Jahrzehnte DAS Vorzeigeland der europäischen Sozialdemokratie. Unter dem Schlagwort „Folkhemmet“ (Volksheim) wurde seit den 30ern ein durchaus ernstzunehmendes Streben nach sozialer Angleichung im Königreich zur Leitlinie der schwedischen Politik, das zu den skandinavischen Nachbarn Finnland und Norwegen, und sogar rüber auf den Kontinent nach Dänemark ausstrahlte. Unsere fröhlichen dänischen Nachbarn duzen sich seit 1945 sogar untereinander (die Königin aber natürlich nicht).

Die Zeiten scheinen vorüber zu sein. Die städtisch-akademischen Eliten in Schweden, denen die Nivellierung wohl nie so recht gefallen hat, verbrüdern sich wie in Deutschland mit den gleichartigen Eliten anderer westlicher Länder mittels gemeinsamer, frei erfundener Symbole wie Multikultisierung, Genderismus und natürlich Klimawahn.

Neben der symbolischen Abgrenzung der linken Klima-Elite von der rechten Plebs sorgen explodierende Immobilienpreise und damit verbunden die Verschuldung der Hausbesitzer für Zündstoff. Adé, Land von Pippilotta Viktualia Rollgardina Pfefferminz Efraimstochter Langstrumpf und Karlsson auf dem Dach.

Analog zu Grethel Thunfisch von den Klimalügnern haben auch die schwedischen Protestler und Gelbwesten ein bekanntes Gesicht, die ein Jahr jüngere Izabella Nilsson Jarvandi, Tochter schwedisch-persischer Eltern, die allerdings nicht die Jesuskind-Ikonografie Gretas bedient, sondern wie eine junge Frau aussieht, die im Gegensatz zur gemanagten und durch-choreografierten Greta anscheinend nicht angeleitet wird.

Wie stehen die Chancen im grünen Wunderland Europas für die Gelbwesten-Dissidenten? Laut Umfrage der Tageszeitung „Dagens Nyheter“ sind die Wähler der bürgerlichen Parteien der Ansicht, die Spritpreise seien zu hoch. Aber immerhin 50 % der Wähler linker Parteien denken das auch noch.

 

 

 




Wozu (gegen­teilige) Messwerte betrachten? Den Klima­wandel fühlt doch jeder

Bayern erGRÜNt

Mittlerweile rief die erste Bayerische Stadt (Erlangen) den Klimanotstand aus. Und auch der neue Ministerpräsident Söder hat – wohl durch Betrachten des Landtags-Wahlergebnisses – festgestellt, dass Bayern besonders (schlimm) vom Klimawandel getroffen sei. Anstatt sich besonnen zu informieren, dreht auch er nun ebenfalls durch – beziehungsweise wurde gleich populistisch wie sein Vorgänger – und fordert, die Kohlekraftwerke noch schneller als geplant vom Netz zu nehmen und durch teure, wie auch problematische Gaskraftwerke zu ersetzen [19]. Bleibt nur noch abzuwarten, wann auch ihn wie seinen Vorgänger, ebenfalls eine paulinische Erweckung überfällt und auch er die wegweisende, unfehlbare, große Führerfigur, Frau Merkel, bedingungslos anzuhimmeln beginnt und er ihr ebenfalls bescheinigt, sie wäre „einzigartig kompetent“ [22]. Einen „Kompetenzinhalt“ hat er schon übernommen: Bayern wird grüner (gemacht), als es die GRÜNEN fordern.

Da bei Problemen die Obrigkeit sich den Staat zuallererst vor Ansprüchen der Bürger schützt, wurde vorsichtshalber allerdings jegliche Unterstützung der Bürger für Klima-Schadensfälle gestrichen. Konsequenz: Da inzwischen alles nur noch die eine Ursache hat (die zum Himmel schreiende, falsche das gewüschte Ergebnis liefernde „Expertise“ eines Münchner Professors zur 5 m hohen Flutwelle in Simbach belegt es überdeutlich [20]), gibt es für Bürger vom Staat in solchen Fällen überhaupt keine mehr.

Der Bayerische Rundfunk hat sich des Themas seit Längerem angenommen und bringt regelmäßig Klimawandel-Propagandavideos [4] [5], um den Bürgern einzubläuen zu zeigen, wie wichtig und richtig das ist.

Reklamiert ein Bürger die „Reportagequalität“, behauptet gar, einiges wäre stark überzeichnet, würde ziemlich wahrscheinlich sogar nicht stimmen, weil recherchierbare Daten falsche Aussagen belegen, wird er belehrt, dass so etwas bei der überragenden Qualität der Öffentlichen gar nicht möglich ist und Kritik damit prinzipiell und ohne Nachprüfung unbegründet sei [3].

Nicht immer kommt es, wie bei den vom WDR/ARTE ganz offen als reine Klimawandel-Propaganda erstellten Reportagen so brachial herüber, obwohl auch der BR eine eigene Klima-Propagandasendereihe „fährt“, um die Bürger auf die richtige Doktrin einzustimmen:
BR Fernsehen, UNKRAUT 17.06.2019: Klimaschutz: Wann wacht die Politik auf?
Die Themen: Erderwärmung: Wie steht Bayern in Sachen Emissionen da? | Wald in Gefahr: Wie der Klimawandel unsere Bäume bedroht

In den meisten Fällen erfolgt es allerdings ganz subtil, dafür aber sicher nicht weniger wirkungsvoll. Deshalb die Gegendarstellung zu einem nicht schlimmen, aber eben typischem Beispiel.

Immer häufiger Extremniederschlag am Chiemsee

Im Chiemgau gibt es „seit ewigen Zeiten“ Überschwemmungen. Der BR berichtet darüber. Wo Überschwemmungen sind, kann der Klimawandel nicht weit sein. Denn wer sonst könnte solche verursachen? Nun, ganz so schlimm wird es nicht dargestellt. Überschwemmungen gab es – das wird zugestanden – auch früher schon. Aber: Es wird – wer hätte schon etwas anderes vermutet – immer schlimmer und schlimmer.

Bild 1 BR-Reportage zu Überschwemmungen im Chiemgau: BR Mediathek

In der Reportage interviewt der Sprecher einen dafür zuständigen „Staatsbediensteten“. Dieser ist aber penetrant nicht bereit, in die ihm wiederholt in den Mund gelegte Klimawandelhysterie einzustimmen.
Was macht man in einer solchen Reportage, wenn gerade das „Wichtigste“ noch fehlt? Man sucht so lange nach Personen, bis sich eine findet, die es besser – das heißt: richtig – weiß und vor der Kamera auch sagt. Solche, die die Natur täglich hautnah erleben, sind dafür prädestiniert, zum Beispiel aus der Landwirtschaft. Und ein solcher fährt im Video auch zufällig auf seinem Traktor vorbei und er weiß, was der „Staatsbedienstete“ sich weigert zu sagen:
Untermahlt von der bei solchen Sequenzen erforderlichen, düsteren und unheilschwangeren Musik kann er berichten:
Sprecher: … aber Landwirt … findet, dass sich etwas verändert hat.
Landwirt: … des is ja etz so, dass gerade die Starkregen wie mas die letzten Jahre etz ghabt hat, dass die scho extrem mehr wern … wie`s weiter wird, glaub i, woaß koaner ...

Diese Art der „Beweisführung“ durch Erleben, anstelle durch Daten, ist beim Klimawandel inzwischen so etwas wie ein Goldstandard [6]. Wobei die Anmerkung erlaubt sei, dass dies in der Klimafolgen-„Wissenschaft“ bereits als niveauvoll betrachtet werden muss. Denn eigentlich gilt es als ausreichender Beleg, eine mehr oder weniger honorige Person – gerne auch gut geschulte, einheimische Aktivisten – vor einer Strandkulisse ins Wasser zu stellen, um zum Beispiel den schlimmen Pegelanstieg zu zeigen [16] [24] [25]. Viele NGOs – auch Greenpeace usw. [6]– belegen auf diese Weise, was sie benötigen und niemand (außer dem Autor und anderen Wenigen) nimmt daran Anstoß.

Was der Landwirt fühlt, reicht dem BR

Nun anbei eine Wiederholung des immer gleichen Spiels: Was fühlt die selbsternannte Fachperson und berichtet der BR und was sagen dazu die (leicht recherchierbaren) Daten?
Wiederholung: Die befragte „Fachperson“ fühlt: … dass gerade die Starkregen in den letzten Jahren extrem mehr werden …

Was sagen Wetterdaten

Leider sind keine Daten von DWD-Wetterstation direkt am Chiemsee (mit abrufbaren Langzeitdaten) beim DWD frei zugänglich hinterlegt, aber darum herum finden sich welche.
Zuerst vom ebenfalls oft und schlimm von Überschwemmungen getroffenen Rosenheim, ganz in der Nähe:

Bild 2 Rosenheim Tagesniederschlag 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 3 Rosenheim 2-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 4 Rosenheim 3-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 5 Rosenheim 7-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Sichtungsergebnis der Stationsdaten
In keinem der drei Niederschlagssummen ist seit 1950 irgendwo eine Zunahme des Starkregens zu sehen; und schon gar nicht „in den letzten Jahren extrem mehr“. Seit der letzten, mittleren Niederschlagsspitze in 06.2013, also vor sechs Jahren hat der Extremniederschlag in allen Summen stark abgenommen.

Nun noch die vergleichende Auswertung vom Einzugsgebiet der Tiroler Ache (Haupt-Chiemseezufluss), bei Reit im Winkl.

Bild 6 Reit im Winkl Tagesniederschlag 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 7 Reit im Winkl 2-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 8 Reit im Winkl 7-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Reit im Winkl zeigt die gleichen Niederschlagsbilder wie Rosenheim. Auf keinen Fall eine Zunahme in den letzten Jahren, sondern ebenfalls eine stetige Abnahme.

Zur Abrundung nun noch Garmisch.

Bild 9 Garmisch Tagesniederschlag 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 10 Garmisch 2-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 11 Garmisch 7-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Garmisch hat einen leicht abweichenden Verlauf, zeigt aber auch auf keinen Fall die berichteten „in den letzten Jahren extrem mehr“ Niederschlag. Der Tagesniederschlag (Bild 9) zeigt nur zusätzlich (wieder) die extreme Niederschlagsvarianz und wie solche vollkommen ohne irgendeine Vorwarnung oder Trend „aus dem Nichts“ auftauchen.

Die Niederschlagsverläufe der Chiemsee-Umgebung in Richtung der Berge zeigen: Der Bauer liegt mit seiner Aussage im Video daneben. Gefühlt ist eben nicht auch gewusst. Man könnte fast vermuten, dass der „Staatsbedienstete“ die Messdaten kennt und deshalb im Video so vorsichtig agiert.

Und das gilt nicht nur für Oberbayern, sondern zieht sich durch ganz Deutschland [7] [8].
Aber man braucht kein Hellseher zu sein, um zu ahnen, welche Aussage beim fernsehenden Publikum haften bleiben wird. Dies dank einer BR-Redaktion, welche die Wahrheit gar nicht wissen will.

Was weiß die Bayerische Regierung

Deren zuständiges Ministerium recherchiert, monitort und controllt inzwischen selbstverständlich auch den Klimawandel. Und darüber werden viele Berichte geschrieben. Einen gibt es vom Bayerischen Landesamt für Umwelt mit dem Titel:
[2] Hochwasser im Spiegel der Zeit
Daraus einige Angaben und Daten.

Zuerst nicht von Oberbayern, sondern vom Main die Hochwasserabflussmengen. Was EIKE-Leser bereits wissen, nehmen – seit es dank dem sich von der schlimmen, kleinen Eiszeit wieder etwas erwärmendem Klima – (nicht nur) am Main, die Hochwasser stetig ab.

Bild 12 [2] Main bei Würzburg. Jahres-Höchstabflüsse 1826 – 2007. Trendlinie vom Autor zugefügt
Noch besser lässt es sich an den Pegelständen sehen: So wenig Hochwasser wie in den letzten Jahrzehnten war noch nie. Trotzdem wurde 2013 bei Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überschwemmungsgebiet zugewiesen hatte. Doch der Schuldige war damals laut einer Zeitung natürlich der Klimawandel.

Bild 13 Main Historische Pegelstände Würzburg. 2013 wurde das Afrikafestival „wegen des Klimawandels, der immer höhere Hochwasser zur Folge hat“ (Artikel in einer Lokalzeitung) überschwemmt. Grafik vom Autor anhand der Pegelangaben erstellt

Nun wieder näher Richtung Oberbayern, Abflussmengen der Donau. Diese zeigen extreme Spitzen, aber ebenfalls keine Zunahme. Und alles, was kürzlich war, war in der (kälteren) Vergangenheit ebenfalls schon.

Bild 14 [2] Donau unterhalb Passau. Jahres-Hochstabflüsse 1861 – 2006, gemessen am Pegel Achleiten.
Anbei auch überregionale Fluß-Pegelbilder, um zu zeigen, wie die Auswirkungen solcher Höchstabflüsse konkret aussehen, vor allem aber auch um zu zeigen, dass die hohen und höchsten Flutpegel vor allem in der vor-industriellen, kalten Vergangenheit auftraten:

Bild 15 Pegel Main Aschaffenburg. Quelle: Wasserwirtschaftsamt Aschaffenburg, Homepage

Was man an den Pegelbildern sofort sieht: schlimme Hochwasser waren gerade und vorwiegend in der angeblich „natürlichen“, freundlichen, herbeigesehnten, vorindustriell kalten Zeit“ regelmäßige und häufige Ereignisse.

Ergänzend dazu Listungen aus der Schrift des Bayerischen Landesamtes für Umwelt [2]:
Isar bei München:
Überliefert sind große Hochwasser mit starken Verwüstungen aus den Jahren:
1400, 1401 , 1404, 1418, 1462, 1463, 1477, 1485 und 1491, 1589, 1624, 1633. 1729 standen das ganze Lehel und die Au unter Wasser. 1739 wiederum, aber viel höher – bis Thalkirchen bildete die Isar einen See. Weitere Hochwasser gab es 1778, 1783, 1786 drei, 1795 und 1802. 1807 riss das Hochwasser ein Achtel Grund der Au fort. 1813 ertranken hundert Schaulustige, als das Hochwasser die Ludwigsbrücke zum Einstürzen brachte. Weitere Hochwasser waren 1865, 1873 – Einsturz der Max-Joseph-Brücke – und 1875.
1899 riss ein Jahrhunderthochwasser die Prinzregentenbrücke und die MaxJoseph-Brücke ein – nur sechs Jahre
nach ihrer Fertigstellung.
Im 20. Jahrhundert suchten München große Hochwasser
1924, 1930, 1940, 1954 und 1999 (Pfingsthochwasser) heim. Das Augusthochwasser 2005 ist mit den großen Hochwassern der vergangenen Jahrhunderte vergleichbar.

Berchtesgaden
Im Berchtesgadener Talkessel sind viele historische Hochwässer dokumentiert. Besonders große Hochwässer herrschten 1269, 1386, 1403, im Juli 1508 und Oktober 1567, 1569, 1572, 1598, 1618/19, 1622, 1649, 1661, 1734, 1736, 1747, 1759, 1764, 1786, 1787, 1807, 1830, 1864, 1876, 1897, 1899, 1918 und 1920
1931
wurde in Schellenberg eine Pegelanlage eingerichtet. Nach den Pegelaufzeichnungen sind die Hochwässer 1954 und 1959 eindeutig mit Hochwasserspitzen von 3,50 m bzw. 3,59 m nachgewiesen. 1965 ließ man den Pegel in Schellenberg wieder auf und nahm einen neuen Pegel in Berchtesgaden in Betrieb.
Markante Wasserstände zeigen sich hier
1977, 1995, 2002 und 2005. 2002 wurde der Höchstwert von 2,95 m erreicht.

Expertenwissen

Trotzdem – beziehungsweise nicht unerwartet – kommt das Bayerischen Landesamtes für Umwelt nach Analyse der Niederschläge seit 1950 in der Schrift zu dem Ergebnis, dass Niederschlags-Extremereignisse in Oberbayern durch den Klimawandel bedingt zunehmen würden, schreibt aber gleich dazu, dass beim Niederschlag eine kurzfristige Betrachtung gar nicht aussagefähig ist: [2] … Ein Blick in die Hochwasserchronik der Stadt Passau zeigt aber, dass das Wetter und die Abflussbildung als hoch komplexes System mit vielen sich gegenseitig beeinflussenden Faktoren noch nie zur statistischen Mittelwertbildung geneigt haben. Nach Jahrzehnten mit nur moderat erhöhten Sommerabflüssen folgten immer wieder im Abstand von nur wenigen Jahren mehrere große, Schaden bringende Hochwasser hintereinander …

Um die Konfusion noch deutlicher zu machen, zeigt eine Auswertung der Schrift: [13] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete, des gleichen, Bayerischen Landesamtes für Umwelt, dass sich keine Signifikanz einer Zunahme zeigt, eher eine Abnahme [14]. Bestätigt wird dies durch eine Schrift des KLIWA-Projektes A 1.1.3 „Trenduntersuchungen extremer Niederschlagsereignisse in Baden-Württemberg und Bayern“ [19]:
… Im hydrologischen Winterhalbjahr zeigen die Starkniederschlagshöhen des Zeitraums 1931–2000 deutliche Zunahmen. Diese Zunahmen verstärken sich vereinzelt noch mit zunehmender Dauer (von 1 Tag bis 10 Tage) der Starkniederschläge. Regionale Schwerpunkte sind in Bayern die fränkischen Landesteile sowie Teile des Bayerischen Walds, in BadenWürttemberg der Schwarzwald sowie der Nordosten des Landes.
Im hydrologischen Sommerhalbjahr ist hingegen kein einheitlicher Trend bei den Starkniederschlägen festzustellen. Regionen mit einer Zunahme (z. B. Ostrand des Schwarzwaldes, Donautal, Teile Mittelfrankens) stehen große Gebiete mit einer Abnahme (z. B. Unterfranken, Südost-Bayern und Teile des Alpenvorlandes) bei insgesamt geringer Signifikanz gegenüber …

Dass das Überschwemmungsjahr 2013 ein Extrem war, zeigen die Bilder der Messstation von Reit im Winkl und das Bild der Niederschlagssummen vom 26.06.2013. Hier muss nochmals gesagt werden, dass der DWD für die Bürger nicht alle Daten zur Verfügung stellt. Viele der in der Schrift [15] gelisteten Messstation dieser Gegend finden sich im öffentlich zugänglichen DWD-Archiv nicht.

Bevor zur Betrachtung der Vergangenheit geschritten wird, anbei noch ein Bild, welches die Problematik von Niederschlags-Extremereignissen verdeutlicht: Sie sind sehr lokal begrenzt. Es hängt von der Lage weniger Messstationen ab, ob sie überhaupt erfasst und richtig gemessen werden, weshalb man es inzwischen mit Wetterradar macht.
Zwangsweise führt die Erfassung mit Wetterradar als Folge der höheren Abdeckung zu einer „schlimmen Erhöhung“ der Ereigniszahlen, also einem „unbestechlichen“ Beleg für den bereits wirkenden Klimawandel. Der DWD nutzt das auch entsprechend aus, und darf den Personal und Kontrollaufwand auszubauen.

Bild 24 [15] Lage der Starkniederschläge Ende Juli 2013

Unnatürlich“ ist unser Wetter nur, wenn man die kältere Vergangenheit weglässt

Wie gezeigt wurde, „erklärt“ das Bayerische Landesamt für Umwelt, die Hochwasser in Oberbayern würden zunehmen, obwohl alte – und vor allem auch historische Daten und Pegelmarkierungen – eindringlich darauf hinweisen, wie oft und schlimmer solche gerade in der kälteren Vergangenheit gewütet haben. Dem Amt reicht jedoch eine Zählung von Ereignissen seit etwa 1950 (ungefähre Verfügbarkeit brauchbarer Messdaten) aus. Ein Zeitraum, der für Niederschlag wenig Relevanz hat, wie man nicht nur anhand der vorherigen und in einem früheren Artikel gezeigten Niederschlagsmessreihen sofort sehen kann [17].

Auch die Aussagen in den Informationsschriften über Zeiten vor 1950 belegen es deutlich:
… Obwohl die Donau zu den hochwasserreichsten Flüssen Europas zählt, ist selten das ganze Einzugsgebiet gleichzeitig von Hochwasser betroffen. Nur das Hochwasser von 1845 und die Tauflut von 1882/83 bewirkten Überschwemmungen auf fast der gesamten Fläche Aus alten Schriften geht hervor, dass auch das Hochwasser vom 28. Dezember 1882 bis 3. Januar 1883 beinahe das ganze Einzugsgebiet der bayerischen Donau umfasste. Es wird von einem Katastrophenhochwasser gesprochen.

… Verantwortlich für dieses extreme Hochwasser vom 31. Juli bis 6. August 1924 waren lang anhaltende starke Regenfälle von rund 40 Stunden, die das südliche und Teile des nördlichen Einzugsgebietes der bayerischen Donau von West nach Ost durchzogen.
Besonders betroffen war der Chiemgau. Hier fielen in 30 Stunden 300 mm Regen.
In allen anderen Fällen traten und treten Hochwasserschwerpunkte auf, zum Beispiel in Donauwörth, Regensburg oder Passau. Die Donau bis oberhalb Passau ist besonders im Winter prädestiniert für Hochwasser. Die größten wurden in den Jahren
1845, 1850, 1862 und 1882 beobachtet. Damals erreichte die Donau noch höhere Wasserstände als im März 1988.

Wie durch geschickte Statistik aus Datenmaterial das „Gewünschte“ „herausgelesen“ wird, hat der Autor ebenfalls bereits einmal aufgezeigt. Auch darin wurde übrigens eine „klimawandel-bedingte Zunahme“ durch eine zu kurze – und fehlende, historische – Betrachtung herausgelesen:
EIKE 22.08.2017: [18] Verschiebt der Klimawandel Europas Hochwässer dramatisch

Dabei gibt es auch sonst genügend Anzeichen für eine andere Aussage:
Eine Studie (zitiert aus [9]) wertete die Hochwasser-Häufigkeiten im Alpenvorland aus. Diese kam zu dem Schluss: Ausgerechnet als es kurz vor Beginn der Industrialisierung am kältesten war, waren nach dieser Studie die Hochwasser am häufigsten.

Bild 25 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [9]
Geradezu ketzerisch ist die weitere Aussage in dieser Studie: [9] „Die Hochwasserentwicklung zwischen dem 17. Jahrhundert und 1930 korreliert mit der Entwicklung der Sonnenflecken. Und das hoch signifikant“
Wie widersprüchlich dazu die Angaben in den offiziellen Publikationen sind, zeigt auch die die folgende Feststellung:
[19] … Als Fazit bleibt festzustellen, dass eine regionalspezifische Zunahme der Starkniederschlagshöhen am deutlichsten in den Wintermonaten Oktober – April statistisch nachweisbar ist … während im Sommer weniger extreme Niederschläge auftraten

Bild 26 [19] Verteilung von Veränderungen an Niederschlagshöhen >20 mm/Tag in Baden-Württemberg/Bayern
Wie man im Bild 26 sieht, fällt ausgerechnet das laut dem BR durch eine Zunahme besonders betroffene Oberbayern mit einer Abnahme im Sommerhalbjahr auf.

Macht aber nichts. Wie es „sein muss“, lässt sich simulieren:
[2] Ausmaß des künftigen Klimawandels
… Eine Verschiebung statistischer Mittelwerte und Verteilungen der Klimakenngrößen bedeutet auch eine Zunahme der Häufigkeit bisheriger Extremwerte. Eine Zunahme von Trockenperioden, aber auch von Starkniederschlägen, wird zwangsläufig eine Veränderung des Abflussgeschehens unserer Gewässer bewirken …

Die in die Zukunft gerichtete Fragestellung, ob infolge des Klimawandels allgemein und in welchem Ausmaß mit einer Verschärfung des Hochwassergeschehens zu rechnen sein wird, ist mit Simulationsrechnungen untersucht worden. Dazu mussten zunächst die Szenarienergebnisse einer globalen Klimamodellierung über Regionalisierungsverfahren für einen nutzbaren Maßstab berechnet und daraus künftig mögliche Abflussganglinien simuliert und statistisch bewertet werden.
Die Berechnungsergebnisse lassen eine deutliche Zunahme der mittleren Hochwasserabflüsse, aber auch seltenerer Hochwasser, erwarten. Auch wenn die Auswertungen und die Modellannahmen mit Unsicherheiten behaftet sind, bestätigen verschiedene regionale Modellberechnungen diese Aussage. Allein aus Vorsorgegesichtspunkten ist daher von einer Hochwasserverschärfung durch die Klimaveränderung für die Zukunft auszugehen.

Nochmals Daten zur Gegend um den Chiemsee

Im folgenden Bild 27 zeigt sich wieder die Variabilität, welche oft auch nach 100 Jahren Trend plötzlich ausreißt, ohne den langzeit-Trend zu stören, beziehungsweise, ob es der Beginn einer Änderung des Langzeittrends ist, weiß man vielleicht in 100 Jahren, niemals aber anhand einer der üblichen, kurzfristigen Analysen.

Bild 27 [15] Mangfall: Höchstes Hochwasser seit 1899. Trendlinien vom Autor zugefügt
Bild 28 [15] Jahreshöchststände Chiemsee seit 1888. Trendlinien vom Autor zugefügt
Bild 29 [15] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt
Bildunterschrift: Auch am Tegernsee war der Wasserstand der höchste seit 1899. Damals wurde ein Scheitel von 287 cm erreicht.

Ergebnis
Die Niederschlagsverläufe der Messstationen zeigen bei der Langzeitbetrachtung keinen steigenden Trend.

Freud und Leid hängen nicht von der CO2-Vermeidung ab

Simbach ist wohl das bisher extremste Beispiel einer Gemeinde, welche für CO2-Vermeidung zur Rettung der Welt zwar einen Klimaaward erhielt, wichtige Maßnahmen, um ihre Bürger zu schützen jedoch unterließ [20]. Die Strafe war furchtbar.

Nürnberg machte es vor über 100 Jahren nach der Flut von 1909 wie folgt: [2] Bereits 1910 begann man mit der Planung einer Flutüberleitung in der Altstadt. Wegen der Widerstände wurde diese zu den Akten gelegt. Dann zerstörte der 2. Weltkrieg die Altstadt fast vollständig. Nun war es möglich, die Planung doch umzusetzen. 1962 war die Umsetzung fertig. Seitdem gab es in Nürnberg keine Überflutung mehr.

Das bedeutet aber nicht, dass es allgemein akzeptiert würde. Was früher für die Bürge katsstophal war, gilt heute als „beglückend natürlich“ und gut, weil man die grausamen Auswirkungen nicht erlebt hat:
[2] … Heute werden jedoch die Begradigung der Pegnitz, der technische Uferverbau mit Beton und Stahlträgern sowie der Verlust von Flussauen als Mängel empfunden …

Rosenheim in Oberbayern hatte ebenfalls das Glück der Geschichte: Ihr (Teile davon) schützender Damm wurde 2012, gerade ein Jahr vor der sonst unweigerlich folgenden Überflutung der Altstadt fertig:

Manche können sich kaum vorstellen, wie extrem Städte auch in Deutschland direkt in Überflutungsgebieten siedeln. Das ist schon fast so, wie in Japan in Tsunami-gefährdeten Gebieten, oder den Südsee-Atollen, wo die neuen Häuser nicht mehr wie früher auf Stelzen gebaut werden, und sich die Bewohner nun beim Westen über das Wasser im Wohnzimmer beklagen.

Bild 32 Überflutungsgefährdetes Gebiet von Rosenheim. Das im Bild 33 gezeigte Überschwemmungsgebiet Oberwöhr vom Autor gekennzeichnet. Quelle: LfU Bayern, Hochwasserkarten

Und so sieht es trotz Dämmen aus, wenn das seit Jahrhunderten regelmäßig flutende Wasser wiederkommt:

Noch weiter zurück in die Vergangenheit

Es gibt Studien, die den Versuch wagen, Niederschläge der Vergangenheit zu ermitteln. Im folgenden Bild hat eine Studie drei Rekonstruktionen zusammengefasst.
Neben dem, dass sich die Rekonstruktionen zeitweise widersprechen – was die Probleme solcher Rekonstruktionsversuche überdeutlich aufzeigt -, zeigen alle trotzdem eines: Das aktuelle Wetter ist nicht entfernt extrem, „noch nie so gewesen“, oder gar schlimmer geworden.

Bild 34 [10] Niederschlagsverläufe Norddeutschland. Grenzlinien vom Autor zugefügt

Parodie am Rande: Hilft eine Zunahme der Überschwemmungen* den Biobauern?

Man könnte es fast meinen, wenn man liest, dass Hochwasser einst erwünscht, weil notwendig waren (der im Video interviewte „Staatsbedienstete“ spricht dieses Thema ebenfalls an):
[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit
Die Landwirtschaft strebte nur den Schutz vor schadbringenden Hochwassern im Sommer an, die Winterhochwasser dagegen, mit ihrer düngenden Wirkung, waren sogar erwünscht … Nach den Hochwasserereignissen um 1920 war durch die Zunahme des Schadenspotenzials in den Überschwemmungsgebieten ein größeres Schutzbedürfnis entstanden. Nun waren durch die aufkommende Verwendung von Kunstdünger in der Landwirtschaft die Winterhochwasser trotz ihrer düngenden Wirkung ebenfalls unerwünscht.

Das Klima hat zwischenzeitlich diesem, sicher über viele Jahrtausende bestehenden Wunsch nachgegeben, und den Niederschlag im Winter etwas erhöht, dafür im Sommer verringert.

Bild 35 Deutschland, Sommerniederschlag Anomalie. Quelle: DWD Viewer

Bild 36 Deutschland, Winterniederschlag Anomalie. Quelle: DWD Viewer

Bild 37 Deutschland, Jahresniederschlag Anomalie. Quelle: DWD Viewer

Dank der zwischenzeitlich entwickelten, modernen Agrartechnik allerdings zu spät, somit zur falschen Zeit. Außer man denkt GRÜN und will sowieso die moderne, erfolgreiche Landwirtschaft abschaffen. Dann muss man wegen dem durch die hohen Verluste des Bioanbaus enormen, zusätzlichem Platzbedarf auch wieder überschwemmungs-gedüngte Flussauen nutzen.

Es kann den inzwischen in Flussauen siedelnden Bewohnern also noch gehen wie den Autofahrern: Sie werden aus ihren Gebieten einfach vertrieben, weil man diese zur geforderten Ausweitung der Bio-Landwirtschaftsfläche benötigt. Da (auch fast entschädigungslose) Enteignung inzwischen wieder hoffähig geworden ist, wird einem solchen, GRÜNEN Wunsch keine der etablierten Parteien etwas dagegen setzen.

Trocknet unsere Heimat jetzt aus?

Diese Frage stellt unsere Agrarministerin, Frau Klöckner (Studium: Politikwissenschaft, katholische Theologie und Pädagogik) laut dem FOCUS: „Agrarministerin Klöckner über die Folgen der Hitze“.
Wer keine Ahnung hat, kann ja mindestens Fragen (in den Raum) stellen. Einfacher wäre es gewesen, die DWD-Daten (Bilder 35 – 38) anzusehen (dauert ca. eine Minute) und die Antwort bis zum Jahr 2100 zu erhalten. Diese ist eindeutig: Nein. Zumindest aufgrund der Daten aktuell und der Vergangenheit, erhärtet anhand der Simulationen (sofern man solchen „Glauben“ schenkt).
Das ist unseren Minister*innen (und hier auch dem FOCUS) aber schon seit Längerem für das kärgliche Gehalt (und Pensions-Anwartschaft) wohl nicht mehr zuzumuten: Und ihrem Agrar-Minsterium fehlen ersatzweise wohl geeignete, externe Berater, die so etwas „Kompliziertes“ schaffen könnten.

Bild 38 Deutschland, Jahresniederschlag absolut mit „Vorschau“ zum Jahr 2100. Quelle: DWD Viewer

oQuellen

[1] BR Reportagevideo: Chiemgau im Wandel – Hochwasser und Zombiebäume

[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit

[3] EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

[4] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[5] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[6] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[7] EIKE 04.06.2018: Nun überschwemmt der Klimawandel bereits unsere Städte. Alternativ: Hat Deutschland kein Geld mehr, um sich gegen normale (Un-)Wetter zu schützen?

[8] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[9] Uni Augsburg, Dr. O. Böhm, Publizierung: Das Hochwasser und die Sonnenflecken

Studie: Changes of regional climate variability in central Europe during the past 250 years

http://link.springer.com/article/10.1140%2Fepjp%2Fi2012-12054-6

[10] tobias scharnweber at al.: Removing the no-analogue bias in modern accelerated tree growth leads to stronger medieval drought

[11] Hochwassernachrichtendienst Bayern, Pegel Staudach

[12] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[13] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[14] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[15] Wasserwirtschafsamt Rosenheim (Homepage), Schrift: Das Hochwasser vom Juni 2013 Dokumentation

[16] EIKE 19. Juni 2019: Tuvalu versinkt mal wieder – nicht. UNO Generalsekretär posiert für das Time Magazin

[17] EIKE 03.06.2018: Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klimawandel

[18] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch

[19] LUBW KLIWA-Projekt A 1.1.3: Langzeitverhalten der Starkniederschläge in Baden-Württemberg und Bayern
Tagesschau 22.06.2019: Deutsche Klimaziele Söder will Kohleausstieg schon 2030

[20] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[21] EIKE: Klimagaga: Heißzeitkatastrophe im Berliner Grundwasser

[22] Die Welt 11.05.2019: „Einzigartig kompetent“ Seehofer lobt Merkel: „Sie ist in dieser Regierung die Beste“

[23] MSN 27.06.2019: Hitzewelle 2019: Mehrere Tote, neue Temperatur-Rekorde und die Aussichten

[24] YouTube Video: Wetterexperte Stefan Rahmstorf: „Wir verlieren die Kontrolle über das Klimasystem“

[25] YouTube Video, Volker Quaschning: Ist Kohlendioxid wirklich ein Klimakiller?




Zeitliche Auflösung und Hockey­schläger

Abbildung 1a: Seismische Wellenlänge vs. Geschwindigkeit für dominante Frequenzen von 10, 25, 50 und 100 Hz (SEG Wiki)

Dünnere Schichten können erkannt, aber nicht aufgelöst werden. Gleiches gilt für normale Verwerfungen. Falls die vertikale Auflösung mindestens λ/4 beträgt, kann die Verwerfung aufgelöst und eine genaue Schätzung aufgrund der seismischen Daten vorgenommen werden. Falls die Auflösung geringer ist, kann man bestenfalls erkennen, dass eine Verwerfung vorhanden ist.

Abbildung 1b: Seismisches Abbild einer normalen Verwerfung bei λ/16, λ/8, λ/4, λ/2 and λ. (SEG Wiki) [Hinweis: Auch im Original ist die Graphik nicht deutlicher!]

Wenn man geologische und geophysikalische Daten integriert, unterteilen wir den Bohrkern nicht einfach in ein seismisches Profil. Wir konvertieren die Bohrkerne in ein synthetisches Seismogramm. Dies wird auf höchst effektive Weise erreicht mittels Schall- und Dichte-Messungen [sonic and density logs].

Abbildung 2: Synthetisches Seismogramm (AAPG Wiki).

Die Schall- und Dichte-Messungen werden herangezogen, um akustische Impedanz und eine Serie von Reflektions-Koeffizienten (RC) zu berechnen. Der RC ist verbunden mit einer kleinen seismischen Welle, oftmals extrahiert aus den seismischen Daten nahe des Bohrlochs. Die synthetischen seismischen Spuren (3 Paneele zur Rechten), können dann direkt verglichen werden mit dem seismischen Profil. Der Unterschied in der Auflösung ist ziemlich groß. Das Intervall von Trog zu Trog im seismischen Impuls unten liegt bei etwa 150 Metern.

Abbildung 3: schematischer Vergleich eines Bohrkerns mit einem seismischen Impuls mit einer Wellenlänge von 150 m

Was hat das nun mit Klima-„Wissenschaft“ zu tun?

Die Signaltheorie [?] und die Prinzipien der Bearbeitung von Signalen sind auf alle Signale anwendbar, nicht nur auf seismische Daten. Ein Signal ist eine zeitlich variable Abfolge von Zahlen. Fast alle Rekonstruktionen von Temperatur, Kohlendioxid und Meeresspiegel werden mittels vieler der gleichen Datenverarbeitungs-Verfahren wie beim Verarbeiten seismischer Daten erstellt. Dekonvolution ist besonders unentbehrlich bei der Erstellung von Kohlendioxid-Chronologien aus Eisbohrkernen. Manchmal werden die Signal-Verarbeitungsverfahren ordnungsgemäß durchgeführt. Van Hoof et al. (2005) zeigten, dass die CO2-Daten aus Eisbohrkernen repräsentieren ein über Jahrhunderte und Jahrtausende gleitendes Mittel von CO2-Niveaus in der Vergangenheit. Im Wesentlichen wurde ein synthetisches Seismogramm erzeugt aus Stomata-Chronologien und mit dem Eisbohrkern in Zusammenhang gestellt.

Abbildung 4: Graphik A zeigt eine Häufigkeitskurve aus Stomata-Daten. Graphik B zeigt den Eisbohrkern D47 aus der Antarktis. Die gestrichelte Linie in Graphik B ist der „synthetische“ Eisbohrkern, erzeugt mittels der Stomata-Häufigkeitskurve (Van Hoof et al. 2005)

Aus meiner geologischen Perspektive sind die meisten Klima-„Hockeyschläger“ das Ergebnis unsachgemäßer Integration von instrumentellen Daten mit hoher Auflösung (wie in Bohrkernen) und weniger hoch aufgelöster Proxydaten (wie bei der Reflektion seismischer Daten). Viele dieser Hockeyschläger scheinen das Ergebnis einer nachlässigen, wenn nicht sogar unverantwortlichen Missachtung grundlegender Prinzipien der Signalverarbeitung zu sein.

Hockeyschläger bei der Temperatur-Rekonstruktion

Abbildung 5: „Mike’s Nature Trick“. Ältere Daten stehen links.

Eine der ungeheuerlichsten Verstöße gegen diese Prinzipien ist die Erzeugung von Klima-„Hockeyschlägern“ mittels Variationen von „Mike’s Nature Trick“.

Nach dem Klimagate-Skandal führte die Penn State [= Pennsylvania State University] eine „Untersuchung“ von Mike’s Nature Trick durch. Die Weißwäsche seitens Penn State war grotesk:

Nach sorgfältiger Bewertung aller Beweise und relevanter Unterlagen kommt das Untersuchungs-Komitee zu dem Ergebnis, dass es keine glaubwürdigen Beweise dafür gibt, dass Dr. Mann jemals versucht oder daran teilgenommen hat, direkt oder indirekt, Maßnahmen durchzuführen oder durchgeführt hat mit der Absicht, Daten zu unterdrücken oder zu fälschen.

RA-10 Inquiry Report

Es kann nicht nachgewiesen werden, dass er die Absicht hatte, unbequeme Daten zu verstecken oder zu fälschen.

Das hier ist besonders lächerlich:

Tatsächlich war es im Gegenteil so, dass in Fällen, auf die sich Einige konzentriert hatten, um Fälschungen von Daten zu belegen, beispielsweise mittels eines „Tricks“ um Daten zu manipulieren, es dargestellt wird als eine Diskussion zwischen Dr. Jones und Anderen einschließlich Dr. Mann, wie man am besten eine Graphik für einen WMO-Report erzeugen könnte. Sie fälschten keine Daten, sondern sie versuchten, eine verständliche Graphik zu konstruieren für jene, die keine Experten in dem Bereich waren. Dieser so genannte „Trick“ war nichts weiter als ein statistisches Verfahren, um zwei oder mehr Arten von Daten auf legitime Weise zusammen zu bringen mittels eines Verfahrens, welches durch viele Fachleute in dem Bereich begutachtet worden war.

RA-10 Inquiery Report

Die harmloseste Erklärung des „Tricks“ lautet, dass man Teile der Rekonstruktion von Keith Briffa bearbeitet hat, weil die Chronologie der Baumringen zeigten, dass die 1930er Jahre bis Anfang der 1940er Jahre wärmer waren als zum Ende der 1990er Jahre. Also ersetzten sie die Baumring-Chronologie durch instrumentelle Aufzeichnungen. Im privaten Bereich ist dieses Verhalten alles andere als harmlos … Es ist vielmehr die Grundlage für sofortige Terminierung oder Schlimmeres.

Ich vermute, dass es keine Beweise dafür gibt, dass man dies in betrügerischer Absicht machte. Allerdings lässt es die Tatsache, dass man es „Mike’s Nature Trick“ nannte, es so aussehen, als ob diese Art des Verfahrens eine Standard-Prozedur war.

Zieht man einen Datensatz heran, welcher zeigt, dass die 1930er Jahre wärmer waren als die 1990er Jahre, und dann einen anderen Datensatz, um diese Relation umzukehren, dann ist das „kein Zusammenbringen von zwei oder mehr Datenarten auf legitime Weise“. Vielmehr handelt es sich dabei um eine totale Verfälschung der Daten.

Beispiele für „Mike’s Nature Trick“ gibt es hier und hier.

Man öffne irgendeinen der **cru_eiv_composite.csv oder **had_eiv_composite.csv-Dateien. Alle verbinden die zeitlich hoch aufgelösten instrumentellen Daten mit den gering aufgelösten Proxy-Daten. Zu Manns Gunsten muss man sagen, dass er zumindest dies so dokumentiert hat, dass man es ausfindig machen kann.

Folgende Aussage aus ihrer PNAS-Studie wird von den Proxy-Rekonstruktionen in keiner Weise gestützt: „Die jüngste Erwärmung scheint anomal zu sein hinsichtlich mindestens der letzten 1300 Jahre, ob nun Baumringe herangezogen worden sind oder nicht. Falls Baumringdaten verwendet worden sind, kann diese Schlussfolgerung auf die letzten 1700 Jahre erweitert werden“.

Die anomale Natur der „jüngsten Wärme“ ist vollständig abhängig von dem „trickreichen“ Gebrauch der instrumentellen Daten. Er hat keine Proxy-Daten nach 1850 verwendet. In der eivrecondescription-Datei heißt es: „Man beachte: Werte von 1850 bis 2006 sind instrumentelle Daten“.

Die folgende Graphik aus der Mann-Studie aus dem Jahr 2008 impliziert, dass alle Rekonstruktionen allgemein übereinstimmen hinsichtlich der Behauptung, dass die „jüngste Erwärmung seit mindestens 1300 Jahren anomal erscheint“ …

Abbildung 6: „Spaghetti-Graphik von Mann et al., 2008. Die älteren Daten sind links.

Durch das Ausfüllen der Graphik mit vielen Rekonstruktionen und das Verputzen mit den instrumentellen Aufzeichnungen am Ende des Graphen ist es unmöglich, irgendwelche Details zu erkennen.

Hier eine Graphik von Mann & Moberg 2005; Christiansen & Ljungqvist 2012 (nicht geglättet), Ljungqvist 2010 und Esper 2002 (geringe Häufigkeit) …

Abbildung 7: Streuung kann in beide Richtungen wirken. Ältere Daten sind links.

Vergrößerung nach 1800 und hinzugefügten HadCRUT4-Daten der NH:

Abbildung 8. Ältere Daten sind links.

Die Moderne Erwärmung erscheint nur deswegen anomal, weil die höhere Auflösung der instrumentellen Aufzeichnungen und deren Lage alle am Ende der Zeitreihe liegen.

Ljungqvist (2010) erklärte das Problem des direkten Vergleichs von instrumentellen Daten mit Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten geht über 0,6°C hinaus. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit zeigt, etwa vom Jahr 1 bis 300 und etwa auf dem Niveau des mittleren Temperaturniveaus von 1961 bis 1990. Es folgte die Kaltzeit des Dark Age von 300 bis 800, die Mittelalterliche Warmzeit von 800 bis 1300 sowie die Kleine Eiszeit von 1300 bis 1900 treten klar hervor. Letzterer folgte im 20. Jahrhundert eine rapide Erwärmung. Die höchsten Mitteltemperaturen in der Rekonstruktion zeigen ich Mitte bis Ende des 20. Jahrhunderts, die niedrigsten Ende des 17. Jahrhunderts. Dekadische Mittelwerte der Temperatur scheinen während substantieller Zeiträume der Römischen und der Mittelalterlichen Warmzeit höher gelegen zu haben als im Zeitraum 1961 bis 1990. Die Temperatur der letzten beiden Jahrzehnte jedoch liegt möglicherweise höher denn je während der letzten zwei Jahrtausende. Allerdings zeigt sich dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solche beispiellose Erwärmung, aber wir müssen berücksichtigen, dass nur wenige, in die Rekonstruktion eingegangene Reihen bis in die neunziger Jahre reichen. Nichtsdestotrotz ist eine sehr sorgfältige Interpretation des Wärmeniveaus seit dem Jahr 1990 im Vergleich zu den wärmsten Zeiten der Römischen und der Mittelalterlichen Warmzeit dringend geboten.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität über Multi-Jahrzehnte und Jahrhunderte sollte als das Minimum der wahren Variabilität jener zeitlichen Maßstäbe betrachtet werden.

Ljungqvist 2010

Abbildung 9: Ljungqvist zeigte, dass die Moderne Warmzeit nicht eindeutig über die Bandbreite der natürlichen Variabilität hinaus gegangen ist. Die dick gestrichelte schwarze Linie repräsentiert die instrumentelle Aufzeichnung. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite der Proxy-Daten relativ zu den instrumentellen Daten zu reflektieren. Ältere Daten stehen links.

Direkte Vergleiche der modernen instrumentellen Aufzeichnungen mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung aufweisen. Die Proxy-Daten zeigen das „Minimum der wahren Variabilität über jene Zeiträume“. Die instrumentellen Daten beschreiben es irgendwie näher der tatsächlichen Variabilität.

Den Proxy-Daten fehlt die Komponente hoher Frequenzen des Signals. Wird die Hochfrequenz-Komponente eines Signals herausgefiltert, dämpft das die Amplitude.

Abbildung 10: Sinuswelle mit einer 10-pt smoothing average. Man beachte die Reduktion der Amplitude infolge Filterung und Glättung (Wood for Trees). Ältere Daten links.

Der direkte Vergleich von instrumentellen Daten mit Proxy-Daten wird sogar noch problematischer, wenn man die zeitliche Länge der Aufzeichnung über 2000 Jahre hinaus verlängert.

Abbildung 11: Klima-Rekonstruktion des Holozän, Andy May WUWT. Ältere Daten sind rechts.

Die vermeintlich „viertwärmsten Jahre jemals“ ereigneten sich etwa 300 Jahre nach dem kältesten Jahrhundert der vergangenen 100 Jahrhunderte. Dies kann nur von jemandem als „Klimakrise“ oder „Klima-Notstand“ bezeichnet werden, der absolut ignorant ist gegenüber grundlegenden wissenschaftlichen Prinzipien, besonders gegenüber Quaternary Geology und Signal-Verarbeitung.

Je zeitlich länger die Aufzeichnung der Rekonstruktion ist, umso wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxys konsistent ist mit jüngeren Proxys. Die zeitliche Auflösung ist eine Funktion des Stichproben-Intervalls.

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen die Auswahl der Proxys ist. Wie in diesen Beiträgen dokumentiert sind etwa 73 Proxys beeinflusst von der Art der Auflösung, welche die signifikanten Klimaereignisse verschleiert. Einige sind auch beeinflusst durch lokale Bedingungen, die keine regionale oder globale Bedeutung haben. Andere überdenken kurze Zeiträume, die nicht die beiden bedeutendsten Klimaereignisse des Holozäns abdecken, nämlich die Kleine Eiszeit und das Holozän-Klimaoptimum.

(…)

Wir haben auch Proxys über lange Zeiträume (mehr als 130 Jahre) außen vor gelassen, weil sie dazu neigen, die Auflösung der Rekonstruktion zu reduzieren und wichtige Details heraus zu mitteln. Der kürzeste Klimazyklus dauert grob 61 bis 64 Jahre, die so genannte „stadium wave“, und wir wollen versuchen, möglichst genau dessen Einfluss zu erkennen. In dieser einfachen Rekonstruktion haben wir versucht, all dem Rechnung zu tragen.

Andy May WUWT

Dies ist eine Tabelle aller „untersuchten“ Proxys. Sie haben eine weitgehend konsistente zeitliche Auflösung. Es sind lange Zeitreihen und überdecken sowohl das Holozän-Klimaoptimum als auch die Kleine Eiszeit, also die wärmste und die kälteste Klimaphase im Holozän. Andys Proxys haben eine mittlere Auflösung von 75 Jahren und eine mittlere Länge der Aufzeichnung von 11.697 Jahren mit geringen Standardabweichungen. Es gibt keinen signifikanten Trend einer abnehmenden Auflösung mit der Zeit, wie es bei den meisten Proxy-Rekonstruktionen der Fall ist.

Abbildung 12: Zeitliche Auflösung (linke Achse) und Länge der Aufzeichnung (rechte Achse). Ältere Daten sind rechts.

Andys Rekonstruktion zeigt, dass der Tiefpunkt der Kleinen Eiszeit die kälteste Klimaperiode des Holozäns war. Dies ist ein Merkmal jeder Nicht-Hockeyschläger-Rekonstruktion und sogar der meisten Hockeyschläger-Rekonstruktionen einschließlich der reihenweise falschen Rekonstruktion von Marcott et al., 2013. Sie zeigt des Weiteren, dass die Moderne Warmzeit relativ zum allgegenwärtigen Klimasignal des Holozäns ziemlich unscheinbar daherkommt (Bohling &Davis, 2001).

Falls man die Übersicht der Referenzen der Rekonstruktionen öffnet und auf die rechts außen liegende Spalte schaut (Kommentare), liest man die Anmerkungen von Andy, ob das Proxy „herangezogen“ wurde, und er erklärt, warum es zurückgewiesen wurde. Die drei Hauptgründe für die Zurückweisung eines Proxys waren:

1. Grobe Auflösung (gekennzeichnet als „Auflösung zu groß“)

2. Nicht alt genug

3. Nicht jung genug

Andy hätte die instrumentelle Aufzeichnung bis zum Ende hiervon verbinden und einen Hockeyschläger erzeugen können … Aber das wäre außerhalb akademischer oder regierungsamtlicher „Wissenschaft“ betrügerisch. Es gleicht dem Zusammenfügen eines Bohrkerns mit einer seismischen Linie und es dann eine Anomalie nennt.

Hinsichtlich Marcott stellen die Autoren fest, dass ihre Holozän-Rekonstruktion nicht direkt verglichen werden können mit instrumentellen Daten infolge der Unterschiede bzgl. der Auflösung … aber sie tun es natürlich trotzdem.

Frage: Was sagen Rekonstruktionen der Paläotemperatur über den Temperaturverlauf der letzten 100 Jahre?

Antwort: Unsere Rekonstruktion der globalen Paläotemperatur enthält u. A. den so genannten „Uptick“ der Temperaturen während des 20. Jahrhunderts. Allerdings stellen wir in der Studie klar, dass dieses Einzelereignis von kürzerer Dauer ist als die inhärente Glättung bei unserem statistischen Mittelungsverfahren, und dieses basiert lediglich auf nur wenigen verfügbaren Paläo-Rekonstruktionen des von uns verwendeten Typs. Folglich ist der Anteil unserer Paläotemperaturwerte nicht statistisch robust und kann nicht als repräsentativ angesehen werden für globale Temperaturänderungen. Darum ist sie auch nicht die Grundlage unserer Schlussfolgerungen. Unsere primären Ergebnisse basieren auf einem Vergleich der längerfristigen Änderungen der Paläotemperatur aus unserer Studie mit den gut dokumentierten Temperaturänderungen, zu welchen es im vorigen Jahrhundert gekommen war, wie durch instrumentelle Aufzeichnungen dokumentiert. Obwohl es nicht Teil unserer Studie ist, wurden hoch aufgelöste Daten der letzten ~130 Jahre aus verschiedenen globalen Archiven zusammengestellt. Diese bestätigen den allgemeinen Erwärmungstrend über dieses Zeitintervall (Anderson, D.M. et al., 2013, Geophysical Research Letters, v. 40, p. 189-193; http://www.agu.org/journals/pip/gl/2012GL054271-pip.pdf).

Frage: Ist die Rate des Temperaturanstiegs der letzten 100 Jahre höher als zu irgendeiner anderen Zeit während der letzten 11.300 Jahre?

Antwort: Unsere Studie hat sich nicht direkt mit dieser Frage befasst, weil die in unserer Studie herangezogenen Aufzeichnungen der Paläotemperatur im Mittel eine zeitliche Auflösung von etwa 120 Jahren haben. Dies erlaubt keine Untersuchungen hinsichtlich der Änderungsraten innerhalb eines Jahrhunderts. Andere Faktoren tragen ebenfalls zur Glättung der Proxytemperatur-Signale bei, welche in vielen von uns verwendeten Aufzeichnungen stecken. Dazu gehören etwa Organismen im Schlamm am Grund der Tiefsee sowie chronologische Unsicherheiten in den Proxy-Aufzeichnungen, welche dazu neigen, die Signale zu glätten, wenn man sie in eine global gemittelte Rekonstruktion eingehen lässt. Wir wiesen nach, dass keine Temperaturvariabilität in unserer Rekonstruktion steckt mit Zyklen kürzer als 300 Jahre. 50% sind enthalten im Zeitmaßstab von 1000 Jahren, und fast alle sind enthalten in Perioden über 2000 Jahre oder mehr. Unsere Monte-Carlo-Analyse trägt diesen Quellen von Unsicherheit Rechnung, um eine belastbare, (wenngleich geglättete) globale Aufzeichnung zu erhalten. Jedwede geringe „Upticks“ oder „Downticks“ der Temperatur, die kürzer sind als einige hundert Jahre in unserer Zusammenstellung paläoklimatischer Daten, sind nicht belastbar, wie in unserer Studie festgestellt.

Real Climate

Falls der „Anteil im 20. Jahrhundert unserer Paläotemperaturen nicht statistisch robust ist“ … Warum fand das dann überhaupt Eingang in die Veröffentlichung? Die modernen instrumentellen Aufzeichnungen wären ein einzelner Datenpunkt bei der Auflösung von Marcotts Rekonstruktion.

Warum ist das von Bedeutung?

Was also würde es bedeuten, falls die Rekonstruktionen eine größere (Esper et al., 2002; Pollack and Smerdon, 2004; Moberg et al., 2005) oder geringere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude zeigen? Wir zeigen, dass Ersteres, also eine verstärkte Variabilität während vorindustriellen Zeiten zu einer Umverteilung des Gewichtes hin zu der Rolle natürlicher Faktoren bzgl. des Antriebs von Temperaturänderungen, den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst. Falls das der Fall sein sollte, wären Übereinkommen wie das Kyoto-Protokoll mit der Absicht, die Emissionen anthropogener Treibhausgase zu reduzieren, weniger effektiv als gedacht.

Esper et al. 2005

Es ist von Bedeutung, weil die einzige Möglichkeit, instrumentelle Daten direkt mit vorindustriellen Proxy-Daten zu vergleichen, eine Filterung der instrumentellen Daten auf die Auflösung der Proxy-Daten zu bringen. Dies ergibt Klima-Rekonstruktionen mit „verstärkter Variabilität in vorindustrieller Zeit“ und „verleiht der Rolle natürlicher Antriebe bzgl. Temperaturänderungen größeres Gewicht, was den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst“.

Es ist von Bedeutung, weil die Befürworter des Anthropozän als geologische Epoche sich auf den Marcott’schen Hockeyschläger stützen.

Abbildung 13: Lauft weg! Das Anthropozän ist über uns gekommen!!! Ältere Daten stehen links.

Es ist von Bedeutung, weil Hockeyschläger bemüht werden, um politische Änderungen zu rechtfertigen, Kohlenstoff-Steuern zu erheben und die individuelle Freiheit und den Wohlstand zu zerschlagen.

Viele der vermeintlichen Beweise, dass jüngste Klimaänderungen von den Normen des Holozäns abweichen, sind genauso konsistent wie das Ergebnis von Differenzen in der Auflösung von paläoklimatischen Daten und instrumentellen Aufzeichnungen.

References

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J. M. Barnola, and D. Raynaud (1997), “CO2record between 40 and 8 kyr B.P. from the Greenland Ice Core Project ice core,” J. Geophys. Res., 102(C12), 26539–26545, doi: 10.1029/97JC00182.

Christiansen, B. and F.C. Ljungqvist. 2012. “The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability”. Climate of the Past, Vol. 8, pp. 765-786. www.clim-past.net/8/765/2012/ doi:10.5194/cp-8-765-2012

Davis, J. C., and G. C. Bohling. “The search for patterns in ice-core temperature curves. 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Esper, J., E.R. Cook, and F.H. Schweingruber. 2002.  “Low-Frequency Signals in Long Tree-Ring Chronologies for  Reconstructing Past Temperature Variability”.  Science, Volume 295, Number 5563, 22 March 2002.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola and V.I. Morgan. 1998. “Historical CO2 records from the Law Dome DE08, DE08-2, and DSS ice cores”. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A.

Finsinger, W. and F. Wagner-Cremer. “Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach”. The Holocene 19,5 (2009) pp. 757–764

Kouwenberg, LLR. 2004. “Application of conifer needles in the reconstruction of Holocene CO2 levels”. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

Mann, Michael,  Zhihua Zhang, Malcolm K Hughes, Raymond Bradley, Sonya K Miller, Scott Rutherford, & Fenbiao Ni. (2008). “Proxy-based Reconstructions of Hemispheric and Global Surface Temperature Variations over the Past Two Millennia”. Proceedings of the National Academy of Sciences of the United States of America. 105. 13252-7. 10.1073/pnas.0805721105.

McElwain et al., 2002. “Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records”. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko & W. Karlén. 2005. “Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Van Hoof, Thomas, Karsten A. Kaspers, Friederike Wagner-Cremer, R.S.W. Wal, Wolfram Kürschner & Henk Visscher. (2005). “Atmospheric CO 2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis”. Tellus B. 57. 10.3402/tellusb.v57i4.16555.

For additional references, see these Watts Up With That posts:

https://wattsupwiththat.com/2012/12/07/a-brief-history-of-atmospheric-carbon-dioxide-record-breaking/

https://wattsupwiththat.com/2017/03/28/breaking-hockey-sticks-antarctic-ice-core-edition/

https://wattsupwiththat.com/2017/06/09/a-holocene-temperature-reconstruction-part-4-the-global-reconstruction/

https://wattsupwiththat.com/2019/06/06/the-holocene-sea-level-highstand/

Link zu diesem Beitrag: https://wattsupwiththat.com/2019/06/25/resolution-and-hockey-sticks-part-1/




Zwei Nachrichten zur Stromversorgung in Deutschland!

Die gute Nachricht lautet:

 

Mit Dank an Michael Krüger von Science Sceptical

Die schlechte Nachricht lautet so:

Mit Dank an Karin Nagel für den Hinweis!

Es ist so sicher wie das Amen in der Kirche, das die schlechten Nachrichten dieser Art mehr und häufiger werden.

Sehen Sie auch hier den Kommentar von Peter Grimm auf ACHGUT

Sündenbock gesucht. 

Jetzt soll es der böse Spekulant gewesen sein.