Berichterstattung über Risiken erneuerbarer Energie
|
Er kann auch föderale Finanzvorschriften heranziehen, um den Zugang von fossile Treibstoffe verwendenden Unternehmen zu billigem Kapital zu verlangsamen oder zu strangulieren, wodurch sie weiter daran gehindert werden, Öl, Gas und Kohle zu erzeugen. Sein offizieller Klimaplan verspricht, „öffentliche Unternehmen zu verpflichten, die Klimarisiken und die Treibhausgasemissionen in ihren Betrieben und Lieferketten offenzulegen“. Indem man sie dazu zwingt, eine Litanei von Klima- und Wetterrisiken darzustellen, die angeblich durch die Emissionen fossiler Brennstoffe verursacht oder verschlimmert werden, könnten die Vorschriften das Interesse von Kreditgebern und Investoren an diesen Brennstoffen stark verringern und den Übergang zu Wind-, Solar-, Batterie- und Biokraftstofftechnologien beschleunigen.
Diese Risiken bestehen in erster Linie in höchst unwahrscheinlichen Worst-Case-Szenarien, die durch Computermodelle erzeugt werden, welche zeigen, dass das vom Menschen geschaffene Kohlendioxid angeblich die Sonne und andere mächtige Naturkräfte ersetzt hat, die das Erdklima (einschließlich wiederholter Eiszeiten) und extreme Wetterlagen schon immer getrieben haben. Tatsächliche Daten werden oft „homogenisiert“ oder anderweitig manipuliert, um die Modelle genauer erscheinen zu lassen, als sie sind.
Die Modelle sagen durchweg globale Mitteltemperaturen voraus, die 0,5°C höher liegen als gemessen. Der 12-jährige Zeitraum (2005-2017) ohne einen einzigen, auf das US-Festland übergreifenden Hurrikan wird ebenso wenig berücksichtigt wie die Tatsache, dass es keine Zunahme tropischer Wirbelstürme gibt, dass im Jahre 2018 kein einziger starker Tornado aufgetreten war, was zuvor in keinem Jahr der Fall war – und dass es in den letzten 35 Jahren weit weniger starke Tornados aufgetreten waren a ls in den 35 Jahren davor.
Die Politik der Mob-Lobbygruppen und die Weigerung der Klima-Alarmisten, Modellversagen und widersprüchliche wissenschaftliche Beweise zu diskutieren, würden diese Realitäten in einer Biden-Regierung jedoch wahrscheinlich irrelevant machen. Das hätte verheerende Folgen für eine US-Wirtschaft, die darum kämpft, sich von Covid-19 zu erholen und in einer Welt zu konkurrieren, in der asiatische, afrikanische und andere Länder nicht aufhören werden, fossile Brennstoffe zur Verbesserung des Lebensstandards zu nutzen, während sie gleichzeitig die Rohstoffe abbauen und damit die Windturbinen, Sonnenkollektoren, Batterien und Biotreibstoffausrüstung herstellen, die die USA im Rahmen eines Green New Deal importieren müssten (da nach den Bestimmungen der Biden-Ära kein Bergbau und praktisch keine Herstellung derselben erlaubt oder möglich wäre).
Der Ersatz von Kohle, Gas und Atomstrom, Verbrennungsfahrzeugen, Gas für die Hausheizung und Kohle und Gas für Fabriken – und der Einsatz von Batterien als Reserveenergie für sieben wind- und sonnenlose Tage – würde rund 8,5 Milliarden Megawatt erfordern. Um so viel Elektrizität zu erzeugen, wären etwa 75 Milliarden Sonnenkollektoren erforderlich … oder 4,2 Millionen 1,8-MW-Onshore-Windturbinen … oder 320.000 10-MW-Offshore-Windturbinen … oder eine Kombination dieser Technologien … etwa 3,5 Milliarden 100-kWh-Batterien … Hunderte von neuen Fernleitungen – sowie Bergbau und Fertigung in einer Größenordnung, die weit über alles hinausgeht, was die Welt je gesehen hat.
Das ist keine saubere, grüne, erneuerbare Energie. Sie ist ökologisch destruktiv und absolut nicht nachhaltig – finanziell, ökologisch und politisch. Das bedeutet, dass jedes Unternehmen, jede Gemeinde, jede Bank, jeder Investor oder Pensionsfonds, der sich an Technologien für „erneuerbare Energien“ wagt, enorme Risiken eingehen würde.
Wenn Bürger, Wähler und Investoren erst einmal anfangen zu begreifen, dass (a) die Treibsand-Grundlage unter alarmierenden Klimamodellen und -prognosen, (b) die Tatsache, dass afrikanische, asiatische und sogar einige europäische Länder ihren Verbrauch an fossilen Brennstoffen auf Jahrzehnte hinaus nur noch steigern werden; (c) dass Hunderte Millionen Hektar Wald in den USA abgeholzt werden müssen, um Turbinen, Paneele, Batterien, Biotreibstoffpflanzen zu installieren um „klimafreundliche“ Biotreibstoffkraftwerke zu betreiben; und (d) die Vogel-, Fledermaus- und anderen Tierarten, die unter diesem Ansturm verschwinden würden – sie werden rebellieren. Die Märkte für erneuerbare Energien werden implodieren.
Wachsende Empörung über Kinderarbeit, Beinahe-Sklavenarbeit und minimale bis nicht vorhandene Vorschriften zur Gesundheit und Sicherheit der Arbeiter, zur Kontrolle der Umweltverschmutzung und zur Rückgewinnung der Umwelt in fremden Ländern, in denen Materialien abgebaut und „erneuerbare“ Energietechnologien hergestellt werden, werden die Gegenreaktion und den Zusammenbruch noch verstärken. Da die Umstellung auf GND-Energiesysteme eine zunehmende Abhängigkeit vom chinesischen Bergbau und der chinesischen Fertigung mit sich bringt, die Stromtarife in die Höhe schießen lässt, Millionen von amerikanischen Arbeitsplätzen vernichtet und den Lebensstandard in den USA in den Keller stürzen lässt, wird jede noch verbleibende Unterstützung für Wind- und Solar- und andere „erneuerbare“ Technologien verpuffen.
Pensionsfonds und Unternehmen in öffentlichem Besitz sollten daher gezwungen werden, die Risiken offenzulegen, die sich aus der Aufnahme von oder Investitionen in Technologien oder Anlagen für erneuerbare Energien für ihren Betrieb, ihre Versorgungsketten, ihre Mandate für das „Portfolio erneuerbarer Energien“, Subventionen, Einspeisetarife, Gewinne, Mitarbeiter, Bewertung und ihre Existenz ergeben. Sie sollten gezwungen werden, jeden Aspekt dieser Risiken vollständig zu analysieren und darüber zu berichten.
Das Weiße Haus, das Finanzministerium, die Wertpapier- und Börsenkommission, die Federal Reserve, der Ausschuss für Finanzstabilität, die Pension Benefit Guaranty Corporation und andere relevante Behörden sollten unverzüglich verlangen, dass Unternehmen in öffentlichem Besitz, betriebliche Altersversorgungspläne und öffentliche Pensionsfonds zumindest die folgenden grundlegenden Aspekte „erneuerbarer“ Operationen bewerten und offenlegen:
* Wie viele Windturbinen, Sonnenkollektoren, Batterien, Biokraftstoffanlagen und kilometerlange Übertragungsleitungen werden im Rahmen der verschiedenen GND-Pläne benötigt? Wo werden sie benötigt? Wessen Landschafts- und Tierweltgebiete werden betroffen sein?
* Wie werden ländliche und Küstengemeinden darauf reagieren, dass sie zu Energiekolonien für Großstädte gemacht werden?
* Wie viel Beton, Stahl, Aluminium, Kupfer, Kobalt, Lithium, Seltene Erden und andere Materialien werden für jedes Projekt und kumulativ benötigt – und woher genau werden sie kommen?
* Wie viele Tonnen Abraum und Erz werden pro Tonne benötigter Metalle und Mineralien abgetragen und aufbereitet? Wie viele Verletzte und Tote wird es in den Minen, Verarbeitungsbetrieben und Fabriken geben?
* Welcher projektbezogene und kumulative Verbrauch an fossilen Brennstoffen, CO2- und Schadstoffemissionen, Auswirkungen auf die Landnutzung, Wasserbedarf, Umsiedlungen von Familien und Gemeinden und andere Auswirkungen werden die Folge sein?
* Welche Löhne werden gezahlt? Wie viel Kinderarbeit wird anfallen? Welche Gesetze, Vorschriften, Normen und Praktiken in den Bereichen Arbeit, Sicherheit am Arbeitsplatz, Umweltschutz und andere gelten in jedem Land?
* Wie viele Fälle und Tod bei Krebs und anderen Krankheiten beim Menschen sind wahrscheinlich? Wie viele Lebensräume von Wildtieren werden zerstört? Wie viele Vögel, Fledermäuse und andere Wildtiere werden vertrieben, getötet oder ausgerottet?
* Wie viel Anbaufläche, Wasser, Dünger, Pestizide und fossile Brennstoffe werden für Ethanol und Biodiesel benötigt? Wie viele Hektar Wald werden für Kraftwerks-Biokraftstoff abgeholzt, und wie lange wird es dauern, bis sie wieder nachwachsen?
* Welche Gesetze zur „verantwortungsbewussten Beschaffung“ gelten für all diese Materialien, und wie stark werden sie die Kosten erhöhen?
* Wie werden Haus-, Geschäfts-, Krankenhaus-, Verteidigungs-, Fabrik-, Netz- und andere Systeme vor Hackern und Stromunterbrechungen geschützt, die durch Akteure von Wind-, Solar- und anderen Herstellern aus Übersee verursacht werden?
* Welche Kosten und Materialien sind erforderlich, um bestehende Heizsysteme für Privathaushalte und Gewerbebetriebe auf vollelektrische Energie umzustellen, die Stromnetze und Systeme für das schnelle Aufladen von Elektrofahrzeugen aufzurüsten und die intermittierenden, unvorhersehbaren, wetterabhängigen Realitäten der Green New Deal-Energiequellen zu berücksichtigen?
* Welchen Preiserhöhungen pro kWh pro Jahr werden Familien, Unternehmen, Büros, Bauernhöfe, Fabriken, Krankenhäuser, Schulen und andere Verbraucher ausgesetzt sein, wenn staatliche und nationale elektrische Systeme auf GND-Quellen umgestellt werden?
* Wie viele Stromunterbrechungen wird es jedes Jahr geben, wie werden sie Familien, Fabriken und andere Nutzer schädigen – und wie hoch wird der kumulative wirtschaftliche und Produktivitätsschaden durch diese Stromausfällen sein?
* Inwieweit werden politische Maßnahmen, Gesetze, Verordnungen, Gerichtsentscheidungen und die Opposition der Bürger, Proteste, Klagen und Sabotageprojekte Wind-, Solar-, Biokraftstoff-, Batterie-, Bergbau- und Übertragungsprojekte verzögern oder blockieren?
* Wie viele Sonnenkollektoren, Windturbinenblätter, Batterien und andere Komponenten (Anzahl, Tonnen und Kubikfuß) müssen jedes Jahr entsorgt werden? Wie viel Deponiefläche und Verbrennung wird benötigt?
* Wie genau sind die Vorhersagen der Klimamodelle für Temperaturen, Meeresspiegel, Tornados, Wirbelstürme, Überschwemmungen, Dürren und extreme Wetterereignisse, die zur Rechtfertigung von Programmen für erneuerbare Energien herangezogen werden?
Diese Fragen (und viele andere) unterstreichen die extrem hohen Risiken, die mit den Energieprogrammen des Green New Deal verbunden sind – und warum es für Kreditgeber, Investmentgesellschaften, Pensionsfonds, Hersteller, Versorgungsunternehmen und andere Branchen unerlässlich ist, die Risiken erneuerbarer Energien zu analysieren, offen zu legen und darüber zu berichten, wobei bei Nichtbeachtung oder Fälschung einschlägiger Informationen erhebliche Strafen verhängt werden.
Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death
Rechnen wir die Zahlen von Entso-e nach, so ergeben sich die unten gezeigten Zahlen (in TWh) und prozentuale Anteile. Ich ermittele einen Anteil von 56,5%.
Warum der Anteil des Ökostroms so stark angestiegen ist, wird mit keinem Satz erwähnt. Durch politische Maßnahmen und Nachfrageeinbrüche, gibt es einen signifikanten Einbruch des Stromverbrauches (Last).
Die EEG-Anlagen mussten sich aber der gesunkenen Nachfrage nicht anpassen.
Dadurch mussten vor allem Kernkraft, Kohle und Gas ihre Erzeugungsleistung anpassen.
Auch zeigt sich, dass der grenzübergreifende Austausch von elektrischer Energie kleiner wird.
Besonders der Export von Deutschland in die angeschlossenen Nachbarländer sinkt, bedingt durch die Abschaltung von Kernkraft – und konventionellen Kraftwerken.
Doch wie sieht der Mix der verschiedenen Energieträger aus? Dazu nutze ich das Kupferplattenmodell. Hierzu wurde der Energiemix jedes Nachbarlandes ermittelt und anteilmäßig auf den Exportstrom verteilt. (Export des Nachbarlandes = Import durch Deutschland)
Anschließend wird der Energiemix der Nachbarländer addiert. Die Ermittlung der deutschen Exportströme wurde nach dem gleichen Verfahren ermittelt.
Diese Grafik zeigt die Anteile der Energieträger am Import und Export von und nach Deutschland. Leicht zu erkennen ist, dass Deutschland fast so viel Kernkraft importiert, wie es Windstrom exportiert.
Daraus ergeben sich folgende Austauschsalden mit den Nachbarländern.
Ein weiteres Problem ist die Residuallast. ( = Last – Wind – Solar)
Die deutsche Energieversorgung beginnt, aus den Fugen zu geraten, da die Residuallast, zum ersten Mal in einen negativen Wert abgeglitten ist. Dies ist ein Indiz, dass die „Erneuerbaren“ beginnen, sich zu kannibalisieren.
Jahr
Residuallast Minimum
Residuallast Maximum
2010
28.493 MW
74.863 MW
2011
20.700 MW
73.725 MW
2012
15.796 MW
74.225 MW
2013
14.327 MW
72.282 MW
2014
12.815 MW
71.817 MW
2015
6.857 MW
70.432 MW
2016
6.062 MW
72.397 MW
2017
5.373 MW
72.370 MW
2018
4.866 MW
69.461 MW
2019
2.619 MW
70.561 MW
1 HJ 2020
-2.215 MW
66.148 MW
Ein weiteres Warnsignal ist die Entwicklung der negativen Börsenpreise. Das Wochenende 04.07. und 05.07.2020 addierte weitere 17 Stunden hinzu.
Auch die deutschen Kosten des Engpaßmanagement sind ohne Frage „Weltspitze“.
Mir erscheinen die deutsche Energiepolitiker wie Geisterfahrer, die, da Sie keine Rücklichter sehen, sich an der weltweiten Spitzenposition sehen.
Zusatzinformation: Daten zu Offshore-Windkraftanlagen auf dem Meer
EIKE sucht freiwillige und unbezahlte Klima- und Energieautoren!
|
Die EIKE-Redaktion überlegt, ein eigenes Online-Lexikon nach dem Vorbilde bestehender Online-Angebote mit professioneller Software zu starten. Dazu wollen wir abprüfen, ob sich genügend kompetente Mitmacher finden würden.
Da die „Aufklärung“ über den angeblich menschgemachten Klimawandel von politmedialen Profiteuren einer Weltuntergangserzählung in Presse, Fernsehen und Internetz dominiert wird, bedarf es einer neutralen und wissenschaftlichen Darstellung, die leicht verständlich im Netz präsentiert wird.
Da wir aber bekannterweise nicht von der Ölindustrie und anderen bösen Konzernen des alten weißen Mannes finanziert werden, haben wir kaum Personal, das mehr als Organisation zu leisten vermag. Wir brauchen also Physiker, Ingenieure, Chemiker u.v.a., die Kompetenz besitzen und die Zeit aufbringen wollen, um mitzumachen!
Daher rufen wir mit diesem Artikel unsere Leser auf, die Internet-Nutzer im deutschsprachigen Raum mit wissenschaftlich gesicherten und empirischen Informationen zum Thema Klima&Energie zu versorgen. Bei Interesse bitte Email an: m.limburg@eike-klima-energie.eu
Woher kommt der Strom? gleichmäßiges Stromerzeugungsbild
Die Abbildung belegt, dass die Konsequenzen aus dem Atomausstieg bis Ende 2022 und der Kohleausstieg bis Ende 2038 Lücken in der Stromversorgung aufreißen, die sogar bei einer angenommenen Verdoppelung des Stroms aus erneuerbaren Energieträgern nicht geschlossen werden können. Windstromerzeugung ist unstet. Sowohl an Land als auch auf See (Abbildung 2). Nur mit einem riesigen Backup-Park, bestehend aus Gaskraftwerken, die zur und in der Not annähernd die gesamte Stromversorgung in Zeiten von Dunkelflauten übernehmen, und die zum großen Teil noch gebaut werden müssen, ist eine sichere Stromversorgung für Deutschland möglich.
Das kostet und kostet und bringt eingedenk der Mini-Rolle die Deutschlands CO2-Ausstoß in globalem Maßstab spielt, praktisch nichts für das Weltklima. Wenn denn von Menschen produziertes CO2 überhaupt die überragende Rolle in Sachen Klimawandel spielt.
Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart belegen, wie schwach die Windstromerzeugung der 26. Woche in Relation zum Bedarf ist. Wären da nicht vor allem die kontinuierlich arbeitenden Stromlieferanten Wasserkraft und Biomasse, sähe es zumindest in der Zeit, in der Sonnenkraft keinen Strom erzeugt, richtig schlecht aus mit dem Strom, erzeugt mittels erneuerbarer Energieträger. Vor allem aber Windkraftanlagen sollen die Energiewende „wuppen“. Denn Wind weht, wenn er denn weht, ganztägig. Windstromerzeugung ist zumindest theoretisch beliebig erweiterbar. Eingedenk der Tatsache, dass es mindestens 3.000 Windkraftanlagen á drei MW braucht, um zumindest rechnerisch eine Gigawattstunde Strom aus Wasserstoff mittels Elektrolyse und Brennstoffzelle zu erzeugen, bekommt man eine Vorstellung davon, was da noch zu tun wäre, um bis 2030 eine Gesamtleistung von fünf GW zu erreichen (Abbildung 3).
Obwohl Deutschland auch in der 26. Woche viel Strom aus dem benachbarten Ausland importieren und über Tag exportieren musste, blieben die Strompreise im positiven Bereich. Den bisherigen Im- und Exportwert des Jahres 2020 sehen Sie hier.
Die Tagesanalysen
Sonntag, 21.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 58,51 Prozent, davon Windstrom 12,77 Prozent, Sonnenstrom 26,60 Prozent, Strom Biomasse/Wasserkraft 19,15 Prozent. Die Agora-Chartmatrix: Hier klicken.
Montag, 22.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 46,36 Prozent, davon Windstrom 12,3 Prozent, Sonnenstrom 20,49 Prozent, Strom Biomasse/Wasserkraft 15,57 Prozent. Die Agora-Chartmatrix: Hier klicken.
Montag, Werktag, mehr Bedarf! Etwas mehr Windstromerzeugung, weiter recht ordentliche Sonnenstromerzeugung führen zur dieser (Strom-)Preislage. Vormittags und zum Abend gibt es Preisspitzen. Da importiert Deutschland. Eine Preissenke ergibt sich über Tag. Da exportiert Deutschland.
Dienstag, 23.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,38 Prozent, davon Windstrom 6,93 Prozent, Sonnenstrom 23,85 Prozent, Strom Biomasse/Wasserkraft 14,62 Prozent. Die Agora-Chartmatrix: Hier klicken.
Mittwoch, 24.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 46,27 Prozent, davon Windstrom 10,45 Prozent, Sonnenstrom 22,39 Prozent, Strom Biomasse/Wasserkraft 13,43 Prozent. Die Agora-Chartmatrix: Hier klicken.
Gegen Abend zieht die Windstromerzeugung an. Auch heute wieder eine Preisdifferenz zwischen Im- und Exportstrom zu ungunsten Deutschlands. Ausnahme: Wie fast immer der frühe Morgen. Da drückt die insgesamt geringe Nachfrage bei relativ hohem Angebot den Preis.
Donnerstag, 25.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,94 Prozent, davon Windstrom 17,73 Prozent, Sonnenstrom 18,44 Prozent, Strom Biomasse/Wasserkraft 12,77 Prozent. Die Agora-Chartmatrix: Hier klicken.
Freitag, den 26.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,15 Prozent, davon Windstrom 14,07 Prozent, Sonnenstrom 20,74 Prozent, Strom Biomasse/Wasserkraft 13,33 Prozent. Die Agora-Chartmatrix: Hier klicken.
Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?
Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.
Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.
Zuerst erschienen bei derAchse des Guten; mit freundlicher Genehmigung.
Corona-Ketzerei im Bundestag: „Die Deutschen würden auch kriechen
|
Für TV- und Radio-Anstalten, die durch verpflichtende, steuerähnliche Gebühren finanziert werden, ist das sogar obligatorisch. Das ergibt sich etwa aus dem Rundfunk-Staatsvertrag, der faktisch Gesetzesrang hat. Ausgewogenheit und Neutralität sind grundlegende Aufgaben der Öffentlich-Rechtlichen, ebenso Vielfalt.
Umso erstaunlicher war es, dass heute bei einem großen Symposium der größten Oppositionspartei im Bundestag zu dem Thema, das die Menschen in Deutschland derzeit wohl am meisten beschäftigt, kein einziger öffentlich-rechtlicher Sender zu sehen war. Angesichts von mehr als acht Milliarden Euro, die das öffentlich-rechtliche System jährlich einnimmt, hätte eine der Anstalten doch ein Kamerateam finden sollen.
Video des Journalisten Markus Gärtner über das Symposium
Ganz unabhängig davon, wie sie zur AfD stehen, hätten die Zuschauer dann Meinungen hören können, die erheblich von denjenigen abweichen, die in den großen deutschen Medien fast schon Monopol-Charakter haben. Etwa die Warnung der Mikrobiologin und Ärztin Maria Gismondo, die an der Universität Mailand lehrt: „Wir müssen uns an den Fakten orientieren, es geht nicht um links oder rechts, es geht um die wissenschaftlichen Fakten. Und ein Fakt ist, dass wir bisher weniger Covid-19 Tote haben als bei einer normalen Grippe. Fakt ist auch, dass viele Leute leiden, weil Operationen verschoben wurden. Rund um Covid-19 gibt es ein riesiges Drama“, warnte die Medizinerin.
Dass die Zahlen und Bilder aus Italien im Winter so dramatisch gewesen seien, habe seine Ursache auch darin, dass anfangs falsch behandelt worden sei, erklärte die Professorin aus Italien: Das sei aber nicht die Schuld der Ärzte gewesen, man habe einfach zu wenig gewusst damals. Schuldhaft sei es aber, dass nicht genügend Autopsien durchgeführt würden. Durch die Untersuchung der Leichen hätte man schon früher feststellen können, dass die Lungenentzündungen nicht ausschlaggebend waren. Gismondo: „Wir haben eine Infektion, die grassiert, wie viele andere. Wir können deswegen nicht alle Positiven, also Infizierten verbannen oder gar ins Gefängnis schicken. Wir müssen die Labilen schützen.“
Gismondo hatte die italienische Regierung schon früher aufgefordert, die tägliche Anzahl der „Corona-Positiven“ nicht mehr zu kommunizieren, da diese Zahlen nicht aussagekräftig und nicht zuverlässig seien und die Bevölkerung in eine unnötige Panik versetzen würden. Zum Thema Masken erklärte die Medizinerin Gismondo aus Italien: „Für mich war das eine italienische Verrücktheit. Wir müssen sie sogar tragen, wenn wir Fahrrad fahren, denn es gibt angeblich Leute, die am Straßenrand in Ohnmacht fallen….die Daten sind leider nicht verlässlich.“
Zu den strittigen Punkten in Sachen Corona, so der Tenor auf dem Symposium, fehle eine breite Diskussion in Deutschland; Fachleute mit Meinungen, die vom Standpunkt des Robert-Koch-Instituts, von Christian Drosten und Alexander Kekulé abwichen, kämen so gut wie nicht zu Wort in den großen Medien und in der öffentlichen Debatte. Bei einem so wichtigen Thema wie Corona sei aber ein umfassender Diskurs wichtig und ein Meinungs-Monopol für eine bestimmte Gruppe von Fachleuten gefährlich. Wo Widerspruch unterdrückt werde, drohten sich Fehler einzuschleichen und deren Korrektur unmöglich zu werden.
Aufgeworfen wurden auf dem Symposium auch Aspekte und Fragen, die heute fast ketzerisch wirken. Ein Teilnehmer etwa bemerkte: „Wir haben das Problem, dass in Gütersloh 1500 Menschen positiv getestet wurden, aber nun fehlen uns die Toten. Könnte es sein, dass eine Menge falscher Tests dort gemacht wurde?“ Ein Zwischenrufer antwortete, es läge daran, dass eben keine 80-Jährigen in Fleischfabriken arbeiteten.
Schon die Idee der Unterordnung aller anderen Grundrechte unter die Gesundheit sei fragwürdig, mahnte Jürgen Braun, menschenrechtspolitischer Sprecher der AfD-Bundestagsfraktion. Dabei würden auch noch die medizinischen Aspekte allesamt dem Virus untergeordnet, und die anderen Gesundheits- und Lebensgefahren etwa durch verschobene Operationen oder Depressionen vernachlässigt, so Braun. Auch durch diese Faktoren seien Menschenleben in Gefahr. Die Situation erinnere an George Orwells Roman “1984“ – man habe permanent einen gefühlten Kriegszustand in der Bundesrepublik. „Jeder Grund wird zum Anlass genommen, um diese so genannte Pandemie künstlich zu verlängern“, sagte Braun.
Der Unternehmer und Nanotechnologie-Experte Professor Henning Zoz erklärte, er glaube nicht, dass Corona in irgendeiner Art geplant gewesen sei. Aber es werde als willkommene Gelegenheit benutzt, um politische Veränderungen zu erreichen und das Virus als Grund für eine Wirtschaftskrise hinzustellen, die aufgrund verfehlter Politik ohnehin gekommen wäre. „So wie Greta die Dame gerettet hat, so hat es jetzt Corona“, sagte Zoz in Hinblick auf Angela Merkel: „Corona bringt uns näher an eine Diktatur.“
Der Abgeordnete Stephan Protschka beklagte Kadaver-Gehorsam in Deutschland in Sachen Corona, der vor allem auch auf das gezielte Schüren von Ängsten durch die Politik zurückzuführen sei. Diese Taktik sei unter anderem in einem internen Papier des Bundesinnenministeriums offen ausgeführt (siehe mein Beitrag „Urängste wecken – darf der Staat das?“). Protschkas sarkastische Schlussbemerkung: Wenn Medien und Regierung morgen erklären würden, dass es vor Corona helfe, wenn man niedriger als 90 Zentimeter kriechen würde, würden morgen 90 Prozent der Deutschen kriechen.
P.S.: Dieser Beitrag sollte noch ausführlicher sein und auch von einem Video mit Ausschnitten vom Symposium begleitet werden. (Anmerkung der Redaktion: Dazu wurde hier das Video von Markus Gärtner verwendet) Leider wurde aber die Aufzeichnung des Symposiums bislang von der AfD-Fraktion nicht, wie angekündigt, zeitnah im Internet hochgeladen (Stand: Samstag, 4. Juli 2020, 21 Uhr). Hier wäre etwas mehr Zuverlässigkeit wünschenswert und für die Oppositionsarbeit angebracht.
Brief an den neuen Präsidenten der Royal Netherlands Academy of Arts and Sciences
|
Der Brief basiert auf CLINTELs wissenschaftlichem Manifest AVDIATVR ET ALTERA PARS („Hört beide Seiten an!“, eines der beiden Grundprinzipien der natürlichen Gerechtigkeit, die im Recht der zivilisierten Nationen festgeschrieben sind). Das Manifest enthält zehn Vorschläge für unabhängige wissenschaftliche Forschung. Jegliche wissenschaftliche Forschung sollte diesen Vorschlägen entsprechen. Schlechte wissenschaftliche Praxis führt unweigerlich zu schlechten wissenschaftlichen Ergebnissen.
Im Folgenden werden die zehn Punkte vorgestellt, wobei kurz untersucht wird, inwieweit die aktuelle Klimaforschung diesen entspricht.
1. Die Komplexität von Multifaktor- und Multiskalensystemen erfordert eine enge Zusammenarbeit zwischen einem breiten Spektrum von wissenschaftlichen Bereichen und Disziplinen.
Der Klimawandel hat eine Vielzahl von Ursachen, sowohl natürliche als auch anthropogene. Die Integration von Wissen aus vielen wissenschaftlichen Disziplinen, wie Astronomie, Geologie, Archäologie, Meteorologie, Ozeanographie und Biologie, ist für ein umfassendes Verständnis der komplexen kausalen Zusammenhänge, die dem Klimawandel zugrunde liegen, unerlässlich. Gleichzeitig sollte die Integration von theoretischem Wissen mit der Messtechnik eine hohe Priorität haben. Dies ist in der heutigen Mainstream-Klimaforschung kaum der Fall.
2. Fundierte wissenschaftliche Forschung ist aufgeschlossen und gekennzeichnet durch eine Vielzahl von Standpunkten ohne Dogmen und Vorurteile
Innerhalb der etablierten Klimawissenschaft werden Neugierde und Vielfalt unterdrückt und das Dogma der anthropogenen globalen Erwärmung (AGW) rücksichtslos durchgesetzt. Denken Sie an das Extremszenario RCP 8.5 des IPCC, das in der Literatur weithin als „business as usual“ dargestellt wird. Trotz drängender wissenschaftlicher, wirtschaftlicher und sozialer Gründe, dieses Dogma in Frage zu stellen, wird jede Skepsis als unwissenschaftlich dargestellt. Wissenschaft ist jedoch weder eine Religion noch eine politische Fraktion. Wissenschaft macht nicht Fortschritte, indem sie „Ich glaube!“ singt, sondern indem sie „Ich frage mich?“ fragt. Fördermittel für klimaskeptische Forschung gibt es heute nicht. Zensur erschwert und verhindert allzu oft die Veröffentlichung kritischer Artikel in wissenschaftlichen Fachzeitschriften mit Peer-Review.
3. Der Glaube an wissenschaftliche Modelle ist der Glaube an die zugrunde liegenden Annahmen; nur richtig Annahmen führen zu richtigen Antworten
Was uns Computermodelle sagen, hängt ganz davon ab, was die Programmierer derselben in sie eingegeben haben: Hypothesen, Beziehungen, Parametrisierungen, arithmetische Vereinfachungen, Randbedingungen usw. Leider diskutieren die Mainstream-Klimatologen diese Entscheidungen in ihren komplexen Klimamodellen nur selten. Wie empfindlich reagieren zum Beispiel die Modellierungsergebnisse auf die verzerrten Annahmen der Modellierer? Darüber wissen wir immer noch sehr wenig.
4. Mit genügend Modellparametern ist es immer möglich, Messungen zu rekonstruieren
aus der Vergangenheit; es sagt jedoch wenig über die Gültigkeit der Modelle aus.
Der berühmte Mathematiker John von Neumann (1903 – 1957) sagte „Mit vier Parametern kann ich einen Elefanten anpassen: mit fünf kann ich ihn dazu bringen, mit dem Rüssel zu wackeln.“ Der eigentliche Test der Modelle besteht darin, ob sie zukünftige Messungen genau vorhersagen können. Aber genau da scheitern die Klimamodelle. Seit 30 Jahren hat das IPCC in seinen Berichten fälschlich alarmierend hohe Temperaturen vorhergesagt. Warum veröffentlicht er angesichts seines Scheiterns immer noch seine spekulativen langfristigen Klimavorhersagen?
5. Im wissenschaftlichen Fortschritt sind ordentliche Messungen entscheidend; Durchbrüche in der Wissenschaft werden durch die Verfügbarkeit besserer Messungen eingeleitet.
Denken Sie an die spektakulären Verbesserungen in der Mikroskopie und die Leistungsfähigkeit moderner Teleskope. Denken Sie an das niederländische Antennennetzwerk LOFAR, das bereits Tausende neuer Galaxien entdeckt hat. Leider interessiert sich die etablierte Klimawissenschaft weniger für Messungen als für bloße Modelle. Gerade in der äußerst komplexen Klimafrage sollten neue Messsysteme als Maßstab zur Überprüfung der Gültigkeit der Modellannahmen des IPCC höchste Priorität haben.
6. Die Geschichte der Wissenschaft zeigt immer wieder, dass neue Einsichten nicht von Anhängern, sondern von Andersdenkenden kommen; Zweifler und Andersdenkende machen Geschichte in der Wissenschaft.
Kopernikus, Galilei, Newton, Gauß, Curie, Einstein, Watson, Crick, Wilkins und Hawking haben sich alle kritisch mit dem herrschenden Konsens auseinandergesetzt und einen anderen Weg gewagt. Ohne sie wäre der Fortschritt nicht möglich gewesen. Im Gegensatz dazu hat die etablierte Klima-Gemeinschaft nur wenige Fortschritte hervorgebracht. Sie haben sich in eine immer verbittertere Verteidigung der engen CO2-Erwärmungshypothese geflüchtet. Zweifler und Andersdenkende werden nicht toleriert.
7. Die Trennung von Wissenschaft und Politik ist ein großes Gut; Akademien der Wissenschaften sollten Wissenschaftler vor politischen Ideologien schützen
Wenn politische Ideologen „Konsens“ proklamieren, werden kritische Wissenschaftler an den Rand gedrängt, aus dem wissenschaftlichen Diskurs ausgeschlossen oder sogar entlassen. Professor Peter Ridd, ein Experte für Korallenriffe, entlarvte zum Beispiel mehrere unsolide wissenschaftliche Abhandlungen, in denen fälschlicherweise behauptet wurde, dass der Klimawandel das Große Barriere-Riff zerstören würde. Seine Universität entließ ihn nach jahrzehntelangem Dienst. Die Gerichte haben seine Entlassung für unzulässig erklärt und die Universität angewiesen, ihn zu entschädigen.
Das Fehlverhalten der Universität war nicht nur eine eklatante Verletzung der akademischen Freiheit, sondern hat auch ein gefährliches Signal an junge Wissenschaftlerinnen und Wissenschaftler ausgesendet: Wagt es nicht, euch über Dogmen hinwegzusetzen, sonst werdet ihr vertrieben. Die Klimazensur führt uns ins Mittelalter zurück. AGW-Abweichler werden exkommuniziert.
8. Die Akademien der Wissenschaften haben eine moralische Verantwortung, die Gesellschaft vor sinnlosen Schlussfolgerungen zu warnen, die sich aus dem naiven Glauben an wissenschaftliche Modelle ergeben
Bisher haben sich Klimamodelle als unfähig erwiesen, zuverlässige Vorhersagen über die globale Erwärmung zu machen. Daher sind ihre Vorhersagen keine solide Grundlage für die Regierungspolitik. Klimapolitik ist kostspielig. Sie hat erhebliche Folgen für die Gesellschaft. Beispielsweise haben die Vorhersagen des IPCC über die extreme Erwärmung und den Anstieg des Meeresspiegels in der Welt viel Angst und Unruhe ausgelöst. Da die heutige Klimapolitik auf diesen alarmierenden Modellvorhersagen beruht, wird die bestehende Energieinfrastruktur unnötigerweise in unbedachter Eile abgerissen. Ein typisches Beispiel für Klimadummheit sind Ausgaben in Milliardenhöhe für schmutzige, mit Holz befeuerte Kraftwerke. Für diese vermeintlich „grüne“ Lösung werden Wälder mit einzigartigen Ökosystemen zerstört.
9. Die wissenschaftliche Gemeinschaft sollte ehrlicher über die Grenzen der Macht des Menschen zur Unterdrückung der natürlichen Variabilität sein.
Die Wissenschaft sollte anfangen, sich gegen die absurden Green-Engineering-Agenden supranationaler Organisationen zu wehren. Zu glauben, dass wir die komplexen Prozesse von Wetter und Klima in der Makrowelt bis hin zur Mutation von Krankheitserregern in der Mikrowelt immer kontrollieren können, ist ebenso naiv wie arrogant. Wir sollten uns nicht so verhalten, als wären wir die heutigen Don Quichotes. In der Klimaforschung sollten wir uns nicht auf die Abschwächung, sondern auf die Anpassung an die vielen Folgen der vor uns liegenden natürlichen Variabilität konzentrieren – Veränderungen, die wir nicht kontrollieren können.
10. „Die Wissenschaft ist settled“ ist eine Konsenserklärung, die niemals von integren Wissenschaftlern verwendet werden wird.
Das Konsensargument vermischt zwei alte logische Trugschlüsse – den der Anzahl hinter dem Konsens und den der Berufung auf eine imaginäre Autorität (argumentum ad populum und ad verecundiam). Die Aussage, dass „die Wissenschaft settled ist„, ist eine Behauptung des imaginären Konsens‘, der von Klimaaktivisten als Ersatz für die Wissenschaft eingesetzt wird. Ich zitiere Michael Crichton (1942 – 2008) zu diesem Thema: „Wissenschaft ist kein Konsens und Konsens ist keine Wissenschaft“. Das Pariser Klimaabkommen von 2015, das die Klimaagenda für Jahrzehnte festlegte, basiert auf dieser Aussage. Die Wahrheit ist jedoch, dass die Wissenschaft überhaupt nicht geregelt ist. Wir haben wenig Ahnung, wie viel oder wie wenig die Menschheit zur globalen Erwärmung beiträgt. Wir wissen auch nicht, ob oder inwieweit eine weltweite Erwärmung netto schädlich oder netto vorteilhaft sein wird.
Die gängige Klimawissenschaft erfüllt keinen dieser zehn Punkte. Die Klimaforschung hat eine Richtung eingeschlagen, die – so gewinnbringend sie für ihre Praktiker auch sein mag – der Wissenschaft nicht würdig ist. Die Interessen von Wissenschaft und Politik haben sich stark verflochten. Infolgedessen wurde die Suche nach der objektiven wissenschaftlichen Wahrheit jahrzehntelang aufgegeben. Die Geschichte wird denjenigen in Wissenschaft, Verwaltung und Politik die Schuld geben, die diesen wissenschaftlichen Skandal initiiert, gefördert und begünstigt haben.
Im Jahr 2015 hätten die Akademien der Wissenschaften die Staats- und Regierungschefs der Welt laut und deutlich davor warnen sollen, dass die Wissenschaft überhaupt nicht settled ist. Durch ihre Nachlässigkeit machten sich die Akademien mitschuldig an der Absurdität des Paris-Abkommens.
Die Akademien der Wissenschaften sehen sich (zu Recht oder zu Unrecht) als Hüter der Wissenschaft. Wenn dem so ist, sollten sie dann nicht endlich in Aktion treten? Auf der Grundlage unreifer wissenschaftlicher Modelle wird der Welt eine absurd teure Klimapolitik aufgezwungen. Im Namen der Wissenschaft werden lebenswichtige Infrastrukturen zerstört. Schlimmer noch: Arme Menschen sterben jedes Jahr zu Millionen, weil sie sich den teuren „erneuerbaren“ Strom nicht leisten können.
Dr. A.J. (Guus) Berkhout
Emeritus Professor of Geophysics
Member, KNAW
President, Climate Intelligence Group (CLINTEL)
striche
BRIEF an den neuen Präsidenten der Royal Netherlands Academy of Arts and Sciences
Prof. Dr. Ineke Sluiter, President
Royal Netherlands Academy of Arts and Sciences (KNAW)
Trippenhuis, Kloveniersburgwal 29
1011 JV AMSTERDAM
The Hague, 10 June 2020
Sehr geehrter Herr Professor Sluiter,
als engagiertes KNAW-Mitglied habe ich vor mehr als zwei Jahren an den ehemaligen Präsidenten José van Dijck und vor mehr als einem Jahr an den ehemaligen Präsidenten Wim van Saarloos geschrieben, um meiner Besorgnis Ausdruck zu verleihen, dass die Klimawissenschaft für politische Zwecke missbraucht wird. Ich schrieb, dass Klimapolitik unter dem Vorwand gemacht wird, dass „die Wissenschaft settled ist“.
Die Antworten beider Präsidenten waren alles andere als beruhigend: „Die Frage ist sorgfältig geprüft worden. Wir haben volles Vertrauen in den IPCC. Es gibt keinen Grund für das KNAW, weitere Maßnahmen zu ergreifen“.
Warum hören wir nicht die Alarmglocken schrillen?
Ich wende mich in Ihrer Eigenschaft als neuer Präsident des KNAW an Sie, weil die Klimafrage eskaliert. Der IPCC und die damit verbundene aktivistische Klimabewegung haben sich stark politisiert. Skeptische Wissenschaftler werden zum Schweigen gebracht. Als IPCC-Experte habe ich mich kritisch mit dem letzten Entwurf des Klimaberichts auseinandergesetzt. Meine Schlussfolgerung ist, dass es kaum Anzeichen für die Absicht gibt, die objektive wissenschaftliche Wahrheit aufzudecken.
Obwohl die Weltuntergangsszenarien des IPCC bei weitem nicht der Realität entsprechen, spielen sie in der Klimapolitik der Regierung eine wichtige Rolle. Nur mutige Einzelpersonen wagen es, darauf hinzuweisen, dass die Prophezeiungen der IPCC-Computermodelle bzgl. Klima nicht eingetreten sind, da die heutigen Messungen ihnen widersprechen. Das Vertrauen des IPCC in seine eigenen Modelle entspricht nicht den Ergebnissen der realen Welt. In der Vergangenheit hätten wissenschaftliche Gesellschaften wie die unsrige Alarm geschlagen.
In Ihrem Interview mit dem Elsevier Weekblad (6. Juni 2020) sagen Sie: „Die niederländische Wissenschaft sollte stolz auf sich selbst sein“ und etwas später: „Ein Markenzeichen einer qualitativ hochwertigen Forschung muss eine große Vielfalt an Standpunkten sein – weniger Dogmen, mehr Perspektiven“. Da stimme ich Ihnen voll und ganz zu. Leider treffen Ihre Beobachtungen nicht auf die Klimawissenschaft zu. Dort wird die Vielfalt unterdrückt und das Dogma der anthropogenen globalen Erwärmung (AGW) gefördert. Aus diesem Grund schreibe ich Ihnen.
Der Glaube an Modelle ist der Glaube an Modellierer
Die Ergebnisse der Modelle sind nicht auf magische Weise korrekt, selbst wenn diese Modelle auf Supercomputern laufen. Schließlich sind Modelle das Werk von fehlbaren Menschen. Was uns Modelle sagen, hängt ganz davon ab, was die Modellierer eingegeben haben: Hypothesen, Beziehungen, Parameter, Vereinfachungen, Randbedingungen und so weiter. Leider gibt es kaum Diskussionen über die Gültigkeit dieser entscheidenden Eingaben. Alles, was diskutiert wird, ist der Output.
Infolgedessen ist das Frisieren von Modellen fälschlicherweise mit Validierung gleichgesetzt worden. Dazu sagte der berühmte Mathematiker John von Neumann: „Die nahezu perfekte Übereinstimmung zwischen Ihrem Modell und Ihren Daten sagt Ihnen nicht viel darüber aus, wie gut Ihr Modell ist. Mit vier Parametern kann ich einen Elefanten anpassen. Mit fünf kann ich seinen Rüssel wackeln lassen.“ Mit genügend abstimmbaren Parametern, verglichen mit der Datenanzahl, kann ein Modell jeden Datensatz replizieren. Genau das passiert, wenn man Klimamodelle frisiert.
Der eigentliche Test der Modelle besteht nicht darin, wie gut sie auf die Vergangenheit abgestimmt sind, sondern wie gut sie die Zukunft vorhersagen. Im Lichte dieses Tests haben die Klimamodelle versagt. Sie können noch keine zuverlässigen Vorhersagen machen. Deshalb sind sie ungeeignet für eine langfristige Politikgestaltung, insbesondere wenn, wie hier, die Politik, die der IPCC und andere auf der Grundlage dieser fehlgeschlagenen Vorhersagen vertreten, kostspielige Folgen für uns alle hat.
Im Namen der Wissenschaft
Was mich an diesem empörenden Zustand beunruhigt, ist, dass die Wissenschaft missbraucht wird, um eine falsche Rechtfertigung für eine wünschenswerte Klimapolitik zu liefern, und dass das wissenschaftliche Establishment in die andere Richtung schaut.
Warum warnen wissenschaftliche Institutionen die Gesellschaft nicht davor, dass all diese Doom-and-Gloom-Szenarien des Klimawandels wenig oder gar keine wissenschaftliche Rechtfertigung haben? Ich weiß, dass es weltweit viele Wissenschaftler gibt, die an den Behauptungen des IPCC zweifeln oder ihnen nicht zustimmen. Ich weiß auch aus eigener Erfahrung und aus der Korrespondenz mit Kollegen, dass es einen großen Druck auf die Forscher gibt, sich an das zu halten, was man uns als den Klima-„Konsens“ diktiert. Aber die Geschichte der Wissenschaft zeigt immer wieder, dass neue Erkenntnisse nicht von Anhängern, sondern von kritischen Denkern kommen. Für gültige neue Einsichten übertrumpfen Messungen Modelle.
Die KNAW als Hüterin der Wissenschaft muss jetzt endlich aktiv werden. Je mehr Regierungen im Namen der Klimawissenschaft in teure Klimapolitik investieren, desto schwieriger wird es, darauf hinzuweisen, dass die Klimawissenschaft in ihrem gegenwärtigen Zustand bei weitem nicht in der Lage ist, eine solche Politik zu rechtfertigen. Es gibt immer mehr Anzeichen dafür, dass etwas ganz und gar nicht stimmt. Wenn die Wissenschaft wartet, bis der Damm bricht, wird der Schaden für die Wissenschaft enorm sein. Die Gesellschaft wird sich dann zu Recht die Frage stellen: Warum haben die Akademien der Wissenschaften geschwiegen? Sicherlich gab es genug Warnungen von wissenschaftlichen Kritikern der offiziellen Position?
Die KNAW muss sich natürlich von der Politik fernhalten und sich auf hervorragende Qualität bei der Wahrheitsfindung konzentrieren. Aber ich wiederhole, dass die KNAW auch die Hüterin der Wissenschaft ist. Gerade in der Klimapolitik wird die Wissenschaft im globalen Maßstab missbraucht. Wie kann man bei einem so hochkomplexen Thema wie dem Erdklima plausibel sagen: „Die Wissenschaft ist settled“? Das ist keine Qualität, das ist Dummheit.
Es gab keine klare Warnung der Europäischen Akademien (EASAC) und/oder der InterAcademy Partnership (IAP), dass die Klimawissenschaften zwar viel Arbeit geleistet haben, aber noch weit davon entfernt sind, endgültige Schlussfolgerungen zu ziehen. Ich halte eine solche Warnung für eine moralische wissenschaftliche Pflicht. Schließlich stellen die Politiker, aufbauend auf dem Katastrophenmythos des IPCC, die Gesellschaft auf den Kopf und zwingen uns im Namen der Wissenschaft eine extrem teure Klimapolitik auf.
Besorgte Bürger, die kein Vertrauen mehr in die Wissenschaft haben und wissen wollen, was wirklich vor sich geht, wenden sich nun an mich. Ich fühle mich mitverantwortlich für die fehlende Kritik meiner Kollegen. Ich versuche, den wahren Stand der Dinge zu erklären.
Meine Erklärung für besorgte Bürger
Das Klima der Erde ist ein hoch komplexes System. Die Wissenschaft steht erst am Anfang einer faszinierenden Entdeckungsreise. Diejenigen, die behaupten, dass die Ergebnisse ihrer Modelle richtig sind, erzählen eine politische und keine wissenschaftliche Geschichte. Die geologischen Aufzeichnungen – ich bin Geophysiker – zeigen, dass sich das Klima auf allen Zeitskalen verändert. Lange bevor der Mensch die Erde betrat, gab es große Temperaturschwankungen. Selbst wenn das anthropogene CO2 eine erwärmende Wirkung hat – es geht eindeutig noch viel mehr vor sich. Die Klimabewegung konzentriert sich viel zu sehr auf das, was heute geschieht. Dabei blickt sie durch ein Schlüsselloch auf langfristige Klimaprozesse.
Nur wenige skeptische Wissenschaftler bestreiten, dass CO2 eine wärmende Wirkung hat. Wir wissen jedoch nicht, wie erheblich die Wirkung von CO2 im Vergleich zum Beitrag natürlicher Faktoren ist. Messungen und Forschungen der letzten Jahre zeigen, dass unser Beitrag bescheiden erscheint (in der Größenordnung von 1°C pro Jahrhundert). Dementsprechend hat die Klimakatastrophe, ob sie nun die Erwärmung selbst oder ihre Folgen wie den Anstieg des Meeresspiegels betrifft, keine wissenschaftliche Grundlage. Wissenschaftliche Institutionen kommen ihrer Pflicht nicht nach, die Gesellschaft davor zu warnen, dass Forschungsergebnisse missbraucht werden. In der Tat stellen sich Klimaaktivisten vor, dass sie bei der Lancierung ihrer extremen CO2-Reduktionsvorschläge die Unterstützung der breiteren wissenschaftlichen Gemeinschaft haben. Aber diese Vorschläge sind völlig undurchführbar und unbezahlbar.
Das IPCC sollte eine wissenschaftliche Initiative sein – ich selbst war ein starker Befürworter derselben. Es hat sich jedoch zu einer politischen Organisation entwickelt, die die Wissenschaft missbraucht. Es verbreitet Weltuntergangsszenarien über die globale Erwärmung mit der gleichen Arroganz wie der Club of Rome vor 50 Jahren.
Jetzt ist ses sogar noch viel schlimmer. Wie ich bereits sagte, beharren Klimatologen auf dem wissenschaftlichen Fehler, die Modellabstimmung mit der Validierung zu verwechseln. Das Schlimmste von allem ist, dass sich der IPCC als totalitär erwiesen hat. Er duldet keine Kritik. Kritische Beiträge werden ausnahmslos abgelehnt oder ignoriert. Das ist eine Todsünde in der Wissenschaft, nicht wahr?
Der Verfall der Klimawissenschaft
In Ihrer Antrittsrede sagten Sie, dass Wissenschaftler Fehler machen. Ich stimme Ihnen zu. Wir irren uns ständig, wenn wir Modelle bauen. Wichtiger noch: Wenn Messungen zeigen, dass diese Modelle falsch sind, sollten wir bereit sein, zuzugeben, dass unsere Annahmen falsch sind. Das ist eine Frage von grundlegender wissenschaftlicher Integrität.
Sie sagen im Elsevier Weekblad: „Als Akademiker sollte man vor staatlichen Eingriffen geschützt sein.“ Als ehemaliges Senatsmitglied meiner Alma Mater bin ich traurig, wenn ich sehe, wie viele Universitätssenate bereit zu sein scheinen, die Wissenschaft dem Willen der Regierung unterzuordnen. Dieser Mangel ist bei den von der Regierung geleiteten Klimaforschungsprogrammen und der damit verbundenen Forschung zur Energie-Transition eskaliert. Wissenschaftler, die eine skeptische Haltung einnehmen, werden ins Abseits gedrängt, ausgeschlossen oder sogar entlassen. Dennoch ist, wie Sie selbst sagen, Kritik zu üben, Teil des wissenschaftlichen Prozesses.
Ein charakteristisches Beispiel ist der Riffexperte Prof. Peter Ridd, der sich gegen das Weltuntergangsszenario wandte, dass der anthropogene Klimawandel das Große Barriere-Riff in großem Maßstab zum Absterben bringt. Er prangerte öffentlich Unzulänglichkeiten in der alarmierenden Wissenschaft über das Riff an und wurde nach jahrzehntelangem Dienst von seiner Universität entlassen. Er kämpfte gegen seinen Rücktritt und wurde vom Richter an allen Fronten bestätigt. Doch das reichte der Universität nicht aus, und mit den teuersten Anwälten legte sie Berufung ein. Dieser schamlose Rechtsstreit dauert noch immer an. Er ist nicht nur eine sehr ernste Verletzung und Bedrohung der akademischen Freiheit, sondern sendet auch ein völlig falsches Signal an junge Wissenschaftler: Wagen Sie es nicht, gegen das IPCC-Dogma zu verstoßen, denn das erwartet Sie. Und leider ist Professor Ridd nicht der einzige. In der Klimawelt werden Querdenker hart bestraft.
Conclusion
Heute kann sich das KNAW nicht mehr auf die imaginäre Glaubwürdigkeit des IPCC verlassen. Fest angestellte Professoren haben Angst, ausgeschlossen zu werden, mit der Folge, dass sie nicht mehr teilnehmen dürfen.
Es besteht eine enorme Angst, mit neuen Konzepten die Klimaeinsichten weiter zu vertiefen. In den letzten 30 Jahren haben wir in der IPCC-Gemeinschaft kaum neue Konzepte gesehen. Es geht darum, die CO2-Hypothese zu verstärken, sei diese nun richtig oder falsch.
In der Astronomie gab es eine Zeit, in der Fehler bei der Berechnung von Planetenbahnen durch Epizykel auf Epizykeln korrigiert wurden. Ein innovativer Vorschlag von Kopernikus (1473-1543) zur Verbesserung der Methode wurde streng bestraft. Und natürlich wissen wir auch, was mit Galilei (1564-1642) geschah, als er seine revolutionäre Entdeckung vorschlug. Sind wir zurück in der Zeit von Kopernikus und Galilei?
Nicht Modelle, sondern Daten sind entscheidend. Denken Sie an die spektakulären Entwicklungen im Bereich des Teleskops und des Mikroskops. Kürzlich bestätigte der Large Hadron Collider die Existenz des Higgs-Bosons. Das neue niederländische Antennennetz LOFAR hat etwa 300.000 neue Galaxien entdeckt. Je komplexer die von uns untersuchten Systeme werden, desto wichtiger wird es, in bessere Messsysteme zu investieren, um unsere theoretischen Modelle zu verfeinern und zu validieren. Das gilt für die Klimaforschung nicht weniger als für jeden anderen Bereich der Wissenschaft.
Wissenschaftlicher Fortschritt kommt immer von denen, die es wagen, sich gegen die etablierte Meinung zu stellen. Das Pariser Klimaabkommen (2015) basiert auf der Lüge, dass die Wissenschaft settled . Wie traurig ist es, dass Wissenschaftler, die sich ihm widersetzen, verurteilt werden. Wissenschaftlicher Fortschritt entsteht aus Meinungsverschiedenheiten und Diskussionen. Wir haben in der Klimaforschung eine Richtung eingeschlagen, die der Wissenschaft nicht würdig ist. Die Geschichte wird den Verantwortlichen die Schuld geben. Das Böse wird nicht von denen begangen, die sie initiieren, sondern von denen, die sie erleichtern.
Vorschlag
Autoritäre Forscher, Universitätsvorstände und wissenschaftliche Dachorganisationen sollten sich zumindest gegen Folgendes aussprechen:
Die Wissenschaft ist settled;
Der sorglose Umgang mit den heutigen Klimamodellen;
Der Ausschluss von Wissenschaftlern mit einer anderen Vision.
Darüber hinaus sollte eine offene wissenschaftliche Debatte zumindest zu den folgenden Themen organisiert werden:
die Validierung der Klimamodelle des IPCC (heute gibt es nicht einmal ein Protokoll!);
Unterschiedliche Sonneneinstrahlung und ihr Beitrag zum Klimawandel, einschließlich der Rolle der Wolken;
Variationen im Golfstrom, wie z.B. die Nordatlantische Oszillation und deren Einfluss auf den Klimawandel;
Einfluss des zunehmenden atmosphärischen CO2 auf die globale Erwärmung;
die Überprüfung der Realität der alarmierenden IPCC-Szenarien;
die Nachhaltigkeit von Biokraftstoffen, Windparks und Solarfeldern;
die Kernenergie als Energiequelle der Zukunft.
Ich schlage vor, gemeinsam mit dem KNAW ein internationales offenes Blau-Team/Rot-Team-Treffen zu organisieren, bei dem beide Teams ihre wissenschaftlichen Standpunkte* präsentieren können. Diese Diskussionen könnten der Beginn einer neuen Ära in der Klimawissenschaft sein. Audiatur et altera pars.
Ich sende eine englische Version dieses Briefes an Frau Professor Christina Moberg, Präsidentin der EASAC, und Professor Volker ter Meulen, Präsident der IAP.
Ich wünsche Ihnen viel Erfolg und Zufriedenheit in Ihrer neuen Rolle als Präsident der KNAW und freue mich auf Ihre Antwort.
Yours sincerely,
Dr. A. J. (Guus) Berkhout
Emeritus Professor of Geophysics
KNAW member, Domain Natural and Technical Sciences
* Organisationen, die die Wirksamkeit ihrer Strategie regelmäßig überprüfen, können eine intensive Praxis „blaues Team/rotes Team“ anwenden, bei der zwei Teams mit gegensätzlichen Standpunkten – z.B. „alles gut“ (blaues Team) versus „Veränderung ist notwendig“ (rotes Team) – debattieren mit dem Ziel, die Widerstandsfähigkeit der Organisation zu erhöhen. Das eine Team sind die Angreifer, das andere die Verteidiger.
In meinem Vorschlag vertritt das blaue Team die Position des IPCC und das rote Team die Position der kritischen Klimawissenschaftler. Ich stehe in regelmäßigem Kontakt mit Professor Will Happer, emeritierter Professor für Physik an der Universität Princeton und bis vor kurzem wissenschaftlicher Berater von Präsident Trump. Professor Happer hat einen solchen Ansatz in den USA vorgeschlagen. Er ist einer meiner internationalen Berater für Klimawissenschaft und -politik.
Übersetzt von Chris Frey EIKE
Lieber Herrgott, lass doch mal Hirn statt Wasser regnen
|
Seht, auch im schönen Isartal gibt es für das Klima besonders Engagierte
Der Ökoenergie-Aktivist durfte erzählen, wie grandios die Wasserstofftechnologie – woran er gerade arbeitet – unsere Energiewende retten wird, und die Freitagshüpferin ihr Wissen zum Klima:
Klimaaktivistin … (Abiturientin) im Video ab 12:00: ... irgendwann erkennt man, dass Teile nicht so gut sind. Zum Beispiel dass eine totale Dürre es ist in Italien oder dass es Waldbrände gibt und so. Und dann stellt sich auch mal die Frage: Warum? In der vierten Klasse glaube ich, gab es das Angebot von einer Umwelt-AG in der Grundschule. Und seitdem bin ich mehr oder weniger aktiv … Weiter erzählte sie von ihren Vorbildern, den Aktivisten der weltweiten, klimarettenden Baumpflanzung wie Wangari Maathai und Felix Finkbeiner … wir haben schon mehrere Milliarden Bäume gepflanzt in der ganzen Welt, so 13 Milliarden. Und deshalb haben wir die „Children`s Tree-Campaign“ ausgerufen. Weil, wir wollen eine Billionen Bäume pflanzen auf der ganzen Welt. Dann könnte man ungefähr 25 % des ganzen CO2-Ausstoßes des Menschen da kompensieren …
Dann war die Zeit zum Erzählen des Hintergrundwissens zum sich stetig wandelnden Klima vorüber, denn zu zeigen war auch, wie der ältere, gut situierte Ökoenergie-Aktivist dank seiner guten Verbindungen zur Öko-Klimaszene der Freitagshüpferin inklusive einer Gruppe Gleichgesinnter auch im fernen München das Mitthüpfen ermöglicht und wichtig, als Mentor deren Aktivismus betreut und fördert.
Seit der Grundschule nichts dazugelernt …
Was die Freitagshüpferin erzählt, lässt sich inzwischen überall erleben. In den Schulen wird konsequent zum Klima indoktriniert. Im Städtchen des Autors ist derzeit Germanwatch wieder aktiv. Das liegt jedoch nicht an Germanwatch, sondern an den Schulen, die deren Vorträge buchen.
GERMANWATCH indoktriniert in Schulen
GERMANWATCH: … An Beispielen wie dem Gletscherschwund, Häufung von Starkwetterereignissen und dem Rückgang des Arktiseises machen wir Folgen des Klimawandels sichtbar. Auch die Auswirkungen des sich global ändernden Ernährungsverhaltens oder des weltweiten Rohstoffhungers werden über Satellitenbildvergleiche erfahrbar … Die Germanwatch Klimaexpedition ist für SchülerInnen der Klassen 5 bis 13 aller Schulformen geeignet, setzt in Absprache mit den LehrerInnen Schwerpunkte und kommt bundesweit an Ihre Schule …
Diese Schulung scheint anzukommen, wie es nicht nur die Tageszeitung des Autors, sondern auch „Danksagungen“ berichten: [2] … Besonders erfreulich war es, dass es in der Veranstaltung zu den in der Schule seltenen Momenten kam, an denen Lehrer und Schüler gemeinsam staunten und lernten. Konkret heißt dass :.. sahen das erschreckende Schrumpfen eines Sees in Nordwest-Afrika; entdeckten die Abgasspuren des Flugverkehrs zwischen Paris und London; nahmen life die brennenden Urwälder in Amazonien wahr und und und …
Man kann anhand „aktueller Satellitenbilder kein Klima und schon gar nicht „eine Häufung“ von Starkwetterereignissen“ zeigen und mit historischen Daten vergleichen. Genau das wir GERMANWATCH auch nicht, weil dies zu Diskussionen Anlass gäbe. Im Vortrag wird deshalb anhand von Hurrikanen die „schlimme Auswirkung“ gezeigt, aber bewusst nicht, dass solche seit dem Klimawandel abnehmen (müssen, weil die erzeugenden Temperaturgegensätze abnehmen):
Perfide, nein, rein demagogisch die Darstellung: … sahen das erschreckende Schrumpfen eines Sees in Nordwest-Afrika … Dabei kann es sich nur um den Tschad-See handeln. Der wächst und schrumpft regelmäßig, seit 6.000 Jahren geradezu extrem:
EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin? ... trocknen die nordafrikanischen Seen seit ca. 6.000 Jahren kontinuierlich aus. Der Tschad-See ist dafür sogar das Extrembeispiel, denn er war einstmals vielleicht der größte Süßwassersee der Erde …
Zur Zeit schrumpft er wieder, obwohl der Niederschlag dort zunimmt.
Jedoch nicht wegen des Klimas, was GERMANWATCH den Schülern aber nicht sagen will, denn dann müsste es wirkliche Probleme ansprechen. Und Probleme mit Wirklichkeitsbezug sind inzwischen doch meistens rassistisch, und wenn es das nicht wäre, immer noch rääächts – für „bunte“ Schulen also nicht vorhanden, geschweige zu diskutieren: … von 1983 – 1994 stieg die Getreideproduktion im Tschad von ca. 0,5 Mio. Tonnen auf ca. 1 Mio. Tonnen, also gerad einmal um 0,5 Mio. Tonnen, allerdings waren das damals +100 %. Die Landwirtschaft soll damals dadurch 50 % Anteil an der Austrocknung, genauer: Reduzierung des Seevolumens, durch Wasserentnahme beigetragen haben.
Von 1994 bis 2015 stieg die Getreideproduktion von ca. 1 Mio. Tonnen auf ca. 3 Mio. Tonnen, also um +2 Mio. Tonnen, oder gegenüber dem Zeitraum davor (Startwert: 0,5 Mio. t) um + 500 %.
Wenn +0,5 Mio. Tonnen schon eine anteilige Volumenreduzierung des Tschad-Sees von 50 % verursacht haben, kann man ahnen, was weitere +2 Mio. Tonnen, beziehungsweise weitere +400 % (von 1 Mio. t gerechnet) für einen Einfluss haben müssen. Da kann das CO2, welches zu mehr Grün und mehr Niederschlag führt, nicht mehr „gegenhalten“ …
Öffentliche Institute wie das PIK, indoktrinieren nicht nur Schüler*innen
„Lehrkörper“, welche es für ihre Schüler*innen zur besseren „Erbauung“ eher „hardcore“ mögen, schicken diese zu einem Vortrag des PIK.
Herr Professor Rahmstorf vom PIK lässt es sich nicht nehmen, mit seinen Thesen zu indoktrinieren. Daran nehmen dann auch Schulklassen teil. Eine Klasse muss die Teilnahme so aufgewühlt und durcheinander gebracht haben, dass sie im Bericht darüber das Jahr verwechselte:
Helene Lang Gymnasium Fürth: VORTRÄGE ZUM KLIMAWANDEL Am Mittwoch, den 13. November 2020, besuchte eine Gruppe interessierter Schülerinnen und Schüler aus der Q11 den Vortrag „Menschheit in der Klimakrise – Die wichtigsten Daten und Fakten“ von Prof. Dr. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung an der FAU Erlangen.
Der sehenswerte Vortrag wurde aufgezeichnet und ist online unter https://www.video.uni-erlangen.de/clip/id/12240 abrufbar.
Herr Rahmstorf legt in seinem Vortrag nicht im Entferntesten Wert auf eine neutrale Klimadarstellung. Ohne mit der Wimper zu zucken, betreibt er reinste Klimahysterie. Das gelingt, weil er gekonnt alles, was seine Thesen in Zweifel stellen könnte, einfach weglässt. Eine neutrale Darstellung würde vollkommen anders aussehen (müssen). Seine Zuhörer sind damit aber zufrieden und glauben es, denn sie kennen es ja nicht anders.
Beispiele:
Temperaturverlauf seit der letzten Eiszeit:
Dieses Bild sieht in Proxidarstellung allerdings vollkommen anders aus. Bei diesem käme jedoch niemand auf die Idee, eine Erdüberhitzung zu vermuten.
Obwohl er genau weiß, dass es nicht stimmt, stellt er es so dar, als wären alle aktuellen Extreme „Klimawandel-bedingte“ Ereignisse und auch ein Beleg dafür. So seine Darstellung zum Buschfeuer in Australien:
Keine Erwähnung, dass Buschfeuer abnehmen und vorwiegend aus ganz anderen – allerdings auch von Menschen gemachten – Gründen wüten:
EIKE 17. Januar 2020: Buschbrände in Australien: Folgen grüner Politik EPOCH TIMES 14. Januar 2020:Australischer Feuerwehrverband: Der Klimawandel ist nicht an der Brandkatastrophe schuld EIKE 15. Januar 2020:Australische Buschfeuer: Wenn der Faktencheck von Klimafakten.de einen Faktencheck braucht
Daraus eine Grafik:
Und eine Grafik zu Buschfeuern in den USA:
Extremniederschlag:
Herr Rahmstorf bezieht sich bei dieser Grafik auf eine Studie des PIK:
Lehmann et al. 2015: climate change; Pressemitteilung: … Eine statistische Analyse von Regendaten aus den Jahren 1901-2010, gewonnen aus Tausenden von Wetterstationen weltweit, zeigt für den Zeitraum seit 1980 einen Anstieg solcher Rekord-Regen-Ereignisse um 12 Prozent verglichen mit einem Szenario ohne Klimawandel … (wegen dem Zeitraum bitte Bild 41 beachten, es ist nicht zufällig ein für Niederschlagtrends viel zu kurzer Zeitabschnitt gewählt)).
Leider ist die Studie bezahlpflichtig, obwohl die Bürger sie mit ziemlicher Sicherheit über ihre Steuer bereits bezahlt haben. Bestimmt, damit nicht gleich jeder kritische Bürger einfach nachsehen kann, wie die Autoren auf Ihre Aussagen gekommen sind.
Das muss nämlich interessant sein, denn die Aussage widerspricht dem „offiziellen Wissen“ und Daten darüber. Wer sich Studien zu Niederschlag und Starkregen ansieht, liest darin unisono, wie schlecht die Datenlagen sind, weshalb genaue Aussagen, gar zu signifikanten Trendbestimmungen, oft gar nicht erfolgen können. In einem Artikel ist es anhand von Ereignissen in Deutschland mit vielen Grafiken gezeigt:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch? Daraus eine Grafik, wie sich Starkregen über mehr als 100 Jahre mit vielen, vermeintlichen Kurzfristtrends und Einzelereignissen verteilt, ohne jedoch einen Langfristtrend auszuweisen.
Und die Verteilung von Gebieten mit Niederschlags-Abnahme/Zunahme in „Großeuropa“.
Aber auch „offizielle“ Stellen können keine Zunahme berichten.
Für Deutschland sagt der Klima-Monitoringbericht 2019: Starkregen im Siedlungsbereich: Ein Trend ist nicht ermittelbar
Historische Aufzeichnungen berichten, dass es früher viel stärkere Extremniederschläge gab:
Im folgenden Bild sind der Hochwasser-Pegelverlauf des Main bei Würzburg und die Temperatur dargestellt. Überdeutlich sieht man, dass höhere Hochwasser kühleren Temperaturen folgten und mit der aktuell wärmeren ein drastischer Rückgang stattfand:
Prof. Rahmstorf ist sich auch nicht zu schade, zur „Verstärkung“ eine glatte Lüge zu erzählen und das Flutereignis von Braunsbach dem Klimawandel zuzuschieben:
Rahmstorf: … wir haben also eine Zunahme von Rekordniederschlägen. Das sind dann solche Ereignisse wie 2016 in Braunsbach …
Die Flutereignisse Braunsbach und Simbach lassen sich parallel aus vergleichbaren Ursachen ableiten: Eindeutiges, menschliches (hier Behörden) Versagen. Wie weit der Mensch – aber nicht das CO2 – an den Fluten von Braunsbach (und parallel Simbach) direkt schuld war, kann man im Detail nachlesen: EIKE 6. Juni 2016: Hintergründe der Unwetter in Süddeutschland. Vergleich von Braunsbach und Niederalfingen … Der plötzliche Starkregen hat nun die drei kleinen Bächlein vor Braunsbach, insbesondere die Orlach, stark anschwellen lassen, die mitgerissenen Steine vom Abhang und die Holzstämme haben den Eingang zur Dole zugeschüttet und der Braunsbach nahm seinen alten Weg durch den Ort, wie er vor der Verdohlung geflossen ist, nur stehen da heute eben Häuser, Straßen und Autos. Der einstige Bachverlauf mit Überschwemmungszone ist bebaut, aber die Wassermassen finden wegen der erhalten gebliebenen Geländeform natürlich den alten Weg zum einstigen Bachbett hin …
Bei Braunsbach kam nun noch dazu, dass das Hochwasser nicht langsam angestiegen ist im Ort, sondern plötzlich donnernd daherkam, was auf den Bruch eines im Oberlauf gebrochenen Erddammes oder mehrerer kleiner Rückhaltedämme hinweist
Nochmals Information zu beiden Vorgängen: [6] EIKE 31.01.2018: Endlosschleife Klimaangst EIKE 24.01.2017:Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels und Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus … Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.
Anbei das Niederschlagsbild der Simbach am nächsten gelegenen Wetterstation in Tagesauflösung: Der Niederschlag war kein „Jahrtausendereignis“, wie es ein Professor der TU München dem Bayerische Landtag in einem Gefälligkeitsgutachten bescheinigte, damit kein Betroffener für das eklatante Behördenversagen Regress stellen kann … Die (nicht vorhandene) Opposition wagte nicht, dagegen anzugehen, denn genau das ist ja auch ihr ureigenes Narrativ. Das darf man – so schlimm es für die Betroffenen ist – natürlich nicht in Frage stellen.
Immer wichtig ist natürlich, was der allwissende IPCC sagt: Überflutungen IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.” Übersetzung: Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“
Hagel und Gewitter IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.” Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“
In einem Vortrag zum Klimawandel darf der Meerespegel nie fehlen. So hält es auch Prof. Rahmstorf, zeigt (unter anderem) das folgende Bild und sagt: … und dadurch rutscht das Kontinentaleis schneller ins Meer … und mehrere Studien haben auch gezeigt, dass wahrscheinlich jener Kipppunkt bereits überschritten ist, so dass ein kompletter Verlust des Westantarktischen Eisschildes einprogrammiert ist … der würde dann 3 m globalen Meerespegelanstieg bringen …
Das Pegel-Verlaufsbild sieht wahrlich bedrohlich aus. Aber nur, wenn man andere Angaben dazu und die wirklichen Verläufe nicht kennt. Wird der Pegel im Bild um ca. 7.000 Jahre zurück verlängert und mit Proxidaten „gefüllt“, „verfällt“ der Alarm vollkommen:
Was sagt eigentlich der IPCC in seinem letzten großen Sachstandsbericht AR5 dazu? Er ist sich nicht schlüssig, was er sagen soll. Einmal zeigt der Bericht, dass die Tidenpegel-Anstiegsrate mit max. 1,5 mm/pa vollkommen unspektakulär ist:
Und zeigt er ein Projektionsbild zum Jahr 2100, in dem der Pegel bis dahin im „Standardszenario“ RCP2.5 lediglich zwischen 10 … 18 cm ansteigt:
Bild: The heat uptake is diagnosed by two different methods. The thick solid lines, and the coloured ranges for RCP2.6 and RCP8.5, are the time- and global integral of the net downward radiative flx perturbation at the top of the atmosphere, from the 21 AOGCMs used to make the global mean sea level projections (in some cases estimated from other scenarios, as described in the Supplementary Material). The broken solid lines, and the thin solid lines delimiting ranges for RCP2.6 and RCP8.5, are the global volume integral of ocean temperature change, in a smaller and different set of AOGCMs for each scenario. The difference between the two diagnoses is due partly to the different sets of models (which is a consequence of diagnostics available in the CMIP5 data set), and partly to heat uptake in other parts of the simulated climate system than the ocean water. In both methods, climate drift in the pre-industrial control run has been subtracted.
Erst weiter „hinten“ im Kapitel zeigt er andere Projektionen, ergänzt dazu aber, dass diese Projektionen schon heute einen zu hohen Pegelanstieg ausweisen: 13.5.1 Process-Based Projections for the 21st Century … In all scenarios, the rate of rise at the start of the RCP projections (2007–2013) is about 3.7 mm yr–1, slightly above the observational range of 3.2 [2.8 to 3.6] mm yr–1 for 1993–2010, because the modelled contributions for recent years, although consistent with observations for 1993–2010 (Section 13.3), are all in the upper part of the observational ranges, perhaps related to the simulated rate of climatic warming being greater than has been observed (Box 9.2). Wie man dann darauf kommt, dass sie den für 2100 dann richtig “wüssten“, kann nur ein Klimaalarmist erklären.
Man braucht es wohl nicht erwähnen, welches Szenario Prof. Rahmstorf in seinem Vortrag zeigt (Bild 26): Das Extremstszenari RCP8.5
Gekonnt spielt er auch mit Farben:
Da muss man ihn allerdings „entschuldigen“. Das macht man beim Klimawandel allgemein, um dem Bürger vorzugaukeln, was „schlimme“ Temperaturen sind:
Rahmstorf vergisst nichts, was seinen Klimaalarmismus „unterstützt“, so auch nicht den heißen Sommer 2003 mit den vielen „Hitzetoten“:
Er vergisst nur den Vergleich, was dies bezüglich Klimamortalität wirklich bedeutet, nämlich nichts. Und er vergisst auch, dass viel, viel mehr Personen an der Winterkälte (die abnimmt) sterben und dass gegen die „Hitzemortalität“ mit recht wenig Aufwand viel getan werden könnte:
Zum Abschluss verkündet er seine Message als Wiederholung seiner Basisstatements:
Klar, dass auch rein gar nichts über die vielen positiven Auswirkungen des sich stetig wandelnden Klima gezeigt wird. Nicht, dass die Wetter-Extreme abnehmen (müssen, da die Temperaturunterschiede geringer werden) und nicht, dass alleine dadurch derzeit trotz der Bevölkerungsexplosion nicht die oft vorhergesagten Hungersnöte herrschen.
Solch einen Tendenzvortrag, der nicht einmal einen Anflug von Seriosität oder neutraler Informationsvermittlung ausweist, hören sich der Erlanger Bürgermeister an und Schuldirektionen muten ihn ihren Schüler*innen zu.
Laut der Schulinformation fanden die Schüler*innen den Vortrag sehenswert. Wer nichts weiß, findet eben alles, was über seinen Horizont hinausgeht, „sehenswert“. Mehr lässt sich daraus kaum ableiten.
Die Freitagshüpferin
Der Vorspann war erforderlich, um zu zeigen, welche konsequente (Des-)“Information“ Schüler*innen zum sich stetig wandelnden Klima ab der Grundschule erhalten. Die Ökokirche weiß, dass in diesem Alter „Gelerntes“ ganz zäh bis ins hohe Alter „hängen“ bleibt. Schon die Kirchen nutzen das Indoktrinieren von Kindern seit 2.000 Jahren konsequent aus.
Entsprechend antwortet auch die Freitagshüpferin aus dem Isartal dem BR. Obwohl diese sicher etwas Zeit für die Beantwortung hatte, viel ihr nicht mehr ein als: ... irgendwann erkennt man, dass Teile nicht so gut sind. Zum Beispiel dass eine totale Dürre es ist in Italien oder dass es Waldbrände gibt und so. Und dann stellt sich auch mal die Frage warum. In der vierten Klasse glaube ich, gab es das Angebot von einer Umwelt-AG in der Grundschule. Und seitdem bin ich mehr oder weniger aktiv … Ergänzt um die NGOs, welche zur Rettung des Klimas Bäume pflanzen.
Dem BR-Team hat es gefallen und fanden es ausreichend wertig und informativ zum Senden. Der Autor findet es ausreichend, um die völlige Unwissenheit zum Thema Klima und seinem stetigen Wandel zu erkennen.
Eine bei den Freitagshüpfern nicht lokal begrenzte Erscheinung. Eher meint man zu ahnen, dass diese Vereinigung ganz andere Ziele verfolgt und das Klima dafür nur als Vorwand dient:
Wobei SPD-Frau Esken ja überzeugt ist, dass wer das nicht ist, nur rääächts sein kann:
Das bisschen an Aussage der Freitagshüpferin anbei trotzdem noch kurz „durchleuchtet“: … Zum Beispiel dass eine totale Dürre es ist in Italien Zu Italien finden sich Studien und Untersuchungen zu Dürre und Niederschlag. Es sei zugegeben, dass die Aussagen stark bis sehr stark differieren. Dies liegt unter anderem wohl auch daran, dass die Datenlage recht schlecht ist. Trotzdem der Versuch einer Darstellung.
Die folgenden Bilder zeigen den Prozentanteil an Fläche von Italien mit extremer Dürre im Januar seit 1951 für den Zeitraum 3; 6; 12 und 24 Monate. Für alle Zeiträume nehmen die extrem von Dürre betroffenen Flächenanteile ab.
Noch Grafiken aus einer anderen Studie zu Dürren in Italien:
Was sich daraus ableiten lässt, steht ebenfalls in dieser Studie: eine nicht signifikante Niederschlags-Verringerung wäre erkennbar:
[10] … Prezipitation trend analysis showed a decreasing tendency, even if the decreases are very low and rarely significant …
Precipitation trend analysis showed a decreasing tendency, even if the decreases are very low and rarely significant. Considering the average all over Italy, there is a 5% decrease per century in the annual precipitation amount, Precipitation trend analysis showed a decreasing tendency, even if the decreases are very low and rarely significant. Considering the average all over Italy, there is a 5% decrease per century in the annual precipitation amount, Precipitation trend analysis showed a decreasing tendency, even if the decreases are very low and rarely significant. Considering the average all over Italy, there is a 5% decrease per century in the annual precipitation amount
Das folgende Bild zeigt die Niederschlagstrends über Europa und darüber hinaus. In Italien finden sich zu jedem Trend Gegenden. Eine „totale Dürre“ als Trend findet sich jedoch in keinem der Bilder.
Aus einer anderen Studie weltweit die Dürreflächen seit 1951. Auch darin lässt sich mit Sicherheit kein vorhandener Trend zu mehr Dürren ableiten.
Zur Argumentation „ … dass es Waldbrände gibt und so … “ wurde bereits ausreichend informiert.
Bleiben noch die eine Billionen Bäume, welche 25 % des Klimas retten können …
Eine Billionen Bäume sind nach ganz aktueller „Zählung“ ca. ein Drittel des aktuellen, weltweiten Baumbestandes. Es wird Gründe haben, weshalb an vielen Stellen keine Bäume stehen. Aber gut, um das Klima zu retten, muss man eben Besonderes leisten …
Nur: Bäume sind im Wesentlichen klimaneutral. Sie geben mit ihrem „Tod“ das gespeicherte CO2 wieder in die Atmosphäre zurück. Wer nur deshalb Bäume pflanzt, verschiebt das (angebliche) CO2-Poblem also nur auf spätere Generationen.
Niederschlagstrends sind immer interessant, deshalb noch einer von Indien.
Der Hamburger Bildungsserver sagt dazu: Indien … Weizen und Reis sind die beiden wichtigsten Anbaufrüchte in Indien. Dürren stellen zunehmend eine der größten Bedrohungen für die indische Landwirtschaft dar …
Eine aktuelle Studie der Indischen Regierung [11]. Darin herrlich dargestellt, wie man einen Dürretrend „konstruiert“, indem man aus einer Zyklik den passenden Zeitbereich herausschneidet. In Wirklichkeit liegt der Dürreanteil wenig höher als zu Beginn der Messreihen-Auswertung. Im Report wird aber nur auf den Dürretrend ab 1951 eingegangen.
Man soll eine Freitagshüpferin im Alter kurz vor dem Abitur nicht zu sehr „rannehmen“. In dem Alter glaubt man Erwachsenen noch, was sie sagen. Für eigene Recherchen hat man da noch wenig Zeit, vor allem, wenn man auch noch weit fahren muss, um für das, was man meint zu wissen, zu demonstrieren.
Leider wachsen viele Erwachsene zwar körperlich aus diesem Alter heraus, jedoch nicht geistig. Die Redaktion der lokalen Tageszeitung des Autors hat vermittelt, dass sie den Aussagen der Klimawissenschaftler fest glaubt und deshalb keinen Wert auf (Er-)Kenntnisse von Laien legt.
Wie sollen bei solchen Vorbildern heutige Schüler*innen geistig (heran)wachsen?
Quellen
[1] BR24 22.06.2020: Vom Leben im Isartal einst und jetzt
[3] EIKE 24. November 2018: Kalifornische Buschfeuer. Neil Young (Popsänger) rechnet mit Trump ab. Alternativ: Wie viel (Un-)Wissen haben Klimasachverständige
[4] EIKE 18. April 2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
[5] EIKE 04.07.2020:Ist die aktuelle Meerespegeländerung im Vergleich mit historischen Zeiten einzigartig?
[7] Tommaso Caloiero at al. 7. August 2018: Drought Analysis in Europe and in the Mediterranean Basin Using the Standardized Precipitation Index
[8] JonathanSpinoni at al. 22, April 2019: A new global database of meteorological drought events from 1951 to 2016
[9] Rudolf Brázdil at al. 2018: Documentary data and the study of past droughts: a global state of the art
[10] Michele Brunetti at al. March 2006: Temperature and precipitation variability in Italy in the last two centuries from homogenised instrumental time series
[11] A Report of the Ministry of Earth Sciences (MoES), Government of India: Assessment of Climate Change over the Indian Region
In Deutschland sind gerade 342 Milliarden Euro verpufft. Sie wurden in die „Energieeffizienz“ von Gebäuden investiert, und der Energieverbrauch ist nicht im geringsten zurückgegangen. Privatleute, Vermieter und Wohnungs-Unternehmen haben mit viel staatlichem Subventionsgeld neue Heizungen und neue Fenster eingebaut und die Fassaden auf Teufel komm raus gedämmt – jedoch außer Spesen nichts gewesen. Seit 2010 flossen mehr als 342 Milliarden Euro in energetische Modernisierungsmaßnahmen von Wohngebäuden in Deutschland.
Und das Resultat?
2010 verbrauchten die Haushalte im Schnitt 130 Kilowattstunden pro Jahr und pro Quadratmeter für den Raumwärmeverbrauch. Acht Jahre später waren es immer noch 130 Kilowattstunden für denselben Zeitrahmen.
Trotz globaler Erwärmung verbrauchen deutsche Haushalte mehr Energie zum Heizen denn je. „Der seit 2015 steigende Bedarf ist ein alarmierendes Signal – vor allem für den Klimaschutz“ sagt der DIW Berlin und bietet auch gleich eine Lösung an: mehr vom Selben. „Anstrengungen bei der energetischen Gebäudesanierung müssen politisch stärker gefördert werden“.
Die Klimaziele der Bundesregierung sind angesichts dieser erschreckenden Verpuffung fast eines ganzen Bundeshaushalts nicht mehr erreichbar. Bis 2030 sollte der CO2-Ausstoß von Gebäuden um 40% sinken, bis 2050 sollte der gesamte Gebäudebestand klimaneutral sein. Pustekuchen stellt GDW-Präsident Axel Gedaschko ernüchtert fest: „Es werden Milliarden investiert und es tut sich überhaupt nichts“.
Anpappen leicht brennbarer Dämmplatten
Schuld an der Misere sind die widerspenstigen Bürger, die einfach die Heizung höher drehen. „Statt 20 Grad im Wohnzimmer herrschen nun 22 Grad“. Am schlimmsten heizen dabei die Wessis ein. Der Energiebedarf pro Quadratmeter im Westen liegt um 7% höher als in den neuen Bundesländern. Das Saarland hält den Heizrekord. Nur in Meckpomm friert man weiter brav fürs Klima vor sich hin.
Wer das aber unreflektiert behauptet, tut den vermeintlich verpimpelten Vielheizern herzlich unrecht. Manche neue Heizung bringt nämlich nicht die versprochene Einsparung. Das Anpappen leicht brennbarer Dämmplatten auf die Fassaden ist manchmal kontraproduktiv, weil sie auf der Südseite das Aufwärmen des Mauerwerks durch Sonneneinstrahlung verhindern. Von Schimmelbildung gar nicht zu reden.
Die vielen Modernisierungsmilliarden wurden sprichwörtlich durch den Schornstein gejagt. Jeder deutsche Steuerzahler hat zusätzlich zu den vielen Energiewendeeiskugeln nochmal 6.000 Euro dafür abgedrückt, dass am Ende gar nichts dabei herauskommt. Jetzt bleibt wohl nur zu hoffen, dass die Erderwärmung das Problem der energetischen Gebäudesanierung löst und die Bürger weniger heizen.
Bundeswirtschaftsminister Peter Altmaier sagte freudig erregt anlässlich des Gesetzes zur Einführung einer steuerlichen Förderung energetischer Gebäudesanierung zum Thema: „Das ist ein guter Tag für den Klimaschutz im Gebäudesektor. Ich habe mich seit langem für die steuerliche Förderung der Gebäudesanierung stark gemacht und freue mich, dass wir dieses wichtige Vorhaben heute gemeinsam auf den Weg bringen konnten. Steuerliche Anreize sind im Gebäudebestand ein zentrales Instrument und gut sowohl für den Klimaschutz wie auch für das Handwerk und Arbeitsplätze vor Ort.“
Tja Peterchen, und jetzt sind die 342 Milliarden eben irgendwie verpufft, ohne dem Klimaschutz geholfen zu haben. Da hilft wohl nur, noch mehr Geld in den selben Strudel zu schippen. Und wie passt eigentlich die Mietpreisdeckelung zur energetischen Gebäudesanierung? Solche Konzepte kenne ich als ehemaliger DDR-Bürger noch. Früher hieß das: „Ruinen schaffen, ohne Waffen“.
Führender Klimaaktivist entschuldigt sich für Panikmache II
|
»Im Namen der Umweltschützer in aller Welt möchte ich mich formell für die Klimaangst entschuldigen, die wir in den letzten 30 Jahren geschaffen haben.«
Kein Witz, sondern bemerkenswerte Worte eines einstigen führenden Propagandisten des menschengemachten Klimawandels. »Der Klimawandel findet statt«, twittert er. »Er ist nur nicht das Ende der Welt. Es ist nicht einmal unser ernstestes Umweltproblem.«
Michael Shellenberger, der Ex-Alarmist, der »Held der Umwelt«, der vor der UN auftrat, einst radikaler Klimaaktivist, gibt sich geläutert. »Es mag seltsam erscheinen, wenn ich das sage. Ich bin seit 20 Jahren ein Klimaaktivist und seit 30 Jahren ein Umweltschützer.«
Sein lesenswerter Beitrag »On behalf of Environmentalists I apologize for the Climate Score« auf FORBES wurde binnen kurzer Zeit tausendfach auf Social Media verbreitet. Dieser Beitrag findet sich nun bei Quillette und hier, nachdem FORBES den Artikel nach zwei Tagen wieder offline genommen hatte. Shellenberger selbst bezeichnet diesen Schritt als »Censored«.
Screenshot: Forbes.com
»Bis zum letzten Jahr habe ich es weitgehend vermieden, mich gegen die Klimaangst auszusprechen«, sagt er. »Zum Teil liegt das daran, dass es mir peinlich war. Schliesslich bin ich genauso schuldig der Panikmache wie jeder andere Umweltschützer. Jahrelang habe ich den Klimawandel als eine ‚existentielle‘ Bedrohung der menschlichen Zivilisation bezeichnet und ihn als ‚Krise‘ bezeichnet«.
»Ich hatte Angst.« Er fürchtete, seine Freunde und vor allem seine Finanzierung zu verlieren. Doch er bemerkte die drastischen Auswirkungen der Klimapanik auf Kinder und Jugendliche.
»Ein großer Teil davon ist sicherlich meine Besorgnis darüber, dass die psychische Gesundheit von Jugendlichen durch diese apokalyptische Panikmache beeinträchtigt wird, aber sie schadet auch anderen Dingen«, sagte Shellenberger, der selbst zwei Kinder hat und im politisch dunkelgrünen Berkeley, Kalifornien, lebt.
Die Klimabewegung sei »offensichtlich gegen Atomkraft, auch wenn Atomkraft die einzige Möglichkeit ist, die Emissionen deutlich zu reduzieren«, sagte er. »Und sie wird benutzt, um arme Länder um fossile Brennstoffe und – offen gesagt – um Wasserkraft und Atomkraft zu bringen, weil sie von dieser malthusianischen Agenda ausgeht, die besagt, dass es zu viele Menschen auf der Welt gibt und jeder massiv ärmer werden muss«.
Nachdem Malthus »tot« war, musste eine andere Paniksau durch die Welt getrieben werden. Ein äußerst lukratives Geschäft. Shellenberger weist auf die enormen finanziellen Mittel der Klimaaktivisten hin: Die beiden größten grünen Gruppen, der national Resources Defense Council und der environmental Defense Fund, verfügen zusammen über ein Jahresbudget von 384 Millionen Dollar und stellen damit das Budget der beiden größten Skeptikergruppen – des Competitive Enterprise Institute und des Heartland Institute – in den Schatten, die beide zusammen nur etwa 13 Millionen Dollar Etat hätten.Er beschuldigt in seinem Buch »Apocalypse Never – Warum Umweltalarm uns alle schadet« Klimaaktivisten, die Öffentlichkeit in die Irre zu führen, und erklärt ausdrücklich, dass politische Lösungen wie die »grüne Energie« die Sache noch schlimmer machen.
»Ich behaupte sogar, dass erneuerbare Energien schlimmer sind als fossile Brennstoffe«, sagte Shellenberger gegenüber der Washington Times. Im Gegensatz zu deutschen Grünen ist ihm der Begriff »Energiedichte« bekannt; die sogenannten »Erneuerbaren« liefern deutlich zu wenig Energie, und das bedeutet: »Mehr Land, mehr Materialien, mehr Bergbau, mehr Metalle, mehr Abfall. Dies wird in der wissenschaftlichen Literatur sehr gut erklärt«.
Die ungeheuren Umweltschäden und der Landverbrauch, die Michael Moore vor kurzem in seinem neuesten Film drastisch gezeigt hat, geraten auch in Shellenbergers Blickfeld: »Solar- und Windenergie beanspruchen riesige Mengen an Land und vernichten Vogel- und Wildtierarten. Biomasse bedeutet im Wesentlichen die Verbrennung von Holz und anderen Pflanzen, die Wälder zerstören und Kohlenstoffemissionen erzeugen.«
ES SOLL NUR EINE MEINUNG GEBEN
»Umweltschützer« auf den Barrikaden wegen Michael Moores kritischer Öko-Dokumentation
Shellenbergers Erkenntnis: »Die Beweise sind überwältigend, dass unsere Hochenergie-Zivilisation besser für Mensch und Natur ist als die Niedrigenergie-Zivilisation, zu der uns die Klima-Alarmisten zurückbringen würden.«
Die Wirtschaftszeitung Forbes warf Shellenbergers Kolumne zu seinem neuen Buch heraus, weil sie »nicht den redaktionellen Richtlinien des Magazins« entspräche. Doch eine bessere Werbung hätte sich Shellenberger nicht wünschen können. Andere Webseiten veröffentlichten den Text, bei Amazon kletterte das Buch in die Bestseller-Ränge.
Bricht jetzt die Front der Klimapanikverbreiter endgültig zusammen? Der nächste Fall eines Klima-Häretikers. Schon eine ehemalige englische Alarmistin bekannte sich gerade zur Nutzung der Atomkraft – allerdings mit dem Argument, einer drohenden CO2- Katastrophe zu entgehen. Gut, da muss sie noch ein wenig an der Erkenntnisschärfe arbeiten.
NEUE LOBBYISTIN FÜR KERNENERGIE
Vom Weltuntergang zur Atomkraft
Sorgfältig über all die Jahre aufgebaute Panikmeldungen über Klimaeerwärmung mit steigenden Meeresspiegeln sowie Angst und Schrecken vor dem jüngsten Tag brechen immer öfter zusammen. Was wird bald der Spiegel sagen, der mit dem Bild vom in den Meeresfluten untergehenden Kölner Dom das Thema »Klimaerwärmung« in Deutschland hoffähig machte? Ein anderer amerikanischer Film zeichnete dagegen die Visionen einer neuen Eiszeit mit einem unter Schneebergen und in Eiszapfen erstickenden arktischen New York. Wann bekennt dessen Regisseur: Irrtum, so sorry?
Wann kommen aus Potsdam die ersten Entschuldigungsrufe? Dort sitzen bekanntlich in prächtigen Räumen im Potsdam-Institut für Klimafolgenforschung Deutschlands oberste Klimaalarmisten (Wetterexperte Kachelmann: »potsdämlich«) und leben glänzend von Alarmrufen. Etwa: »… möchten wir uns formell für die Klimaangst entschuldigen, die wir all die Jahre verbreitet haben.«
»Ach, macht doch nix«, könnten wir zurufen. »Kann passieren. Jeder kann sich mal irren.«
Es dauert bekanntlich in der Regel ein paar Jahre, bis neue Trends aus den USA in Deutschland ankommen. Bei der neuen Akzeptanz der Kernkraft wird es vermutlich schwieriger. Die neuesten Wendungen amerikanischer Ex-Hardcore-Umweltschützer kommen hierzulande zu spät. Grüne und CDU sprengen bereits wie verbrannte Erde hinterlassende Pioniere voll funktionsfähige Kernkraftwerke in die Luft – wie in Philippsburg in Baden-Württemberg und reissen sie ein.
Natürlich wird sie nicht von Fachleuten geleitet, sondern von Politikern. Vorsitzender ist Stefan Studt (Jurist), „Managing Director“ Steffen Kanitz (Dipl. Kaufmann).
Der von dieser Behörde vorgestellte Zeitplan, von dem natürlich niemand annimmt, dass er eingehalten wird, sieht so aus: Bis 2031 hat man einen Standort gefunden, und ab 2050 kann eingelagert werden. Ähnliche Zeitpläne hatte man beim Bau der gotischen Kathedralen. Auch diese dienten keinem praktischen Bedürfnis, sondern wurden rein aus Gründen des Glaubens errichtet. Allerdings müssen auch Nichtchristen zugeben: Die Ergebnisse können sich sehen lassen. Das wird beim Endlager nicht der Fall sein.
Neben der Politik soll es eine umfangreiche Beteiligung der Öffentlichkeit geben. Man wird wohl auf die entsprechenden Forderungen des BUND eingehen: „Es braucht für einen Verständigungsprozess tatsächliche Mitbestimmung im Sinne von klar definierten Mitentscheidungsbefugnissen der Betroffenen, die deutlich über eine Konsultation hinausgeht. Umweltverbände und Anti-Atom-Initiativen müssen finanziell so ausgestattet werden, dass sie Anwält*innen und Gutachter*innen in den Begleitprozessen finanzieren können (Gleiche Augenhöhe).“
Alle an der Endlagersuche Beteiligten, oder solche, die sich beteiligen möchten, streiten ab, rein einem Glauben zu dienen. Nein, im Gegenteil, sagen sie, alles soll nach wissenschaftlichen Kriterien entschieden werden.
Aber welche wissenschaftlichen Gründe könnte es geben, das bereits vorhandene Bergwerk Gorleben abzulehnen und einen anderen Standort zu suchen? Medizinische? Höhere Sicherheit vor Strahlen, weniger Krankheiten und Todesfälle? Da müsste man erst einmal zu einer rationalen, wirklich wissenschaftlichen Beurteilung biologischer Strahlenwirkungen kommen.
Leider gibt es ein Spektrum von Meinungen, und in der Öffentlichkeit liebt man die schrecklichsten Szenarien.
Hier eine Liste der Grundauffassungen. Alle werden von Leuten vertreten, denen man nicht absprechen kann, Wissenschaftler zu sein. Die Mehrzahl hat den Doktortitel, viele sind Professoren.
Grüne
Ionisierende Strahlung gehört zu den gefährlichsten Einwirkungen auf Mensch und Natur. Schon die natürliche Hintergrundstrahlung verursacht epidemiologisch nachweisbare Gesundheitsschäden. Zeitschrift „Strahlentelex“: „Krebserkrankungen und Säuglings-sterblichkeit nehmen auch mit der Höhe der natürlichen Hintergrundstrahlung zu. Dabei beobachteten Dr. Alfred Körblein und Prof. Dr. Wolfgang Hoffmann in Bayern ein fünffach höheres Krebsrisiko, als von der internationalen Strahlenschutzkommission (ICRP) geschätzt.“
Daher ist es verantwortungslos, kerntechnische Anlagen zu betreiben, welche dieses Risiko noch erhöhen. Zu ermitteln, welche Steigerung der Strahlenintensität (Strahlungsleistung, Dosis pro Jahr) von solchen Anlagen ausgeht, wäre das falsche Vorgehen. Man muss die meist schlimmen Wirkungen betrachten. Diese lassen sich durch kreative Auswertung medizinischer Statistiken finden. Da die Verursacher bekannt sind, erübrigen sich Dosismessungen. Ein Beispiel sind die Erkenntnisse von Dr. Hagen Scherb, Helmholtz-Zentrum München: „Im Umkreis von 35 km um Anlagen in der Schweiz und in Deutschland ist der Verlust von 10.000 bis 20.000 Lebendgeburten bei Mädchen im Verlauf der letzten 40 Jahre nachweisbar.“Ähnliches finden Scherb und Mitarbeiter auch in anderen Ländern. Herr Scherb wird viel zu Tagungen eingeladen und genießt die Beachtung der Medien.
IPPNW
(International Physicians for the Prevention of Nuclear War)
Diese Vereinigung gehört zur grünen Wissenschaft, d.h. sie ist an Dosis-Wirkungs-Beziehungen weniger interessiert. Sie hat aber doch einen Risikofaktor definiert, nämlich 0,2 tödliche Krebsfälle pro Sievert (Sv). Das bedeutet: Erhalten 100 Personen je eine Strahlendosis von 1 Sv, dann ist mit 20 zusätzlichen Krebsfällen zu rechnen. Die Vorstellung, dass Strahlung statistisch wirkt, den einen erwischt es, den anderen nicht, wird auch sonst anerkannt. Nicht jedoch das daraus abgeleitete Konzept der Kollektivdosis, welches für IPPNW und andere ein Dogma darstellt.
Am besten lässt sich dies Konzept anhand einer Lotterie erklären. Dem Risikofaktor entspricht die Gewinnwahrscheinlichkeit.
Lose ∙ Faktor = Gewinne.
100 Lose: 100 ∙ 0,2 = 20 Gewinne.
Nun wird bei Strahlung, und hier hört der Konsens auf, angenommen: Der Faktor sinkt linear mit der Dosis. Bei 0,1 Sv = 100 mSv ist der Faktor 0,02, bei 1 mSv = 0,0002. Sind aber um so mehr Menschen betroffen, bleibt die Zahl der Strahlenopfer gleich. Bei der Lotterie stimmt die Überlegung. Gewinnerwartungen seien 0,2; 0,02 und 0,0002, Zahl der Lose 100, 1.000 und 100.000.
100 Lose: 100 ∙ 0,2 = 20 Gewinne
1.000 Lose: 1.000 ∙ 0,02 = 20 Gewinne
100.000 Lose: 100.000 ∙ 0,0002 = 20 Gewinne
Auch ist es ganz egal, ob die Lose an einem Tag oder im Verlauf eines Jahres verkauft werden. Die Strahlendosis mag noch so klein sein, multipliziert mit der nötigen Anzahl der Betroffenen erhält man doch die gewünschte Anzahl von Toten. So lässt sich aus öffentlichen Strahlenmessungen noch einiges herausholen.
ICRP
(International Commission on Radiological Protection)
Das ist die Dachorganisation aller offiziellen Einrichtungen zum Strahlenschutz. Deren Empfehlungen liegen der Strahlenschutz-Gesetzgebung aller Staaten zugrunde. Auch ICRP verwendet einen Risikofaktor. Mit abnehmender Dosis wird das Risiko proportional geringer. Allerdings ist der Faktor nur ein Viertel so groß wie bei IPPNW, nämlich 0,05 Fälle pro Sv. Er wurde aus den äußerst umfangreichen Daten über die Folgen der Atombombenabwürfe über Hiroshima und Nagasaki abgeleitet.
ICRP setzt eine lineare Abhängigkeit der Effekte bis zum Nullpunkt voraus. Daraus folgt die LNT-Hypothese: Linear no threshold, also keine untere Schwelle der Strahlenwirkung. Daher muss die Strahlenexposition von Menschen so klein wie möglich sein:
ALARA: As low as reasonably achievable
Nach dieser Vorstellung ist auch die natürliche Umgebungsstrahlung schädlich. Das hierdurch bedingte zusätzliche Risiko für Krebs wurde u.a. von Dr. Jacobi, Helmholtz-Zentrum, auf der Grundlage der ICRP-Annahmen errechnet. Sein Ergebnis: Ein zusätzliches Risiko ist anzunehmen. Es ist aber zu klein, um sich in epidemiologischen Studien zu zeigen. Das gilt auch für Gegenden auf der Welt mit erheblich höherer natürlicher Umgebungsstrahlung. „Die Ergebnisse dieser (weltweiten) Studien lassen keine Korrelation mit der natürlichen Strahlenbelastung erkennen.“
Praktiker
Die LNT-Hypothese wird abgelehnt. Es hat keinen Sinn, mit Strahlenschäden zu rechnen, die sich nicht nachweisen lassen. Das Konzept der Kollektivdosis wird abgelehnt. Der Vergleich mit Lotterielosen ist für biologische Systeme nicht anwendbar, da diese kleine Einwirkungen vertragen oder bald reparieren.
Beispiel Schnaps (Dr. Lutz Niemann): Trinkt jemand an einem Tag 2 Liter, ist er anschließend tot. Werden die 2 l als 20 ml-Schnäpschen an 100 Personen verteilt, dann sind das zwar zusammen wieder 2 l, aber gibt es deswegen einen Todesfall? Oder unser Schnapsfreund gönnt sich an 100 Tagen je einen 20 ml-Schnaps, stirbt er davon?
Bei einmaligen Dosen von 150 mSv findet man keine Wirkungen. Es wurde gefordert: Werden Personen irgendwo geringeren Jahresdosen als 250 mSv ausgesetzt, so sollte sich keine Behörde darum kümmern (Norbert T. Rempe).
Im Jahr 2015 wurde von einer großen Gruppe US-amerikanischer Strahlenwissenschaftler eine Petition an die zuständige Behörde NRC (Nuclear Regulatory Commission) gerichtet, man solle LNT und ALARA nicht mehr den Strahlenschutzstandards zugrunde legen.
Die Behörde lehnte ab. Aber ihre Ablehnung war vorsichtig formuliert, es war keine kategorische Ablehnung für alle Zeiten, sondern: „For the time being and subject to reconsideration.“
Hormesis
(Positive Strahlenwirkung)
Es gibt mehrere tausend Untersuchungen, in denen positive Wirkungen niedriger Strahlendosen gefunden wurden. In Deutschland machte dies besonders Prof. Feinendegen, Düsseldorf. Ein bekannter amerikanischer Wissenschaftler, James Muckerheide, schrieb 2001 (nach seiner Pensionierung): „It‘s Time to Tell the Truth About the Health Benefits of Low-Dose Radiation: (übersetzt) „Es wurde nachgewiesen, dass Strahlung im niedrigen Dosisbereich positive biologische Wirkungen verstärkt. Dies betrifft Immunsystem, enzymatische Reparatur, physiologische Funktionen, Eliminierung von Zellschäden, einschließlich der Verhinderung und Entfernung von Krebs- und anderen schädlichen Zellen. Trotzdem erkennen Strahlenschutzpolitik und Strahlenpraxis diese vertrauenswürdigen Daten nicht an. Sie stützen sich stattdessen auf unzuverlässige, nicht eindeutige, falsch interpretierte und manipulierte Daten.“
Die Vorstellung der positiven Wirkung kleiner Dosen führt zu dem Schluss, dass die natürliche Umgebungsstrahlung für uns gut ist, mehr wäre besser. Ganz ohne Strahlung ginge es uns schlechter. Das konnte natürlich nie an Menschen nachgewiesen werden. Es gibt aber Untersuchungen an Mikroorganismen und Fischlaich, welche in sehr strahlenarmer Umgebung, nämlich in Salzbergwerken, Schäden zeigten. Eine solche Untersuchung wurde von H. Bühringer und H.-J. Kellermann, Bundesforschungsanstalt für Fischerei, in der Asse durchgeführt.
Soweit die Strahlenbiologie. Sie könnte die Frage beantworten: „Warum?“ Muss man mit radioaktiven Stoffen wirklich so aufwändig umgehen? Die Frage „wie“ betrifft die Geologie. Da sind die Ansichten nicht so unterschiedlich, oder doch?
Das Robert-Koch-Institut – ein Hotspot epidemiologischen und politischen Versagens
|
Das RKI mit seinen 1200 Beschäftigten ist als Bundesoberbehörde vollständig in die Bundesverwaltung integriert. Es versteht sich als das Public-Health-Institut für Deutschland, welches – neben anderen Aufgaben – die Bundesregierung berät und durch die Erhebung und Analyse verlässlicher Daten Gesundheitsgefahren erforscht, überwacht und Krisenmanagement zum Schutz der Bevölkerung betreibt. Im Institut beschäftigt sind laut aktuellem Organigramm 65 Wissenschaftler, darunter 18 Professoren und eine Handvoll Privatdozenten. Es hat nicht den Anschein, dass das RKI diese geballte wissenschaftliche Kompetenz erfolgreich zur Bewältigung der Coronakrise eingesetzt hätte:
Von Anbeginn an wurde bei der statistischen Erfassung der Infizierten durch das RKI nicht danach differenziert, ob sie Symptome hatten oder asymptomatisch waren. Diese Unterlassung war kontraproduktiv angesichts der Zielsetzung der deutschen Schutzmaßnahmen, die Überlastung der Krankenhäuser zu vermeiden. Eine derartige Gefahr droht von Infizierten ohne Symptome nicht.
Nach Schätzungen liegt der Anteil der symptomfrei Infizierten zwischen 30 % und 45 %. Die Heinsbergstudie kam auf 33 % für Normallagen außerhalb von super spreading events ( die Karnevalssitzung in Gangelt ). Für die Differenzierung in Infektionsfälle mit und ohne Symptome, welche übrigens auch einer übertriebenen Angstentwicklung in der Bevölkerung hätte entgegen wirken können, ist das RKI zuständig. Die Unterlassung der Differenzierung ist ein schweres Versäumnis.
Von Anbeginn unterschied das RKI ebenfalls nicht zwischen „mit“ und „an“ Corona Verstorbenen. Es hatte sogar die Empfehlung gegeben, zur Vermeidung von Ansteckungen auf Obduktionen zu verzichten..Diese Praxis verstieß, worauf Sucharit Bhakdi aufmerksam gemacht hatte, gegen ärztliche Leitlinien ( Bhakdi 2020 ). Der Hamburger Rechtsmediziner Püschel, welcher der Empfehlung nicht gefolgt war, präsentierte als Ergebnis seiner über 200 Obduktionen, dass die Patienten durchschnittlich mit 80 Jahren und mehr starben und mindestens eine, überwiegend aber zwei schwere Vorerkrankungen hatten, die dann auch hauptverantwortlich für das Versterben waren. Die Zahl der „an“ Corona Verstorbenen ist danach sehr viel geringer als die unbereinigte Gesamtzahl, eine italienische regierungsamtliche Zählung nennt 12 % ( Nahamowitz 2020 ).
Die Veröffentlichung bereinigter Daten durch das RKI hätte sicherlich ebenfalls zu einer Deeskalation der Emotionen und Verminderung von Angst in der Bevölkerung beigetragen. Sie hätte möglicherweise auch die Politik motivieren können, ihre Schutzmaßnahmen anstelle eines flächendeckenden Shutdowns auf die Hochrisikogruppe der sehr alten und vorerkrankten Menschen zu konzentrieren.
Nach einigen Wochen hatte das RKI seine Empfehlung zurückgezogen. An der Praxis der undifferenzierten öffentlichen Verlautbarungen änderte sich freilich fast nichts. Die Sprachregelung in den Nachrichtensendungen erfand die reichlich gekünstelte und zudem weiter verschleiernde Formulierung von den „in Zusammenhang mit“ Corona Verstorbenen. Diese Verschleierungsstrategie, die freilich weiterhin auch vor der pauschalen Bezeichnung als „Coronatote“ nicht zurückschreckt, wird bis heute weltweit betrieben, wogegen auch die WHO nicht eingeschritten ist – Stoff für Verschwörungstheorien. Der Situation Report – 161 der WHO vom 29. Juni 2020 zeigt, dass die Organisation sogar aktiv an der großen Täuschung mitwirkt: „Today we document a somber landmark: 10 million cases and nearly 500 000 deaths of COVID-19 have now been reported globally“ . Der Fisch stinkt vom Kopf her. Offensichtlich bestand und besteht nahezu flächendeckend bei den zuständigen Stellen kein Interesse an deeskalierender Aufklärung.
Das schwerste Versäumnis des RKI ist freilich in dem Unterlassen zu sehen, die Bundesregierung und die beteiligten MP der Länder durch eine adäquate Wahrnehmung seiner Beratungsfunktion vor den Fehlentscheidungen der beiden Shutdownbeschlüsse zu bewahren. Es hätte mit allem Nachdruck vor allem auf die bereits vor dem Beschluss vom 23. März dramatisch zurück gegangene Reproduktionszahl R sowie auf die ebenfalls stark gefallene Zahl der täglichen Neuinfektionen hinweisen müssen, was Stefan Homburg in einer eindrucksvollen Kurve dargestellt hat ( vgl. Nahamowitz 2020 ). Zur Veranschaulichung bringe ich noch einmal die beiden Kurven.
Für die zweite Graphik ist klarzustellen, dass die Darstellung aus technischen Gründen dem realen Infektionsgeschehen vorausläuft. Der Höhepunkt der täglichen Neudiagnosen liegt nicht am 30. März, sondern in Wahrheit am13. März (vgl. näher Nahamowitz 2020 ). Aus beiden Graphiken ergibt sich, dass der radikale Umschwung beim Infektionsgeschehen in Deutschland bereits um den 12. / 13. März erfolgte, mindestens 10 Tage vor dem Shutdownbeschluss.
Zur Vervollkommnung hätte das RKI des weiteren die gerade frisch erschienene französische Studie mit dem deeskalierenden Titel „SARS-CoV-2: fear versus data“ in die Beratung einbringen müssen, welche eine geringe Letalitätsrate von 1,3 % gefunden hatte. Vor dem Shutdownverlängerungsbeschluss am 15. April hätte die Bundesregierung unbedingt von wesentlichen Ergebnissen der Heinsbergstudie unterrichtet werden müssen, vor allem von der sehr niedrigen Letalitätsrate von 0, 37 %, welche dem Infektionsgeschen insgesamt und der fixen Idee einer „zweiten Welle“ im Besonderen weitgehend den Schrecken nimmt. ( näher zur Heinsbergstudie Nahamowitz 2020 ).
Ich vermute stark, dass das RKI eine derartige deeskalierende Beratung nicht vorgenommen hat. Denn das Institut hat von Beginn an eine alarmistische Grundhaltung gegenüber dem Phänomen Covit-19 gezeigt. Ich bin des weiteren aber ebenfalls überzeugt, dass auch bei eindrücklicher deeskalierender Beratung die Bundesregierung sich als beratungsresistent erwiesen hätte. Wer wie die Kanzlerin in Bezug auf Corona vom 2. Weltkrieg spricht, dabei wohl Macrons Rhetorik vom „Krieg“ nachahmend, dürfte resistent gegenüber einer deeskalierenden Beratung.sein. In diesem Fall hätte der RKI-Präsident freilich von seinem Amt zurücktreten müssen. Anfang Mai sprach die Kanzlerin den gesunkenen Fallzahlen zum Trotz in Bezug auf die Entwicklung der Coronakrise: „Das ist erst der Anfang“. Kopfschüttelnd bleibt dem Beobachter nur die Frage: Wer flüstert der Frau diesen Unsinn ein, Drosten oder Wieler?
Die Diagnose Beratungsresistenz gilt auch für die Riege der an den Shutdowbeschlüssen mitwirkenden MP der Länder. Exemplarisch sei auf den MP von Niedersachsen Stephan Weil verwiesen, der bei Markus Lanz am 21. 5. 2020 zunächst bemerkte, dass die Reproduktionszahl R für ihn „nicht handlungsleitend“ sei und dann bei der Frage nach der Notwendigkeit der deutschen staatlichen Notstandsmaßnahmen mit Einverständnis voraussetzender Mimik auf die in der Tat desaströse Situation in Oberitalien und New York verwies. Dies war und ist eine in Deutschland immer noch gängige, aber absurde Argumentation. Das ist so, als wenn der deutsche Wirtschaftsminister auf die Frage nach der Bekämpfung der deutschen Arbeitslosigkeit mit den italienischen Arbeitsmarktzahlen operierte.
Seine alarmistische Grundhaltung und zugleich seine unzureichende epidemiologische Bildung demonstrierte der Präsident des RKI Wieler, der von seiner Ausbildung her Tierarzt ist, bei seiner Ende Mai mit Emphase vorgetragenen Warnung vor einer „zweiten oder gar dritten Welle“. Seit der spanischen Grippe zu Beginn des 20. Jahrhunderts, d. h. seit 100 Jahren, hat es in Deutschland bei keiner Epidemie das Phänomen der zweiten Welle gegeben . Dennoch ist die Metapher der zweiten Welle gegenwärtig unter „Experten“ und Laien sehr beliebt. Es lässt sich mit ihr Kompetenz suggerieren und zugleich Angst erzeugen.
Am 29. Juni 2020 wurde in den TV-Abendnachrichten berichtet, dass angesichts gestiegener Infektionszahlen nun sogar in dem bei der Infektionsbekämpfung bisher so erfolgreichen Südkorea die Angst vor der zweiten Welle um gehe. Am selben Abend stellte die Talkrunde des TV-Senders Phönix die Frage: Wie können wir die zweite Welle vermeiden? Schaut man sich die statistische Kurve der täglichen Neuinfektionen in Südkorea an, sieht man, dass die Zahl seit Mitte April bis zum aktuellen Rand durchgängig knapp über der Nullinie verläuft, bei durchschnittlich unter 30 Neuinfektionen täglich ( am 21. Juni z.B. gab es 17 Neuinfektionen).
Nach dem Massenausbruch von Corona in der Schlachtfabrik Tönnies in NRW Ende Juni 2020 demonstrierte Wieler seine weiter bestehende Vorliebe für alarmistische Orakel: „Die Krise ist noch nicht vorüber“. Als ob von einem eng lokal und personell ( auf die zumeist ausländischen Fleischarbeiter ) begrenzten Ereignis auf die Gesamtheit des Infektionsgeschehens in Deutschland geschlossen werden könne.
Angesichts dieser Fehlleistungen ist das methodische Versäumnis, rechtzeitig eine nach den Regeln der WHO durchgeführte empirische Studie a` la Heinsberg durchgeführt zu haben, schon fast eine lässliche Sünde. Da muss sich ein Rieseninstitut mit über 60 Wissenschaftlern von einer kleinen Bonner Forschergruppe vormachen lassen, wie lege artis durchgeführte Forschung funktioniert. Immerhin erweist sich das RKI wenigstens in diesem Punkt als lernfähig und hat im Mai und Juni 2020 zwei Studien nach dem Muster der Heinsbergstudie in Neustadt am Rennsteig und in Kupferzell durchgeführt.
Wir kommen nun zum zentralen Punkt meines Beitrags. In seiner Stellungnahme vom 12. Juni 2020 zu den Infektionsschutznahmen betätigt sich das RKI unverhohlen als Apologet des Shutdowns vom 23. März 2020 ( RKI 2020 ). Es beantwortet die Frage : „Wenn die Reproduktionszahl R bereits am 22. März unter 1 lag, warum brauchte es dann noch Kontaktbeschränkungen?“ Dies ist in der Tat eine der zentralen zweifelnden Fragen an den Shutdown. Es ist interessant, welche Argumente zur Verteidigung das RKI wählt. Zunächst wird die Bedeutung von R relativiert: „Die Reproduktionszahl kann nicht allein als Maß für Wirksamkeit/Notwendigkeit von Maßnahmen herangezogen werden.Wichtig sind außerdem u.a. die absolute Zahl der täglichen Neuinfektionen – sie muss klein genug sein, um effektive Kontaktpersonennachverfolgung zu ermöglichen und Kapazitäten von Intensivbetten nicht zu überlasten – sowie die Schwere der Erkrankung“.
Diese Argumentation ist wenig überzeugend. Zunächst ist darauf zu verweisen, dass die Bedeutung von R während der gesamten Coronazeit sowohl von der Kanzlerin als auch vom RKI selbst immer wieder in der Öffentlichkeit betont worden ist. Sodann ist daran zu erinnern, dass die Zahl der täglichen Neuinfektionen bereits am 12. /13. März, also 10 Tage vor dem 23. März, in geradezu dramatischer Weise zu sinken begonnen hat. In der obigen Graphik ist wegen der langen Dauer von der Infektion bis zur Registrierung von 17 Tagen der Abstiegsbeginn der Neuinfektionen nicht erst der 30. März, sondern der 13. März.( vgl. Nahamowitz 2020 ). Und was die Schwere der Erkrankungen und die Überlastung der Intensivkapazitäten als Kriterien angeht, so habe ich unter Punkt 1. gerade die statistische Praxis des RKI kritisiert, bei den Infizierten nicht danach zu unterscheiden. ob sie Symptome haben oder nicht. Im übrigen erwiesen sich die Intensivkapazitäten in den deutschen Krankenhäusern schon sehr bald als stark unterausgelastet..
Sodann behauptet das RKI, dass das Verbot von Großveranstaltungen ( 9. März ) und die folgenden Schulschließungen (16. März ) „zu einem Rückgang der Reproduktionszahl zu Werten nahe 1 seit dem 19 März“ führten. Die Schulschließungen sind erst nach der spektakulären Trendumkehr vom 12. /13. März bei R und den täglichen Neuinfektionen erfolgt. Ihre positive Wirkung ist daher sehr zweifelhaft. Und beim Verbot von Großveranstaltungen sollte die Wirkung dieser Maßnahme nicht überschätzt werden. Das Verbot erfolgt am 9. März, einem Montag. Es konnte sich in seiner vollen Breite erst bei den Bundesligaspielen am darauf folgenden Sonnabend auswirken, d. h. erst ab dem 14. März. Zwischen dem 11. März . und dem 14. März. war die Indexzahl von R aber bereits regelrecht von 3 auf 2 abgestürzt ( vgl. die Graphik ). Und am 19. März schon lag R nahe 1, wie das RKI selbst unterstreicht. Warum soll das nicht nur die Fortsetzung der begonnenen Abwärtsbewegung gewesen sein ? Außerdem finden sportliche Großveranstaltungen in der Regel im Freien statt, bei denen die Ansteckungswirkung stark reduziert ist. Zutreffend dürfte es sein, den ab dem 12. / 13. März in Deutschland einsetzenden spektakulären Rückgang von R und den täglichen Neuinfektionen auf die inhärente Dynamik der auch bei SARS-COV-2 auftretenden „epidemiologischen Welle“ zurückzuführen, welche zunächst stark ansteigt und dann wieder stark zurückgeht – ein Phänomen, welches übrigens auch in Südkorea und ebenfalls ( von den Medien nicht beachtet ) in New York zu beobachten war. Was nicht ausschließt, dass das Verbot der Großveranstaltungen eine gewisse Zusatzwirkung hatte.
Aber auch wenn die Ursächlichkeit des Verbots von Großveranstaltungen und der Schulschließungen für die starke Reduktion der R-Zahl bejaht würde, stellt sich die Frage, warum die große Beschlusskoalition aus Bundesregierung und MP der Länder es am 23. März nicht dabei hat bewenden lassen und in Ruhe zwei oder drei Wochen die weitere Entwicklung abgewartet hat. Das RKI gibt zur Antwort: „ Die Einführung des bundesweit umfangreichen Kontaktverbots ( zu ergänzen: vom 23. März ) führte dazu, dass die Reproduktionszahl auf einem Niveau unter 1 / nahe 1 gehalten werden konnte.“ Sowie: „Es ist davon auszugehen, dass die Reproduktionszahl ohne das Kontaktverbot wieder angestiegen und sich der Basisreproduktionszahl angenähert hätte. Genau hier setzt das bundesweite Kontaktverbot an“.
Dies sind rein spekulative Unterstellungen, deren Begründung nicht einmal versucht wird. Die im Vorfeld des Beschlusses dramatisch zurückgehenden Infektionszahlen ließen in keiner Weise erkennen, dass sie wieder ansteigen werden. Auch die historischen Erfahrungen mit Epidemien als zeitlich begrenzte Phänomene sprechen gegen die Argumentation des RKI. Oder hatte das RKI unausgesprochen das Modell einer Coronaepidemie mit eingebauter „ zweiter Welle“ im Sinn? Dies würde allerdings klar den auch in Südkorea und sogar New York gemachten Erfahrungen widersprechen.
Rational kann die Argumentation des RKI nicht überzeugen. Ich bin aber sicher, dass sie die argumentative Verteidigungslinie skizziert, zu welcher die exekutiven Staatsorgane greifen werden, falls es zu der wünschenswerten gerichtlichen und / oder politischen Überprüfung der Verfassungsmäßigkeit der beiden Shutdownbeschlüsse kommen sollte, Als gerichtliches Überprüfungsverfahren kommt neben der Verfassungsbeschwerde gemäß Art 93 Abs. 1 Nr. 4 GG und der abstrakten Normenkontrolle nach § 47 VwGO eventuell auch die konkrete Normenkontrolle nach Art. 100 GG in Betracht. Da letztere nur gegen förmliche Gesetze gerichtet werden kann, können auf diesem Weg nicht die Coronaverordnungen der Länder, sondern nur das Infektionsschutzgesetz überprüft werden. Die abstrakte Normenkontrolle gem. Art 93 Abs. 1 Nr. 2 GG wiederum hat einen stark politischen Einschlag und kann nur von mindestens einem Viertel der Bundestagsabgeordneten angestrengt werden; mit ihr können auch Verordnungen angegriffen werden. Als rein politisches Überprüfungsverfahren kommt schließlich die Einsetzung eines Untersuchungsausschusses nach Art. 44 GG in Frage. Dieser kann durch Mehrheitsbeschluss des Bundestags eingesetzt werden ( Mehrheitsenquete ), auf Antrag eines Viertels der Abgeordneten muss er eingesetzt werden ( Minderheitsenquete ).
Es ist zu wünschen, dass von den doch recht vielfältigen Möglichkeiten, den unglaublichen Corona – Machtmissbrauch höchster Stellen der Staatsexekutive unvoreingenommen und sachkundig untersuchen und beurteilen zu lassen, auch Gebrauch gemacht wird.
Quellenverzeichnis
Bhakdi, Sucharit ( 2020 ): Offener Brief an die Bundeskanzlerin, Video vom 29.3.
Maxeiner, Dirk ( 2020 ): Corona-Aufarbeitung: RKI – Ruhe in Frieden, EIKE-Beitrag vom 26. Juni.
Nahamowitz, Peter ( 2020 ): Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, Eike- Beitrag vom 17. Mai..
Der Autor ist Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover im Ruhestand.
Klimagerechter Abstieg
|
Das Kohleausstiegsgesetz ist nun beschlossen. Der 3. Juli 2020 ist ein historischer Tag, an den man sich später, in welcher Form auch immer, erinnern wird. Während im Gesetz analog zum Atomausstieg termingenau die Abschaltungen entsprechender Kohlekraftwerke aufgeführt sind, gibt es keinerlei Festlegungen zum Ersatz der dann fehlenden gesicherten Leistung.
orange: Kernkraft, grau: Braunkohle, gelb: Steinkohle, blau: Gas Rest: Photovoltaik, Wind, Biomasse, Hydro Rote Linien: Bedarf. Die Fragezeichen betreffen die Jahre 2022, 2030 und 2038, die Defizite betragen dann etwa 20, 30 und 60 Gigawatt.
Die Aufhebung des Solardeckels und die Veränderung von Abstandsregeln für Windkraftanlagen helfen nicht. Abends geht die Sonne unter und im Winter ist fast jede Flaute auch eine Dunkelflaute. Dabei hätte es des Kohleausstiegsgesetzes eigentlich nicht bedurft. Der im EEG (Erneuerbare-Energien-Gesetz) seit 20 Jahren verankerte Einspeisevorrang sollte dazu führen, dass konventionelle Anlagen durch Ökostromanlagen dauerhaft verdrängt werden. Das funktioniert aber nur temporär. Der gesicherte Anteil der Produktion liegt bei bei null Prozent (Solarstrom), bei einem Prozent (Wind onshore) und zwei Prozent (Wind offshore), mit anderen Worten – die Erneuerbaren können es nicht. Da dies inzwischen als nicht zielführend erkannt wurde, gibt es die Forderung nach mehr Stromspeichern.
In Kürze wird feierlich die „BigBattery“ in Schwarze Pumpe in der Lausitz in Betrieb gehen, Europas größter Batteriespeicher. Sie kann 53 Megawattstunden Strom aufnehmen, was der Produktion des gleichnamigen Kraftwerks von zwei Minuten entspricht und etwa auch dem Verbrauch Berlins in zwei Minuten. Oder anders gerechnet: Um nur eine Tagesproduktion des Kraftwerks für windarme Zeiten zu puffern, bräuchte es 725 solcher Geräte in einem Kostenumfang von etwa 18 Milliarden Euro.
Da dies inzwischen auch als nicht zielführend erkannt wurde, heißt es nun: „Wasserstoff“. Wasserstoff ist kein abbaubarer Energierohstoff, sondern ein Energieträger, der energieaufwändig hergestellt werden muss. Das teuerste Verfahren dazu ist die Elektrolyse mittels Ökostrom. Mehr als 40 Pilotanlagen Power-to-Gas (P2G) sind deutschlandweit in Betrieb, einige länger als zehn Jahre. In keiner der Anlagen ließ sich nachweisen, dass es möglich ist, Wasserstoff zu marktfähigen Preisen zu produzieren. Deshalb geben die Netzbetreiber in ihren Szenariorahmen an, dass P2G-Anlagen nicht vor 2035 leistungswirksam sein dürften. Dennoch sollen nun Anlagen hochskaliert und als Wasserstoffkraftwerke an bestehenden Kraftwerksstandorten gebaut werden. Um Ökostrom mittels Wasserstoff zu speichern, bedarf es der Prozesskette Power-to-Gas-to-Power mit einem Gesamtwirkungsgrad von etwa 25 Prozent im Vergleich zu 100 Prozent bei sofortiger Nutzung des Stroms. Dies ist keine Stromspeicherung, sondern Energieverschwendung, die zudem gigantische Überkapazitäten regenerativer Stromerzeugungsanlagen erfordern würde.
Dass diese Überkapazitäten mit geringer Energiedichte und riesigem Flächenbedarf in unseren Gefilden nicht installierbar sind, ist auch das inzwischen als nicht zielführend erkannt. Nun heißt es: “Wasserstoff aus Afrika“. Dazu existiert bereits die „Hydrogen Partnership“ mit der WASCAL, einem Wissenschaftszentrum elf westafrikanischer Länder, die einen durchschnittlichen Korruptionsindex von 96 aufweisen. Im Rahmen unserer nationalen Wasserstoffstrategie wurde besonders Marokko als potenzielles Lieferland für grünen Wasserstoff erkannt. Marokko selbst importiert jährlich etwa 10 Millionen Tonnen Steinkohle aus Russland und Südafrika und nahm 2018 sein 1,4-GW-Kohlekraftwerk Safi in Betrieb. Vielleicht sollte der dort gewonnene Wasserstoff, wenn es wirtschaftlich ist, vor Ort zur Emissionssenkung verwendet werden? Die moralische Frage, ob es angemessen ist, Energie aus armen Ländern abzusaugen und sie nicht in den Herkunftsländern mit ihrem wachsenden Bedarf als emissionsarme Energieträger zu belassen, wäre einer dafür noch zu gründenden Ethikkommission zu überstellen.
„Deutschland ist heute ein großer Importeur von Energie und wird dies auch in Zukunft bleiben“, heißt es beim BMWi, was in der Sache ungenau ist. Primärenergie in Form von Öl, Gas und Steinkohle haben wir früher importiert und werden es weiter tun. Den Strom jedoch konnten wir selbst erzeugen und zum Teil sogar noch exportieren. Dies wird sich ändern.
Fassen wir zusammen: Wir schalten termingenau versorgungssichernde Anlagen ab, erzeugen Energiemangel und beheben diesen durch Wasserstoff aus Afrika – für den es allerdings keinen Termin gibt. Verlierer wird unsere Kinder- und Enkelgeneration sein, die neben der demografischen Last hohe Energiepreise aufgebürdet bekommt und den Niedergang der Industrie wird erleben müssen. Nicht nur Strom, jegliche Energie wird im Preis weiter steigen. Die CO2-Steuer belastet alle Produkte und viele Dienstleistungen. Jede Tüte Mehl, die in den Supermarkt gefahren wird, jeder Rettungswageneinsatz, jeder Schulbus, mit dem die Kinder in die Stadt fahren, wird teurer. Dadurch werde das Klima gerettet, heißt es.
Das Oberziel ist die Dekarbonisierung Deutschlands bis 2050. Die dann eingesparten Emissionen werden bis dahin durch das globale Bevölkerungswachstum um ein Mehrfaches übertroffen sein. Man wird dann feststellen, dass der Klimawandel weitergeht, aber gleichzeitig durch die Deindustrialisierung keine Mittel mehr zur Hand sind, sich auf den Klimawandel einzustellen.
Die staatliche Plankommission der DDR beschloss Fünfjahrespläne, mehr traute man sich nicht. Das Kohleausstiegsgesetz ist ein 18-Jahres-Staatsplan, in dem Markt nicht mehr wirkt. Das Energiesystem muss kleinteilig staatlich reguliert werden. Das sollen Politiker tun, die schon mit dem Bau eines Flughafens überfordert sind. Das Scheitern ist absehbar. Die wenigsten der 314 Abgeordneten, die dem Kohleausstiegsgesetz zustimmten, werden noch Abgeordnete sein, wenn die Folgen ihrer Entscheidung deutlich werden.
Die nächsten Politikergenerationen werden das tun, was sie üblicherweise am besten können: Schuldige suchen. Sie können dann in den Bundestagsprotokollen vom 3. Juli 2020 nachlesen.
Der Grüne Wahnsinn bürdet den Armen immer neue Kosten auf
|
Es gibt zahlreiche, zumeist gravierende Fakten hinsichtlich der ökologischen Auswirkungen intermittierender Stromsysteme auf Mensch und Umwelt, welche allesamt den Kaliforniern vorenthalten werden. Darunter sind viele Kalifornier, welche sich die höchsten Treibstoff- und Stromkosten am wenigsten leisten können – Preise, die schon jetzt mit die höchsten der ganzen Nation [= der USA] sind. Das sind die gleichen Kalifornier, die weniger als die Hälfte von einem Prozent (0,5%) der Weltbevölkerung (40 Millionen gegenüber 8 Milliarden) ausmachen. Zu den Informationen, die der Klimakult unbedingt geheim halten will, gehören:
● Der Umstieg auf Elektrizität ALLEIN und die Eliminierung fossiler Brennstoffe würde bedeuten, dass Amerika 100% seines Benzins und alle Erdöl- und Erdgasvorräte für Pharmazeutika, Kosmetika, Farben, synthetische Fasern, Düngemittel und Kunststoffe für Mobiltelefone, Computer, Autokarosserien, Verpackungen, Windturbinenblätter, Solarzellenfolien und mehr als 6.000 Produkte, die aus Erdölderivaten hergestellt werden, ersetzen müsste. Zur Erinnerung: Ohne das Transportwesen und die Freizeit- und Unterhaltungsindustrie, die es vor 1900 nicht gab, gäbe es keinen Handel.
● Die Abhängigkeit von intermittierendem Strom aus Wind und Solar führte dazu, dass Kalifornien bis zu 29 Prozent seines Stromes importiert, um seinen Bedarf zu decken. Zum Nachteil derer, die sich die teure Energie am wenigsten leisten können, hat dieser verschwenderisch teure Stromimport dazu beigetragen, dass die ärmsten Einwohner, insbesondere Latinos und Afroamerikaner, mehr als 50 Prozent mehr für Strom bezahlen als der Rest des Landes.
● Die Auswirkungen der Kraftwerksschließungen in Kalifornien werden die Stromkosten erhöhen, da Kalifornien plant, drei Erdgaskraftwerke und sein letztes Kernkraftwerk zu schließen. Diese vier Kraftwerke haben die Kalifornier kontinuierlich und unterbrechungsfrei mit Strom versorgt. Da der Bundesstaat keine Pläne hat, die Stilllegungskapazität durch intermittierenden Strom aus Wind- und Sonnenenergie zu ersetzen, wird der Staat mehr kostspieligen Strom importieren müssen, um die Lücke zu füllen, was Bewohner und Unternehmen teuer bezahlen müssen.
● Der Klimakult hat Angst davor, dass bekannt wird, dass alle mineralischen Produkte und Metalle, die zur Herstellung von Windturbinen, Sonnenkollektoren und EV-Batterien benötigt werden, an Orten wie Baotou, der Inneren Mongolei, Bolivien und der Demokratischen Republik Kongo, meist unter chinesischer Kontrolle, unter minimalen bis nicht existenten Arbeits-, Lohn-, Umwelt-, Rückgewinnungs- und Arbeitsschutzbestimmungen abgebaut und verarbeitet werden. Allein der Abbau dieser exotischen Mineralien bringt weltweit soziale Herausforderungen, Menschenrechtsverletzungen und Umweltzerstörung mit sich
[Hervorhebung vom Übersetzer]
● Die Schrecken, welche die Arbeiter in den Kobaltminen durchmachen müssen, d.h. das eigentliche Ausgraben der Minen von Hand zusammen mit den schrecklichen Lebensbedingungen, sind vielfach dokumentiert. Amnesty International hat das Schicksal von Kindern und Erwachsenen dokumentiert, die in engen, von Menschenhand gebauten Tunneln Kobalt abbauen, zusammen mit der Exposition gegenüber den gefährlichen Gasen, die bei der Beschaffung dieser seltenen Mineralien freigesetzt werden.
[Hervorhebung vom Übersetzer]
● Allein für Kobalt schuften mehr als 40.000 kongolesische Kinder, teils nicht älter als 4 Jahre, an der Seite ihrer Eltern für einen Dollar pro Tag in den Minen und riskieren dabei, in Höhlen einzustürzen und ständig schmutzigem, giftigem, radioaktivem Schlamm, Staub, Wasser und Luft ausgesetzt zu sein. [Siehe auch hier beim EIKE]
● Diese Verbrechen gegen Umwelt und Menschenrechte können nur unter einem System zügelloser Doppelmoral gedeihen. Der Klimakult steht hinter diesen Untaten, solange es um „Erneuerbare“ geht.
● Selbst wenn Kalifornien oder die gesamten USA morgen den gesamten Verbrauch fossiler Brennstoffe eliminieren würden – es würde keinen Unterschied für die globalen Kohlendioxidwerte machen, verfügen doch China und Indien über mehr als 5000 Kohlekraftwerke und errichten 600 weitere Kraftwerke, um ihre Bevölkerung zuverlässig und bezahlbar mit grundlastfähigem Strom zu versorgen.
Seit 1990 sind die CO2-Emissionen der Industrieländer zurückgegangen, während sich die CO2-Emissionen der Entwicklungsländer seit 1985 vervierfacht haben. Dieses Gefälle hat folgende Gründe:
● die Verlagerung wichtiger CO2-emittierender Industrien in Teile der Welt, die weniger strenge Umweltnormen haben oder die sich weniger um CO2-Emissionen kümmern, und
● die zunehmende Nutzung der Kohleverbrennung zur Stromerzeugung in den Entwicklungsländern.
Der Hauptgrund dafür, dass der Klimakult sich hemmungslos gegen die Transparenz jeglicher Daten über die von ihnen favorisierte intermittierende Elektrizität aus Wind und Sonne wendet ist, dass sie sich gegenüber den ländlichen, armen, Minderheiten- und Arbeiterfamilien und -gemeinschaften rechtfertigen müssten. Die Öffentlichkeit muss die weltweiten ökologischen, gesundheitlichen und wirtschaftlichen Schäden akzeptieren, die ihnen bei der Verfolgung ihrer pseudo-erneuerbaren Stromutopie zugefügt werden. Darüber hinaus müssen diejenigen, die sich die Leidenschaft für intermittierenden Strom am wenigsten leisten können, moralisch akzeptieren, dass Afrikaner, Asiaten und Lateinamerikaner den Status von Sklavenarbeit ertragen müssen, um die Agenda des Klimakults voranzubringen.
Hoffen wir, dass die jetzt schweigende Mehrheit Recht und Ordnung, eine zivile Debatte, eine durchdachte Reflexion über unsere komplexe Geschichte und eine rationale Lösung dieser heiklen Probleme wiederherstellen kann, denn die derzeitige Klimapolitik diskriminiert im Wesentlichen arme Menschen und Minderheiten weltweit.
[Hervorhebungen vom Übersetzer]
Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics
Bemerkung des Übersetzers: Wie um Himmels willen kann man bloß die hier beschriebenen Skandale der Öffentlichkeit bekannt machen, wenn Medien und Politik derartig mauern?!
Das Wirrwarr von Klimamodellen
|
Ein Gedankenexperiment
Hier ist das Gedankenexperiment: Wir wollen eine Verbindung herstellen, die irgendwie Farbe erzeugt (der Mechanismus, wie sie das macht, ist nicht wirklich relevant). Wir wollen jedoch speziell eine gut definierte Farbe, die von der Anwendung, für die sie verwendet werden soll, vorgeschrieben wird. Sagen wir einen Türkis-Ton.
Nun haben unsere Geologen und Chemiekollegen einige Mineralien und Verbindungen vorgeschlagen, die Kandidaten für unser buntes Unternehmen sein könnten. Leider gibt es keinerlei Informationen darüber, welche Farben diese Stoffe produzieren. Dieser Umstand wird noch dadurch verstärkt, dass die Minerale äußerst selten und daher extrem teuer sind, während synthetische Minerale wirklich schwierig herzustellen und daher noch teurer sind. Wie gehen wir also vor, wie finden wir die besten Verbindungen, die wir ausprobieren können? Es kommt nicht in Frage, von jeder der vielen Verbindungen ein Muster zu bekommen und jede von ihnen auf die Farbe zu testen, die sie erzeugt. Was wir also tun, ist, die Physik des Farbe erzeugenden Prozesses für jede der vorgeschlagenen Verbindungen zu modellieren, um diejenigen zu finden, die Türkis erzeugen, falls es welche gibt. Das klingt einfach genug, ist es aber nicht, weil es mehrere verschiedene Codes gibt, nämlich insgesamt 5, die vorgeben, eine solche Simulation durchzuführen, jeder mit seinen eigenen zugrunde liegenden Annahmen und Eigenheiten. Wir führen diese Codes für die vorgeschlagenen Verbindungen durch und stellen fest, dass die Farben, die sie prognostizieren, leider für einzelne Verbindungen und im Allgemeinen überall uneinheitlich sind.
Nehmen Sie zum Beispiel die Verbindung Novelium1. Die vorhergesagten Farben reichen von Gelbgrün bis zu tiefem Violett mit einigen wenigen dazwischen wie Grün, Blau oder Ultramarin, ein Frequenzbereich mit dem Faktor 1,3; ähnlich für die anderen Kandidaten. In dieser Situation ist der einzige Weg vorwärts ein Experiment. Also graben wir tief in das Budget hinein und besorgen uns eine Probe von Novelium1, um zu sehen, welche Farbe es tatsächlich produziert. Es stellt sich als orange-rot heraus, was ziemlich enttäuschend ist. Wir sind wieder da, wo wir angefangen haben. Und wegen unserer Haushaltsbeschränkungen sind wir an dem Punkt, an dem wir aufgeben müssen.
Hier wollen wir ein Mitglied unseres Teams vorstellen. Nennen wir es Mike. Mike ist ein bisschen aufdringlich, weil ihm völlig klar ist, dass wir, wenn wir unser Ziel erreichen sollten, den einen oder anderen prestigeträchtigen Preis bekommen würden, etwas, worauf er ziemlich scharf ist. Er schlägt Folgendes vor: Wir nehmen das Modell, das die Farbe vorhergesagt hat, die der tatsächlichen Farbe am nächsten kommt, das ist das Modell, das uns Gelb-Grün gegeben hat, und passen seine Parameter so an, dass es stattdessen Orange-Rot vorhersagt. Das ist nicht allzu schwierig, und nach ein paar Tagen, in denen er auf einer Tastatur herumtüftelt, kommt er mit einem angepassten Modell, das die beobachtete Farbe erzeugt. Geschicklichkeit rundherum, bis auf ein oder zwei weitere skeptische Teammitglieder, die darauf bestehen, dass das neue Modell validiert werden muss, indem es die Farbe der Verbindung Novelium2 korrekt vorhersagen lässt. Da der Preis darauf beruht, ist dies eindeutig ein Muss, also kratzen wir den Boden des Budgets ab und wiederholen die Übung für Novelium2. Das angepasste Modell sagt Gelb voraus. Das Experiment ergibt Orange.
Wir gaben auf.
Was bedeutet das nun?
Können wir irgendetwas Nützliches hieraus ableiten? Um das herauszufinden, müssen wir drei Fragen beantworten.
Erstens: Was wissen wir nach der ersten Phase des Projekts, der Modellierungsübung, bevor wir das Experiment durchführten? Bedauerlicherweise lautet die Antwort: nichts Nützliches. Bei 5 verschiedenen Ergebnissen wissen wir nur mit Sicherheit, dass mindestens 4 der Modelle falsch sind, aber nicht welche. Selbst wenn die von uns gewünschte Farbe (Türkis) auftaucht, wissen wir immer noch nichts. Denn wie kann man sicher sein, dass der Code, der ihn erzeugt, das „richtige Ergebnis“ ist, wenn man die Ergebnisse der a priori gleichwertigen anderen Modelle berücksichtigt? Das kann man nicht. Wenn ein Modell uns Türkis gab, könnte es einfach ein glücklicher Zufall sein, wenn das Modell selbst noch fehlerhaft ist. Allein die Tatsache, dass die Modelle sehr unterschiedliche Ergebnisse liefern, sagt uns daher, dass höchstwahrscheinlich alle Modelle falsch sind. Tatsächlich ist es sogar noch schlimmer: Wir können nicht einmal sicher sein, dass die von Novelium1 erzeugte Echtfarbe im Bereich von Gelbgrün bis Violett liegt, selbst wenn es ein Modell gäbe, das die von uns gewünschte Farbe erzeugt. Im Anhang gebe ich eine einfache, auf Wahrscheinlichkeit basierende Analyse zur Unterstützung dieses und der folgenden Punkte.
Zweitens, was wissen wir nach dem unerwarteten Ausgang des eigentlichen Experiments? Wir wissen nur mit Sicherheit, dass alle Modelle falsch sind (und dass es nicht die gesuchte Verbindung ist).
Drittens: Warum ist Mikes kleiner Trick so kläglich gescheitert? Was ist da passiert? Die Parametereinstellung des ursprünglichen, ungefilterten Modells verkörpert das beste Verständnis der Physik – von seinen Machern, wenn auch unvollständig, aber das ist nicht wirklich relevant –, die ihm zugrunde liegt. Durch Modifizierung dieser Parameter wird dieses Verständnis verwässert, und wenn die „Feinabstimmung“ weit genug geht, verschwindet es vollständig, so wie die Grinsekatze verschwindet, je mehr man sie ansieht. Ein solches Modell im Nachhinein so zu optimieren, dass es an die Beobachtungen angepasst werden kann, ist daher gleichbedeutend mit dem Verzicht auf die Behauptung, dass man die dem Modell zugrundeliegende relevante Physik versteht. Jeglicher Vorwand, das Thema wirklich zu verstehen, verschwindet aus dem Fenster. Und mit ihm geht jede Vorhersagekraft, die das ursprüngliche Modell gehabt haben könnte. Ihr Modell ist gerade zu einer weiteren sehr komplexen Funktion geworden, die in einen Datensatz eingepasst wurde. Bekannt ist der Ausspruch des Mathematikers und Physikers John von Neumann über eine solche Praxis: „Mit vier Parametern kann ich einen Elefanten anpassen, und mit fünf kann ich ihn dazu bringen, mit dem Rüssel zu wackeln“. Bei dem optimierten Modell handelt es sich wahrscheinlich um ein neues, falsches Modell, das zufällig eine Übereinstimmung mit den Daten ergab.
Eine Anwendung auf Klimamodelle
Bewaffnet mit den Erkenntnissen aus der vorstehenden Geschichte sind wir nun in der Lage, einige grundsätzliche Aussagen zu den IPCC-Klimamodellen zu machen, zum Beispiel zu der Gruppe der 31 Modelle, die das CIMP6-Ensemble bilden (Eyring et al., 2019; Zelinka et al., 2020). Die interessierende Größe ist der Wert der Gleichgewichts-Klimasensitivität [Equilibrium Climate Sensitivity (ECS)], die erwartete langfristige Erwärmung nach einer Verdoppelung der atmosphärischen CO2-Konzentrationen. Die vorhergesagten ECS-Werte im Ensemble umfassen einen Bereich von 1,8°C am unteren Ende bis 5,6°C am oberen Ende, ein kolossaler Faktor 3 im Bereich, der von den 31 Modellen mehr oder weniger gleichmäßig belegt wird. Die Natur mag listig, ja sogar hinterhältig sein, aber sie ist nicht bösartig. Es gibt nur einen „wahren“ ECS-Wert, der der Verdoppelung der CO2-Konzentration in der realen Welt entspricht.
Können wir eine Erklärung zu diesem Ensemble abgeben? Nur diese beiden Beobachtungen:
Erstens, höchstwahrscheinlich sind all diese Modelle falsch. Diese Schlussfolgerung ergibt sich logisch aus der Tatsache, dass es viele a priori gleich gültige Modelle gibt, die nicht gleichzeitig richtig sein können. Höchstens eines dieser Modelle kann richtig sein, aber angesichts der übrigen 30 falschen Modelle stehen die Chancen schlecht, dass überhaupt ein Modell richtig ist. Tatsächlich lässt sich zeigen, dass die Wahrscheinlichkeit, dass keines der Modelle korrekt ist, bis zu 0,6 betragen kann.
Zweitens können wir nicht einmal sicher sein, dass die wahre ECS im Bereich der von den Modellen erfassten ECS-Werte liegt. Die Wahrscheinlichkeit, dass dies der Fall ist, liegt bei 1,0-0,6=0,4, was bedeutet, dass die Wahrscheinlichkeit, dass die wahre ECS in dem von den Modellen abgedeckten Bereich liegt, etwa 2 bis 3 beträgt (und damit die Wahrscheinlichkeit, dass die wahre ECS außerhalb des Bereichs liegt). Die oft gemachte Annahme, dass der „wahre“ ECS-Wert irgendwo im Bereich der Ergebnisse der Modelle im Ensemble liegen muss, basiert auf einem logischen Trugschluss. Wir haben absolut keine Ahnung, wo das „wahre“ Modell – Nummer 32, das „Experiment“ – innerhalb oder außerhalb der Spanne landen würde.
Es sind einige Einschränkungen zu machen. Was bedeutet es zum Beispiel: Das Modell ist „falsch“? Es bedeutet, dass es unvollständig sein könnte – es fehlen Konzepte oder Prinzipien, die in ihm vorhanden sein sollten – oder umgekehrt überkomplett – mit Dingen, die vorhanden sind, aber nicht vorhanden sein sollten – oder dass es Aspekte enthält, die einfach falsch oder falsch kodiert sind, oder alles davon. Da viele Ensemble-Modelle ähnliche oder sogar identische Elemente haben, könnte man ferner argumentieren, dass die Ergebnisse der Ensemble-Modelle nicht unabhängig sind, dass sie korreliert sind. Das bedeutet, dass man die „effektive Anzahl“ N der unabhängigen Modelle berücksichtigen sollte. Wenn N = 1 wäre, würde dies bedeuten, dass alle Modelle im Wesentlichen identisch sind, wobei der Bereich von 1,8°C bis 5,6°C ein Hinweis auf den intrinsischen Fehler wäre (was eine ziemlich schlechte Darstellung wäre). Wahrscheinlicher ist, dass N irgendwo im Bereich von 3 bis 7 liegt – mit einer intrinsischen Streuung von z.B. 0,5°C für ein einzelnes Modell – und wir sind wieder bei dem hypothetischen Beispiel oben.
Die Wahrscheinlichkeit von etwa 3 zu 2, dass keines der Modelle richtig ist, dürfte politisch interessant sein. Würden Sie mit diesen Quoten viel von Ihrem hart verdienten Geld auf ein Pferd setzen? Ist es klug, die Energieversorgung und damit die gesamte Wirtschaft Ihres Landes auf solche Quoten zu setzen?
Nachhersage
Ein anonymer Rezensent einer meiner früheren Schriften gab diesen offenen Kommentar ab, und ich zitiere:
Die Erfolgsbilanz der GCM’s ist insofern enttäuschend, als sie nicht in der Lage waren, den beobachteten Temperatur-Stillstand nach dem Jahr 2000 vorherzusagen, und auch nicht vorhersagen konnten, dass die Tropopausentemperaturen in den letzten 30 Jahren nicht gestiegen sind. Das Versagen der GCMs ist nicht auf Fehlverhalten zurückzuführen, aber die Modellierung des Erdklimas ist eine große Herausforderung.
Der wahre Wissenschaftler weiß, dass Klimamodelle noch in Arbeit sind. Der Pseudowissenschaftler, der unter dem Druck steht, die „Vorhersagen“ zu halten, muss einen Weg finden, um die Modelle und die Temperaturdaten der realen Welt „in Einklang zu bringen“.
Eine Möglichkeit dazu besteht darin, die Temperaturdaten in einem Prozess zu massieren, der „Homogenisierung“ genannt wird (z.B. Karl et al., 2015). Auf wundersame Weise verschwindet der „Stillstand“. Ein merkwürdiger Aspekt einer solchen „Homogenisierung“ ist, dass bei jeder Anwendung die „angepassten“ vergangenen Temperaturen immer niedriger sind, wodurch die angeblich „künstliche Erwärmung“ größer wird. Niemals andersherum. Offensichtlich kann man diesen kleinen Handgriff nur einmal ausführen, vielleicht zweimal, wenn niemand zusieht. Aber danach wird selbst der Dorftrottel verstehen, dass er reingelegt wurde, und die „Homogenisierung“ in den gleichen Mülleimer der Geschichte werfen wie Lysenkos „Vernalisierung“.
Der andere Weg ist die Anpassung der Modellparameter an die Beobachtungen (z.B. Hausfather et al., 2019). Angesichts der vielen anpassbaren Parameter und unter Berücksichtigung von von Neumans Witz ist es nicht überraschend, dass die Modelle durch eine solche „Nachhersage“ recht gut an die Daten angepasst werden können. In der kriecherischen Mainstream-Presse herrscht überall Eifer, mit manchmal urkomischen Ergebnissen. So verkündete beispielsweise ein Korrespondent einer überregionalen niederländischen Zeitung enthusiastisch, dass die Modelle die Temperaturen der letzten 50 Jahre korrekt vorhergesagt hätten. Dies wäre wirklich eine bemerkenswerte Leistung, denn die früheste Software, die als „Klimamodell“ betrachtet werden kann, stammt aus den frühen 1980er Jahren. Eine interessantere Frage ist jedoch: Können wir erwarten, dass ein derart angepasstes Modell eine Vorhersagekraft hat, insbesondere im Hinblick auf die Zukunft? Die Antwort ist ein schallendes „Nein“.
Sind Klimamodelle nutzlos?
Natürlich nicht. Sie können sehr nützlich sein als Werkzeuge zur Erforschung jener Aspekte der Physik der Atmosphäre und des Klimasystems, die noch nicht verstanden werden oder deren Existenz noch nicht bekannt ist. Wofür man sie nicht verwenden kann, sind Vorhersagen.
[Hervorhebung vom Übersetzer]
References:
Eyring V. et al. Nature Climate Change, 9, 727 (2019)
Zelinka M. et al. Geophysical Research Letters, 47 (2020)
Karl T.R., Arguez A. et al. Science 348, 1469 (2015)
Hausfather Z., Drake H.F. et al. Geophysical Letters, 46 (2019)
[Es folgt eine interessante Beschreibung der Bestimmung der Wahrscheinlichkeit, mit der ein bestimmtes Modell korrekt ist. Das ist das tägliche Brot eines Wetter-Prognostikers. Ein Faktor wird hierbei aber nicht erwähnt: Die Erfahrung eines seit Jahrzehnten praktizierenden Wetter-Prognostikers ist ein sehr gewichtiger statistischer Faktor, ist doch Erfahrung nichts anderes als Statistik. Dennoch, kein seriöser Prognostiker würde eine Prophezeiung, die über höchstens eine Woche hinausgeht, als Prognose bezeichnen – und sie schon gar nicht zu einer Grundlage schwer wiegender Entscheidungen machen.
Diese allgemein theoretische Betrachtung wird hier nicht mit übersetzt. Anm. d. Übers.]
Addendum: an analysis of probabilities
First the case of 5 models of which at most 1 can possibly be right. What is the probability that none of the models are correct? All models are a priori equally valid. We know that 4 of the models are not correct, so we know at once that the probability of any model being incorrect is at least 0.8. The remaining model may or may not be correct and in the absence of any further information both possibilities could be equally likely. Thus, the expectation is that, as a matter of speaking, half a model (of 5) is correct, which means the a priori probability of any model being incorrect is 0.9. For N models it is 1.0-0.5/N. The probability that all models fail then becomes: F=(1-0.5/N)^N which is about 0.6 (for N > 3). This gives us odds of 3 to 2 that none of the models are correct and it is more likely that none of the models are correct than that one of them is. (If we had taken F=(1-1/N)^N the numbers are about 0.34 with odds of 1 to 2)
Now an altogether different question. Suppose one of the models does give us the correct experimental result, what is the a posteriori probability that this model is indeed correct, given the results of the other models? Or, alternatively, that the model is incorrect even when it gives the ‘right’ result (by coincidence)? This posterior probability can be calculated using Bayes’ theorem,
P(X|Y) = P(Y|X)*P(X)/P(Y),
where P(X|Y) stands for the probability of X given Y and P(X) and P(Y) are prior probabilities for X and Y. In this case, X stands for ‘the model is incorrect’ and Y for ‘the result is correct’, in abbreviated form M=false, R=true. So the theorem tells us:
On the right-hand side the first term denotes the false-positive rate of the models, the second term is the probability that the model is incorrect and the third is the average probability that the result predicted is accurate. Of these we already know P(M=false)=0.9 (for 5 models). In order to get a handle on the other two, the ‘priors’, consider this results table:
The ‘rate’ columns represent a number of possible ensembles of models differing in the badness of the incorrect models. The first lot still give relatively accurate results (incorrect models that often return the about correct result, but not always; pretty unrealistic). The last with seriously poor models which on occasion give correct results (by happy coincidence) and a number of cases in between. Obviously, if a model is correct there is no false-negative (TF) rate. The false-positive rate is given by P(R=true|M=false) = FT. The average true result expected is given by 0.1*TT + 0.9*FT = 0.82 for the first group, 0.55 for the second and so on.
With these priors Bayes’ Theorem gives these posterior probabilities that the model is incorrect even if the result is right: 0.87, 0.82 etc. Even for seriously poor models with only a 5% false positive rate (the 5th set) the odds that a correct result was made by an incorrect model are still 1 to 2. Only if the false positive rate (of the incorrect models) drops dramatically (last column) can we conclude that a model that produces the experimental result is likely to be correct. This circumstance is purely due to the presence of the incorrect models in the ensemble. Such examples shows that in an ensemble with many invalid models the posterior likelihood of the correctness of a possibly correct model can be substantially diluted
Ist die aktuelle Änderung des Meeresspiegels im Vergleich mit historischen Zeiten einzigartig?
|
Der Meeresspiegel über die Jahrtausende
Wie immer zuerst Informationen, welche uns Klimafachpersonen (und Gremien) darüber bieten.
[3]WIKI Bildungsserver: Meeresspiegeländerungen … In der späteren Nacheiszeit stieg der Meeresspiegel über mehrere Jahrtausende deutlich an. So ist er zwischen 7000 und 3000 Jahren v.h. um 2-3 m gestiegen. In den letzten 2000 Jahren gab es dann nur noch geringe Schwankungen, die unter 25 cm über mehrere Jahrhunderte lagen …
Dazu eine Grafik, in welcher man von den 2-3 m Anstieg zwischen den „7000 und 3000 Jahren v.h.“ nichts erkennen kann.
[4] DKK Deutsches Klima-Konsortium KLIMA-FAQ 5.2:MEERESSPIEGEL Wie ungewöhnlich ist die aktuelle Änderungsgeschwindigkeit des Meeresspiegels? … belegen sie eine mittlere Änderungsgeschwindigkeit des Meeresspiegels seit dem späten 19. Jahrhundert von 2,1 ± 0,2 mm pro Jahr. Dieser jahrhundertlange Anstieg übersteigt jede andere 100-Jahres-Änderungsrate in der gesamten 2000-jährigen Aufzeichnung für denselben Küstenbereich. … instrumentelle Messungen und geologische Daten stützen die Schlussfolgerung, dass die aktuelle Änderungsgeschwindigkeit des mittleren globalen Meeresspiegels im Verhältnis zu den beobachteten und/oder geschätzten Änderungen während der letzten zwei Jahrtausende ungewöhnlich ist …
Dazu eine Grafik, in welcher gezeigt wird, dass die Änderungsrate seit ca. 2000 Jahren fast Null beträgt, doch seit der Satellitenmessung mit über 3 mm/pa die durchschnittliche Rate der letzten 2 Jahrtausende um Größenordnungen übersteigt.
Professor Rahmstorf (PIK) informiert auf seinem Blog detailliert mit Text und vielen Grafiken.
Darin erfährt man, dass der Meerespegel die letzten ca. 2500 Jahre um maximal 10 … 15 cm schwankte und aktuell am höchsten ist (Bild 3). Gleiches gilt für die Pegel- Änderungsgeschwindigkeit. [5] Stefan Rahmstorf, SCILOGS 22. Feb 2016: Meeresspiegel über die Jahrtausende
… Schauen wir sofort das Hauptresultat an. Der globale Meeresspiegelverlauf sieht folgendermaßen aus (Anm.: Bild 3):
[5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik.
Wenn Herr Rahmstorf irgendetwas zum Klimawandel von sich gibt, dürfen Apokalypsen, – immer resultierend aus irgendwelchen Irrsinns-Simulationen des PIK – niemals fehlen: [5] Stefan Rahmstorf: … Die schlechte Nachricht ist, dass nach diesem Eismodell das Antarktiseis rascher zerfallen kann als bislang gedacht.
„Seine“ Simulationen erlauben es, den Meerespegel für 10.000 Jahre im Voraus zu bestimmen: [5] Stefan Rahmstorf: … Zehntausend Jahre Meeresspiegelanstieg voraus
… Durch unsere Treibhausgasemissionen setzen wir derzeit einen Anstieg in Gang, der bei 25 bis 50 Metern über dem heutigen Meeresspiegel enden dürfte.
Voller Stolz deshalb die Information von Herrn Rahmstorf, dass auch ausländische Medien darauf hereinfallen:
Was sagt der letzte IPCC-Bericht AR5?
Zuerst ein Blick in den letzten IPCC-Bericht AR5 (Langfassung). Darin findet sich zu diesem wichtigen Zeitraum recht wenig, schon gar keine aussagefähigen Grafiken. Das IPCC interessiert sich erkennbar nur für die ganz kurze Vergangenheit, alleine, um den AGW-Klimawandel zu belegen. Der kompromittierende Vergleich mit der relevanten Klimahistorie ist (wohl bewusst) weggelassen.
Von dem Wenigen an Information, Auszüge anbei. „Zugegeben“ – aber nur mit „likely“ – wird, dass der Meerespegel vor 7 … 3.000 Jahren 2 … 3 m höher war. Für die letzten 2.000 Jahre soll er dann nur noch um maximal +-25 cm geschwankt haben:
[6] AR5 Langfassung: Chapter 13 Sea Level Change … Since the AR4, there has been signifiant progress in resolving the sea level history of the last 7000 years. RSL records indicate that from ~7 to 3 ka, GMSL likely rose 2 to 3 m to near present-day levels (Chapter 5). Based on local sea level records spanning the last 2000 years, there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years (Section 5.6.3, Figure 13.3a). The most robust signal captured in salt marsh records from both Northern and Southern Hemispheres supports the AR4 conclusion for a transition from relatively low rates of change during the late Holocene (order tenths of mm yr–1) to modern rates (order mm yr–1) (Section 5.6.3, Figure 13.3b). However, there is variability in the magnitude and the timing (1840–1920) of this increase in both paleo and instrumental (tide gauge) records (Section 3.7). By combining paleo sea level records with tide gauge records at the same localities, Gehrels and Woodworth (2013) concluded that sea level began to rise above the late Holocene background rate between 1905 and 1945, consistent with the conclusions by Lambeck et al. (2004).
Im Bild 7 aus dem Bericht sieht man zumindest, dass der „schlimme“ Pegelanstieg seit 1880 von ca. 25 cm in den letzten 3.000 Jahren eigentlich der „Normalfall“ war und bezüglich Größe und Geschwindigkeit im regelmäßigen „Änderungsrauschen“ verschwindet.
Zu der Abbildung: Figure 13.3 | (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites. The effects of glacial isostatic adjustment (GIA) have been removed from these records. Light green = Iceland (Gehrels et al., 2006), purple = Nova Scotia (Gehrels et al., 2005), bright blue = Connecticut (Donnelly et al., 2004), blue = Nova Scotia (Gehrels et al., 2005), red = United Kingdom (Gehrels et al., 2011), green = North Carolina (Kemp et al., 2011), brown = New Zealand (Gehrels et al., 2008), grey = mid-Pacifi Ocean (Woodroffe et al., 2012) (b) Paleo sea level data from salt marshes since 1700 from Northern and Southern Hemisphere sites compared to sea level reconstruction from tide gauges (blue time series with uncertainty) (Jevrejeva et al., 2008). The effects of GIA have been removed from these records by subtracting the long-term trend (Gehrels and Woodworth, 2013). Ordinate axis on the left corresponds to the paleo sea level data. Ordinate axis on the right corresponds to tide gauge data. Green and light green = North Carolina (Kemp et al., 2011), orange = Iceland (Gehrels et al., 2006), purple = New Zealand (Gehrels et al., 2008), dark green = Tasmania (Gehrels et al., 2012), brown = Nova Scotia (Gehrels et al., 2005). (c) Yearly average global mean sea level (GMSL) reconstructed from tide gauges by three different approaches. Orange from Church and White (2011), blue from Jevrejeva et al. (2008), green from Ray and Douglas (2011) (see Section 3.7)…
Weil man im IPCC-Bericht gerade im Kapitel zum Meerespegel „ist“, noch ein Beispiel zur (Des-)Information darin gezeigter Grafiken.
Parallel mit anderen Pegeln wird auch der von Manila gezeigt:
Nun weiß jeder „gute“ EIKE-Leser, dass Manila ein „Vorzeige“- weil Extrembeispiel — für selbst verursachte Landsenkung ist und der „Tidenpegelverlauf“ damit eine vollkommen falsche Aussage vermittelt:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen Man dürfte die Pegelgrafik von Manila – die nicht Pegeländerung, sondern ausschließlich eine extreme Landsenkung zeigt – deshalb grundsätzlich nicht mit anderen Pegelgrafiken in der gleichen Reihe zeigen, da Leser, welche den Sachverhalt nicht kennen, eine vollkommen falsche Information ableiten.
Erst im Text findet sich dann ein etwas „lapidarer“ Hinweis, dass mit dem Pegelbild etwas nicht stimmt „the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping“. Aber auch da fehlen Daten, sodass man dieses häufige Problem, „is common in many coastal regions“ selbst anhand des Langeberichtes nicht entfernt quantifizieren kann:
AR5: … In addition to regional inflences of vertical land motion on relative sea level change, some processes lead to land motion that is rapid but highly localized. For example, the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping. Land subsidence due to natural and anthropogenic processes, such as the extraction of groundwater or hydrocarbons, is common in many coastal regions, particularly in large river deltas.
Dass deshalb selbst Klimawandel-Fachpersonen unseres Bundestages, welche als ausgesuchte Fachmannschaft extra auf eine lange und teure Recherchereise ging, um dieses Problem persönlich vor Ort zu analysieren, deshalb mit völliger Unkenntnis hin – und mit noch mehr zurück kamen, lässt sich nachlesen:
EIKE 30. April 2019:Claudia Roth auf Forschungsreise zum Klimawandel
„Offizielle“ Darstellung
Nach diesen Hinterlegungen der „Wissenschaft“ zum Klimawandel war der Meerespegel vor ca. 7 … 3.000 Jahren 2 bis 3 m höher [6], seitdem bewegte er sich dann nur noch in einer Spanne von ca. +-25 cm [6], laut Herrn Rahmstorf seit den letzten Zweitausend Jahren nur um ca. +-5 cm (Bild 3).
Zum Meerespegel gibt es jedoch auch detailliertere Informationen
Dazu der Hinweis, dass ein erheblicher Teil dieses „Wissens“ aus Hinterlegungen der Plattform NoTricksZone entnommen wurde [7].
Selbst wenn man nur oberflächlich sucht, finden sich viele –vor allem auch neuere – Pegelstudien, die der „wissenschaftlichen“ Angabe zum seit ca. 3.000 Jahren angeblich flachen, sich nur um wenige Zentimeter veränderndem Meerespegel eklatant widersprechen. Anbei solche Beispiele
Langfristdarstellungen (seit etwa Ende der letzten Eiszeit)
Hinweis: Diese Studien geben nicht den globalen Meerespegel an (das Pegelbild von Herrn Rahmstorf weist ihn allerdings auch nicht global aus, er leitet den globalen jedoch daraus ab).
Es dürfte jedoch unwahrscheinlich sein, dass länger andauernde, große lokale Pegeländerungen sich nicht ausgleichen und damit auch global vorhanden sind. Dass die Proxis rund um den Globus ähnliche Verläufe zeigen, erhärtet diese Annahme. Mit Sicherheit sind sie deshalb eine brauchbare Orientierung auch über den globalen Pegelverlauf.
Leider „lieben“ es die Studienautor*innen, die Zeitachse beliebig mal nach Links, dann nach Rechts zu drehen. Deshalb bei jedem Bild neu darauf achten, in welcher Richtung das aktuelle Jahrtausend liegt.
Fazit
Es ist überraschend, wie stark die Pegelrekonstruktionen bezüglich des Verlaufs rund um den Globus übereinstimmen. Auch interessant allerdings, wie extrem die Auflösungen und natürlich auch die Absolutwerte variieren.
Doch eines lässt sich mit Sicherheit sagen: Die von Herrn Rahmstorf gezeigte Pegelrekonstruktion der letzten 2.500 Jahre (Bild 3) stimmt nicht. Sie zeigt bei Weitem nicht die wirklichen Pegel-Variabilitäten und erinnert damit an die „Hockeystick-Kurve, wo genau das gleiche (Verschleiern der hohen, wirklichen Variabilität durch Mittelwertbildungen) gemacht wurde.
Der Autor traut sich auch zu behaupten, dass zu seiner weiteren Aussage problemlos Gegenbelege möglich sind: [5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik …
Um das zu zeigen, ist der Zeitraum der letzten 3000 Jahre wichtig. Leider nehmen die Studien darauf keine „Rücksicht“, deshalb anbei weitere Grafiken aus Studien, welche diesen Zeitraum etwas detaillieren.
Pegel im Zeitraum seit etwa 3.000 Jahren
Ähnlich stellt es auch die folgende Studie dar:
Zeigt sich der „Pegelverlauf“ auch in den Temperaturverläufen?
Anbei Proxydaten zur Temperatur seit der letzten Eiszeit (Bild 26). Würde man „Pegelverläufe“ darunter schreiben, würde es jeder sofort glauben, so ähnlich sind die Verläufe (und vielen Abweichungen).
Auffällig ist die enorme Spanne der Proxytemperaturen, aber vor allem die darin ausgewiesenen, enormen und schnellen Schwankungen (die es angeblich nicht gegeben hat).
Manchem Leser wir verblüffen, warum aktuell das „Verbrennen“ der Erde verkündet wird. Sofern die Proxis die Temperaturverläufe auch nur im Ansatz richtig abbilden, müsste eher von einer „Erkältung“ gesprochen werden. Aber wenn man die Vergangenheit weglässt, lässt sich eben alles fabulieren.
Originaltext zur Abbildung: Figure S1. Temperature trends recorded over the past 4000-7000 years in high latitude proxy and CGCM data. Multi-millennial TRW records from Sweden 1, Finland2, and Russia3 (all in grey) together with reconstructions of the glacier equilibrium line in Norway4,5 (blue), northern treeline in Russia3,6 (green), and JJA temperatures in the 60-70 °N European/Siberian sector from orbitally forced ECHO-G7,8 (red) and ECHAM5/MPIOM9 (orange) CGCM runs10. All records, except for the treeline data (in km) were normalized relative to the AD 1500-2000 period. Resolution of model and TRW data were reduced (to ~ 30 years) to match the glacier data.
In die folgenden Grafik ist eine Verlaufskurve aus anderer Quelle kopiert. Die zwei „Mittelwertlinien“ lasse erkennen, wie man durch Mitteln alle „kompromittierenden“ Variabilitäten der Vergangenheit „wissenschaftlich“, da „statistisch fundiert“, verschwinden lassen kann.
Vermutung: Vom IPCC und von Prof. Rahmstorf angegebene Pegelverläufe können nicht stimmen
Alleine das Vergleichen der Angaben von „Klimafachpersonen“ mit den Verläufen aus Pegelrekonstruktionen führt zu dem einzig möglichen Schluss: Die „offiziellen“ Angaben:
-IPCC AR5: Die letzten 2.000 Jahre soll der Meerespegel nur noch um maximal +-25 cm geschwankt haben
-laut Rahmstorf die letzten 2.500 Jahre um maximal 10 … 15 cm
und dazu gezeichnete Bilder (typisch auch Bild 1) – , wie auch die Angabe, der aktuelle Anstieg wäre die letzten 2.500 Jahre noch nie dagewesen, sind genau so falsch, wie es der Hockeystick zur Temperatur ist (rein persönliche Überzeugung des Autors anhand vieler Studiensichtungen allerdings durch keine „Klimafachperson“ belegt).
Um zu zeigen, wie bewusst „Klimawissenschaft“ in ihren Darstellungen lügt Information weglässt um nur das „Gewünschte“ auszusagen, anbei oft zu findende Pegelgrafiken, ergänzt um die darin weggelassenen Zusatzinformationen, die sich zwangsläufig aus den Proxis ergeben.
Anhand der folgen Proxyüberlagerungen zeigt sich die unglaubliche Pegelvarianz seit dem Ende der letzten Eiszeit, aber auch der laut Prof. Rahmstorf im Pegel fast nicht schwankenden, letzten 2.500 Jahre.
Entweder ist Prof. Rahmstorf genial und alle anderen Klimawissenschaftler mehr als blöde (da im Gegensatz zu Prof. Rahmstorf nicht entfernt in der Lage, Pegelproxys zu generieren), oder etwas anderes trifft zu.
Der Autor vermutet es mehr als stark (rein persönliche Meinung, durch keine Aussage eines renommierten Klimawissenschaftlers belegt).
Fazit
Anhand von – mit Sicherheit die Vergangenheit nicht richtig darstellenden – Pegelverläufen der offiziellen „Klimawissenschaft“ werden die Klimasimulationen „kalibriert“, welche dann wie es Prof. Rahmstorf behauptet, die nächsten 10.000 Jahre Klimageschehen vorhersagen können …
Jetzt kann sich jeder Leser fragen:
– was darf man von den Angaben der „Klimawissenschaftler*innen“ glauben
– wie konnten solche gewaltigen Variabilitäten geschehen, obwohl das angeblich fast alleine die Temperatur treibende CO2 sich während dieser Zeiträume kaum verändert hat?
Mit Sicherheit ist es kein Zufall, dass diese „kompromittierenden“ Variabilitäten in offiziellen Grafiken (und Texten) regelmäßig fehlen durch geeignetes Mitteln „statistisch fundiert“ entfernt sind.
Entweder hat die Klimawissenschaft das Klima noch gar nicht verstanden, oder sie verheimlicht Wichtiges dazu
Anmerkung: Der Autor vermutet das Erste. Ergänzend zur bisherigen Betrachtung der letzten ca. 8.000 Jahre, soll nun auch die letzte Eiszeit gesichtet werden. Ein Ergebnis ist, dass nicht nur während der letzten 2.500 und 8.000 Jahre kein plausibler Zusammenhang zwischen CO2-Konzentrationsveränderungen und Meerespegel besteht, das „Verhalten“ der Temperatur während der Eiszeit „verbietet“ eigentlich jeden Gedanken daran.
Auch mit schlimmsten „ökotheologischen“ Tatsachenverdrehungen, lässt sich der Verlauf wirklich nicht mehr mit CO2-Konzentrationen in Verbindung bringen.
Zur abschließenden Veranschaulichung, wie die „offiziellen“ Klimagrafiken betrügen durch gezieltes Weglassen das Gegenteil der Wirklichkeit vermitteln (sollen), noch der Temperaturverlauf der letzten Eiszeit als „offizielle“ Darstellung (Ausschnitt aus Bild 31) und mit den damals stattgefunden Dansgaard-Oeschger –Ereignissen, die gewaltige und extrem schnelle Temperatursprünge waren.
Nach der AGW-Klimawandeltheorie kann das was damals mit der Temperatur passierte, in der wahren Natur überhaupt nicht möglich sein (weil die angeblich alleine die Temperatur treibende CO2– Konzentration sich während dieser Zeit fast nicht veränderte). Trotzdem ist es regelmäßig und in gewaltigen Ausmaßen geschehen.
Manchmal kommen auch Klimaforscher dank umfangreicher Fördermittel auf Erkenntnisse, die einem Laien alleine aufgrund einfacher Datensichtungen auffallen: EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher AWI: [11] … Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.
Quellen
[1] EIKE 29. Juni 2020: Wie schnell steigt eigentlich der Meeresspiegel?