1

Wo Wissenschaft noch Wissenschaft ist – und wo nicht. Universitäre Klimaforschung

Dieser Wissenschafts-Prozess hakt allerdings in den Geisteswissenschaften, wo 80 Prozent der in Fachjournalen publizierten Arbeiten von der entsprechenden Wissenschaftsgemeinde überhaupt nicht zur Kenntnis genommen werden. Das heißt, dass 80 Prozent aller publizierten geisteswissenschaftlichen Ergüsse nicht ein einziges Mal von einem anderen Forscher zitiert werden. Diese Arbeiten enthalten also ganz offensichtlich weder Erkenntnisse, die geeignet sind zur Begründung weiterführender oder vertiefender Untersuchungen, noch erscheinen sie anderen Wissenschaftlern als so relevant oder interessant, dass sie sich kritisch mit ihnen auseinandersetzen oder sie gar widerlegen wollten.

In den Naturwissenschaften verhält es sich glücklicherweise meist anders. Obwohl es natürlich auch hier Forschung für den Papierkorb gibt, aber eben in deutlich kleinerem Maßstab als in den Geisteswissenschaften. Unter der Überschrift „Wenn Bewährtes scheitert“ hat kürzlich das Deutsche Ärzteblatt auf ein gutes Beispiel für eine funktionierende Wissenschafts-Kultur hingewiesen. Es handelt sich dabei um eine in zweierlei Hinsicht bemerkenswerte Studie aus den USA: Zum einen ist die systematische und anspruchsvolle Fleißarbeit des Autorenteams zu loben, zum anderen der Gegenstand dieser Fleißarbeit, nämlich klinische Studien aus ganz verschiedenen medizinischen Gebieten, in denen zwar gängige, aber nicht gut oder auch gar nicht belegte Therapien einer kritischen Prüfung ihrer Wirksamkeit unterzogen wurden.

Denn nicht selten sind Mediziner mit dem Problem konfrontiert, dass es für den gerade vor ihnen sitzenden oder liegenden Patienten mit seinem gesundheitlichen Problem keine durch methodisch einwandfreie Forschungsergebnisse belegte Therapie gibt. Was macht man in einer solchen Situation? Man entscheidet sich für das, was unter Berücksichtigung des übrigen medizinischen Wissens und der eigenen Erfahrung plausibel erscheint. Das kann durchaus funktionieren – oder eben auch nicht.

Liebgewordene Erkenntnisse über Bord werfen

Die Forschergruppe hat nun für den Zeitraum von 2001 bis 2017 aus den weltweit führenden drei Medizinjournalen mehr als 3.000 randomisierte klinische Studien herausgefiltert und näher analysiert. Dabei ermittelten sie 396 Treffer, also Studien, die gängige Therapien im Vergleich zu anderen Therapien oder Placebo als unwirksam, unnötig oder gar schädlich identifizierten. Bei den untersuchten Therapien geht es vor allem um verschiedene medikamentöse Behandlungen einschließlich der Einnahme von bestimmten Nahrungsergänzungsmitteln, aber auch um invasive Verfahren wie die Anlage eines Stents bei bestimmten Herzerkrankungen. Ein Nebenergebnis dieser Analyse belegt zudem die Notwendigkeit unabhängiger Forschungsförderung: Während der Anteil von industriegesponserten Studien insgesamt gut 40 Prozent betrug, traf das auf nur 9 Prozent der erwähnten 396 Studien zu.

In der klinischen Medizin herrscht also ganz offensichtlich nicht die Meinung, dass es ewige therapeutische Wahrheiten gibt, die sozusagen unantastbar und sakrosant sind. Etwa weil die überwältigende Mehrheit der einschlägigen Fachärzte, Lehrstuhlinhaber oder Fachgesellschaften von der Wirksamkeit dieser Methoden restlos und frei von vernünftigen Zweifeln überzeugt sind. Wissenschaft ohne Offenheit für Neues, ohne Bereitschaft, auch sehr, sehr liebgewordene Erkenntnisse durch bessere, widerspruchsfreiere über Bord zu werfen, würde nicht mehr die Bezeichnung Wissenschaft verdienen und alle Beteiligten schlussendlich ins Abseits führen.

Natürlich gibt es auch in der Medizin, wie in allen Wissenschaften, so etwas wie die Grundlagen oder Basics, die sinnvollerweise nicht mehr zur Diskussion stehen. Aber bereits bei der Frage, wo genau die Grenze zwischen diesen kristallisierten Basics und den beginnend fluiden fachlichen Grundlagen des Faches zu ziehen ist, wird man keine hundertprozentige Übereinstimmung unter Medizinern mehr herstellen können. Ganz zu schweigen von den offen geführten kontroversen Diskussionen, die es zu zahllosen speziellen, aber auch grundlegenden Fragen des Faches gibt.

Manchmal allerdings dauert es in der Medizin lange oder vielleicht auch zu lange, bis ein einmal eingeschlagener Forschungspfad aufgegeben wird. Ein solches Beispiel betrifft die bisher weitestgehend erfolglose Suche nach medikamentösen Therapien für die Alzheimer-Krankheit. Wie mittlerweile klar geworden ist, hatten sich die führenden Forscher nahezu geschlossen, vorschnell und einseitig auf eine bestimmte und durchaus gut untersuchte Theorie – fast schon ein Basic– – zur Krankheitsentstehung festgelegt, die aber ganz offensichtlich nur einen Teilaspekt des Geschehens erklärt. Aber, wie es sich für eine Wissenschaft nun einmal gehört, hat das ständige Scheitern mit verschiedenen – theoretisch immer überzeugenden – Pharmaka im praktischen Versuch an echten, nicht an virtuellen, Patienten schließlich zu einem Umdenken geführt, es geradezu erzwungen.

Wenn Wissenschaft sich der Politik andient

Ungeachtet dieses letzten Beispiels möchte ich trotzdem behaupten, dass die Erkenntnisse der Medizin über ihren Haupt-Forschungsgegenstand – die Krankheiten des Menschen – umfassender, detaillierter und abgesicherter sind, als es beispielsweise in der Klimawissenschaft in Bezug auf den Klimawandel der Fall ist. Das gilt nicht zuletzt deshalb, weil man es in der Medizin im Gegensatz zum Klimawandel nicht „mit einem gekoppelten, nichtlinearen und chaotischen System“ (IPCC) zu tun hat.

Wieso man angesichts dieser Voraussetzungen und einer von steten Klimawandeln geprägten Erdgeschichte den aktuell vor sich gehenden Klimawandel de facto monokausal glaubt erklären zu können, wird zweifellos als großes Rätsel in die Wissenschaftsgeschichte eingehen. Und dass Vertreter einer Wissenschaft und sogenannte Wissenschaftsjournalisten sich trauen zu behaupten, es gäbe unter den Klimaforschern zu einem so komplexen Problem wie den Treibern des gegenwärtigen Klimawandels einen grundlegenden Konsens von 97 Prozent, lässt tief, ja geradezu in Abgründe blicken. Unberücksichtigt bleiben soll ausnahmsweise, dass diese Prozentangabe nicht stimmt, denn das ist hier nicht der entscheidende Punkt.

Vielmehr zeigt das Prahlen mit dieser vermeintlich exorbitant hohen Übereinstimmung innerhalb der Wissenschaftsgemeinde zweierlei: wie weit man sich in der Mainstream-Klimawissenschaft bereits von herkömmlichen Wissenschafts-Idealen und -Standards entfernt hat und in welchem Maße das Schicksal des Faches – meist auch des eigenen – mittlerweile verwoben ist mit der Politik. Denn die Politik würde nicht Riesensummen über einen längeren Zeitraum auf der Grundlage von offen als unsicher deklarierten, sehr kontrovers und ergebnisoffen diskutierten Hypothesen für die Forschung und die gesellschaftliche Transformation bereitstellen.

Um so etwas machen zu können, braucht die Politik vielmehr nicht zu komplizierte, sondern auf den ersten Blick plausibel erscheinende und zumindest dem Anschein nach abgesicherte und unstrittige Ergebnisse. Wenn dann die Agenda der Wissenschaftler noch zeitgeistkompatibel ist, vielfältige Möglichkeiten für die Lieblingsbeschäftigung der meisten Politiker – regulieren und neue Steuern erlassen – eröffnet und zudem ein sogar im globalen Maßstab sinnstiftendes Potenzial bietet, steht einer wunderbaren Zusammenarbeit nichts mehr im Wege.

Die durch die mediale, politische und finanzielle Protektion mittlerweile übermächtig und omnipräsent erscheinende Mainstream-Klimawissenschaft hat es jedenfalls geschafft, dieses Anforderungsprofil der Politik zu erfüllen – und es mit Hauen und Stechen zu verteidigen. Die Klimawissenschaft hat seinerzeit die Gunst der Stunde genutzt und sich unter sehr wohlmeinender Beobachtung der Medien der Politik angedient, sich ihr geradezu prostituiert. Allerdings werden die Mainstream-Klimaforscher nun die Geister nicht mehr los, die sie riefen. Sie sind dazu verdammt, Politik und Medien jeden Wunsch zu erfüllen. Also: immer mehr vom Gleichen zu liefern und die sogenannte Klimakrise dabei immer bedrohlicher erscheinen zu lassen. Gibt die Empirie das nicht her, wird bei der Computer-Modellierung eben scaling betrieben, vulgo: nachgebessert.

Mit freundlicher Genehmigung des Autors. Zuerst erschienen auf der Achse des Guten.




Landwirtschaft: Spielraum verteidigen*

Die Landwirtschaft wird in der Klimadebatte in eine neue Rolle gedrängt, die sie in ihren Möglichkeiten einengen wird. In Debatten über Erderwärmung, CO2-Ausstoss und umweltpolitische oder umweltpolizeiliche Massnahmen kommt früher oder später das Thema Fleisch zur Sprache. Fleisch braucht zur Herstellung eines Kilos weitaus mehr Energie und Wasser als die Produktion von einem Kilo pflanzlicher Nahrung. Energieverbrauch heisst meistens auch CO2-Ausstoss. So ist Fleisch aus der Sicht von Klimaaktivisten mindestens eine doppelte Sünde, nämlich Energieverschwendung und Umweltverschmutzung. Und dahinter stehen die Bauern, die Kälber, Kühe, Schweine, Schafe und andere Tiere halten.

Vor allem Leute, die grüne Argumente im weiteren Sinn öffentlich vertreten, aber doch mobil sein und fliegen wollen, beteuern jetzt gerne, sie würden kein Fleisch essen – und das mache von den CO2-Emissionen her so viel aus, dass sie dafür etliche Male das Flugzeug benutzen könnten. In den Köpfen hat sich eine Art Umrechnungswährung eingenistet, nach dem Muster: Pro Kilo Fleisch, das ich nicht esse, darf ich so und so viel fliegen, und wenn ich vegan bin, noch etwas mehr. Rasch kommt in Gesprächsrunden dann auch die Forderung, Fleischproduktion und Fleischkonsum sollten radikal eingeschränkt oder verboten werden. Besonders abschätzig blickt man in diesem Spiel auf die Typen, die das unsägliche Gut produzieren und womöglich die Konsumenten verführen, die Bauern.

Das ist nicht die einzige Situation, in der die Landwirtschaft einer argwöhnischen bis anschuldigenden Beobachtung ausgesetzt ist. Nächstens kommen mehrere politische Initiativen aufs Tapet, die den Spielraum der Bauern in der Schweiz einengen sollen. Die Trinkwasserinitiative verlangt, dass ein Betrieb die Subventionen verliert, wenn er Pestizide und bestimmte Antibiotika anwendet. Die Initiative gegen synthetische Pestizide zielt auf eine weitere Einschränkung von Pflanzenschutzmassnahmen ab. Die Volksinitiative zur Abschaffung der Massentierhaltung fordert Obergrenzen für Tiere in Ställen. In der Pipeline sind des Weiteren eine Biodiversitäts-Initiative und eine Landschaftsinitiative, die das Bauen im Landwirtschaftsgebiet strenger regeln soll. Zur Debatte stehen schliesslich Verbote für bestimmte Beizmittel für Saatgut oder für die Anwendung von Glyphosat.

Etwas anders machen

Was hat denn eigentlich die Schweizer Landwirtschaft für ein Geschäftsmodell? Seit den neunziger Jahren läuft es darauf hinaus, dass die Bauern einen beträchtlichen Teil ihrer Anstrengungen darauf verwenden, die Natur und das Landschaftsbild zu pflegen, und dass sie dafür Direktzahlungen erhalten. Daneben produzieren sie Nahrungsmittel. So wie es heute läuft, sieht es aber anders aus. Man könnte fast meinen, die Bauern erhielten ihre Direktzahlungen dafür, dass sie sich vom Publikum dreinreden lassen und dass man ihnen vorschreiben kann, was sie anders machen sollen. Die Belehrungen kommen von Politik, NGOs wie WWF oder Detailshändlern wie Migros. Es stimmt, die Bauern müssen tatsächlich etwas anders machen. Sie müssen ihren Spielraum verteidigen, klarmachen, dass sie insgesamt gut einen Drittel der Fläche der Schweiz im Eigentum haben, das Landschaftsbild prägen und mit ihrem eigenen Grund und Boden seit Jahrhunderten so verantwortungsvoll als möglich umgehen. Sie haben als eine der ersten Branchen technischen Fortschritt und Innovationen entfesselt und derart energisch vorangetrieben, dass andere Berufe entstehen und sich ausbreiten konnten und die Leute trotzdem genug zu essen hatten – auch die Experten, die an Vorschriften gegen Nahrungsmittelproduzenten herumstudieren.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich :  Spielraum verteidigen. | Die Weltwoche, Nr. 31 (2019)| 15. August 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Beat Gygi für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Sind die Tage von Wind und Solar gezählt? Wer beseitigt das Problem der erneuerbaren Energien in Europa?

Der unvermeidliche Anstieg der Strompreise und des Netzchaos, den Wind und Sonne zeitweise verursachen, ist nur ein Teil der Konsequenzen, dessen was  von Wind und Sonne besessenen Politikern veranstaltet wird.

Die europäischen Hersteller für Windstromanlagen und Photovoltaikpanels stehen vor einer existenziellen Krise, da die Industrie ihre Produktion in Länder wie die Vereinigten Staaten und China verlagern, in denen die Strompreise nur einen Bruchteil dessen ausmachen, was in einem von „grüner“ Energie besessenen Europa zu bezahlen ist.

Die Ergebnisse für die europäischen Volkswirtschaften sind so katastrophal wie vorhersehbar, wie Dr. Benny Peiser in seinem Vortrag ausführlich darlegte. Im Original folgen dem Video eine Niederschrift und die Präsentationsfolien.

 

Ein kaum zu fassender Niedergang von Europa –  zwischen Utopie des Klimawandels und grüner Energiekrise

  1. Internationale Klimakonferenz des Heartland Institute, Washington DC, am 25. Juli 2019

 

Die in der hier übersetzten Niederschrift eingeklinkten Folien, sind in geringer Größe gespeichert.
Für eine besser lesbare Größe, nutzen Sie bitte diesen Link: Alle Folien als PDF herunterladen
Die Inhalte der Folien sind im Text erläutert.

 

Vortrag von Dr. Benny Peiser

 

Guten Tag. Vielen Dank an das Heartland Institute für die Einladung. Um eine Warnung [an die USA] auszusenden, tun Sie nicht das, was wir in Europa tun. Wir haben gerade von Myron gehört, dass die amerikanische Wirtschaft sich sehr gut entwickelt und um 3% wächst. Europa macht das Gegenteil. Ich habe gerade die heutigen Nachrichten gelesen. Die deutsche Wirtschaft ist im freien Fall, die Rezession im verarbeitenden Gewerbe verschlechtert sich, die schwache europäische Wirtschaft treibt den Kontinent in ein weiteres Verlustjahrzehnt.

Die Energiepreise steigen weiter. Ich werde Ihnen heute sagen, dass es einen Zusammenhang zwischen den steigenden Kosten in Europa und der Stagnation und den wirtschaftlichen Schwierigkeiten gibt, mit denen Europa konfrontiert ist. [natürlich neben weiteren, ebenfalls an die Substanz gehenden Problemen].

Die Herausforderungen, vor denen Europa steht, sind vielfältig, aber aufgrund der in den letzten 10, 20 Jahren beschlossenen Maßnahmen sind die Energiepreise die höchsten der Welt. Sie sind ungefähr drei- bis viermal höher als in den USA, wenn Sie sich vorstellen können, was das bedeutet.

Energieintensive Unternehmen und Branchen investieren nicht mehr in Europa, und das sagen sie offen, weil es keinen Sinn macht, an einem Ort zu investieren, an dem Sie das Drei- oder Vierfache für die benötigte Energie bezahlen müssen. Viele Firmen, sogar europäische Firmen, sogar chinesische Firmen, investieren jetzt in den USA, weil Energie dort billig ist.

Europa verliert an Wettbewerbsfähigkeit. Es stagniert. Die Industrie verlagert ihre Produktion ins Ausland, wo weniger stringente Vorschriften und Ziele gelten. Obwohl Europa auf sehr großen Schiefervorkommen [Öl und Gas] sitzt, wie Sie in vorstehender Folie 2, rechts oben sehen können, sind die Europäer so besessen vom Klimawandel und anderen grünen Themen, dass sie eine Reihe von Verboten, Fracking-Verboten eingeführt haben und sich lieber auf das schöne Russland verlassen und dessen Gas verwenden, anstatt ihr eigenes Gas zu erschließen.

 

Das sind die Herausforderungen. In Bezug auf den wirtschaftlichen Niedergang wird den Menschen in Europa nicht bewusst gemacht, dass ihre internationale Stellung und Wettbewerbsfähigkeit rapide abnimmt. Wir müssen bedenken, dass sich der weltweite Energiebedarf in den nächsten 30, 40 Jahren verdoppeln wird, hauptsächlich weil sich die Entwicklungsländer rasant entwickeln. Ihr Wirtschaftswachstum beträgt 5%, 6%, 7%.

Im 21. Jahrhundert wird Europa nicht in die Dritte Welt, aber in die Zweite Welt absteigen. Die größten Volkswirtschaften der nächsten 30 Jahre werden in dieser Reihenfolge China, Indien und die USA sein. China hat die USA überholt. Indien wird die USA in den nächsten 10 bis 20 Jahren überholen. Wir werden eine völlig andere Weltkarte in wirtschaftlicher und politischer Hinsicht sehen, und Europa scheint keine Lust mehr zu haben, am Ball zu bleiben.

Ich denke, {die Verantwortlichen in Europa] haben einen großen Fehler gemacht, als sie mit der Klimaschutzagenda begannen, die zur größten Agenda in ihrer gesamten Existenzberechtigung wurde. Sie dachten bzw. erfuhren von ihren [ideologischen] Beratern, dass der Welt die Öl und Gasvorräte in Kürze ausgehen, und es deshalb besser wäre, in erneuerbare Energien zu investieren, damit Europa das Energiekraftwerk des 21. Jahrhunderts werden wird.

Europa ist weiter dabei, diese grüne Technologie an die Chinesen zu verkaufen. Das war die Idee. Sie haben vergessen darüber nachzudenken, dass die Chinesen es tatsächlich schaffen – Sonnenkollektoren viel billiger herzustellen, und jetzt kauft Europa im Grunde genommen chinesische Sonnenkollektoren.

Das war der erste Fehler, den Europa begangen hat – … Und denken Sie daran, all diese Bedenken entstanden Jahre vor der Schieferrevolution. Natürlich hat die Schieferrevolution den gesamten globalen Energiemarkt, die gesamte geopolitische Debatte verändert und erneuerbare Energien sind trotz gegenteiliger Beschwörungen bei weitem nicht wettbewerbsfähig gegenüber billigem und reichlich vorhandenem Öl und Gas.

Europa, die EU-Länder, haben jetzt die höchsten Strompreise in den G20 Staaten, verdoppelt für Haushalte, selbst industrielle Nutzer zahlen fast 50% mehr. Wenn die Strompreise sowohl für Haushalte als auch für Unternehmen steigen, geben die Unternehmen die Kosten einfach an die Verbraucher weiter [- sonst gehen sie Pleite]. Die Europäer müssen daher nicht nur mehr für Strom und Energie [für Heizung und Fahrzeuge] bezahlen, sondern auch mehr für Waren und Dienstleistungen, weil die Unternehmen auch mehr für Strom bezahlen müssen.

Wir hatten gerade Europawahlen und die politische Landschaft verändert sich rasant. Die Mainstream-Parteien, sowohl Mitte-Links als auch Mitte-Rechts, die auf diesem Zug des Grünen Klimas  aufsprangen, hatten gehofft, dass sie den Tiger reiten könnten und dadurch populärer würden. Genau das Gegenteil ist passiert.

Die Zentrumsparteien in Europa werden von den neuen populistischen Parteien auf der rechten Seite bedrängt, die sich dieser sehr kostspieligen Politik widersetzen. Es gibt öffentliche Rebellion und Besorgnis über steigende Energiepreise. Viele Menschen stimmen daher für diese populistischen Parteien. Links stimmen die Leute für die Grünen, weil sie das Original sind.

Jede Mainstream-Partei, die glaubt, sie könne diese Masche reiten und Gewinne erzielen, sollte sich Europa ansehen, wo sowohl die Mitte-Links- als auch die Mitte-Rechts-Parteien Stimmenverluste wegen dieses Thema erleiden, aber es ist nicht sehr populär, den Leuten darüber reinen Wein einzuschenken: „Wir werden Ihre Energie jedes Jahr teurer machen und wir machen Ihr Leben überall beschwerlicher.“ Es ist keine sehr beliebte Politik.

Was jetzt in Europa und im Europäischen Parlament geschieht, ist, dass die Mainstream-Parteien nur noch in einer großen Koalition regieren können. Sehr oft braucht man drei Hauptparteien, um regieren zu können.

In den meisten europäischen Ländern ist es, wie ich bereits sagte, aufgrund dieser Besessenheit und des Elends von Millionen Menschen sehr ähnlich. Mainstream-Parteien verlieren Stimmen und verlieren Unterstützung.

Um nur ein Beispiel zu nennen: Die deutschen Sozialdemokraten, also die Demokratische Partei Deutschlands, die früher ungefähr 35%, 40% erhalten hat, sind auf ungefähr 12% bis 15% gesunken. Es ist eine Art Mini-Partei. Die Christdemokraten, die die andere große Partei sind, sind in den niedrigen 20ern. Die Grünen in Deutschland sind heute die größte Partei, auch aufgrund der Klimahysterie.

Die Mainstream-Parteien können jetzt nur noch durch Kollationen an der Macht bleiben. Der neue Präsident der EU-Kommission ist eine Christdemokratin. Aber sie konnte nur mit den Stimmen der Sozialisten gewählt werden. Es ist ein bisschen wie Trump, der mit den Stimmen der Demokraten gewinnt. Denn obwohl sie einen Pakt vereinbarten, gewann sie mit nur neun Stimmen Mehrheit im Europäischen Parlament. Es gibt tiefe, tiefe Spaltungen.

Der Preis, den sie für ihre Wahl zahlen musste, und wir sprechen hier von einer Christdemokratin, ist, dass sie die radikalste grüne Politik versprechen musste. Ich glaube nicht einmal, dass einige der grünen NGOs so weit gegangen sind wie sie.

Sie will jetzt einen Green Deal für Europa einführen, mit dem sie die Emissionsziele für 2030 erhöhen will. Sie will Europa klimaneutral machen. Mit anderen Worten, vollständige Dekarbonisierung bis 2050. Interessanterweise möchte sie jedem Land, das keine ähnlichen Ziele hat, einen Handelskrieg erklären.

Mit anderen Worten, sie glaubt, durch Einfuhrzölle für chinesische, indische, afrikanische und amerikanische Produkte die europäische Industrie wettbewerbsfähig zu halten. Sie vergaß, dass Europa auch Sachen exportieren muss. Als hätten wir nicht genug Probleme mit der internationalen Handelssituation, denke ich, dass dies nicht sehr gut ankommt.

Das Problem, das sie natürlich hat, ist, dass das EU-Parlament in keiner Weise wirklich ein Parlament im traditionellen Sinne ist. Was auch immer sie entscheiden, bedeutet nichts, es sei denn, die Führer dieser 28 oder hoffentlich bald 27 Länder stimmen zu, das Parlament ist eine Muppetshow, denn zu was auch immer das Parlament zustimmt, es ist nicht bindend, es ist nicht rechtsverbindlich.

Die einzigen, die mitreden können, sind die Staats- und Regierungschefs der EU-Länder, und in dieser Frage sind sie uneins. Was immer sie versprochen hat, heißt nicht, dass es tatsächlich geschehen wird. Nicht nur die EU-Länder oder die Staats- und Regierungschefs der Länder müssen zustimmen, sondern sie müssen einstimmig zustimmen. Das zu erleben wird interessant sein.

[Es gibt Länder, die haben ihre CO2-Emissionen senken können, aber ] In der Zwischenzeit steigen die CO2-Emissionen [u.a.] in Europa, obwohl die europäischen Länder [vor allem Deutschland] dafür bereits Billionen Euro ausgegeben haben, aber so funktioniert es offenbar nicht. Der Grund, warum es nicht funktioniert, ist natürlich, dass viele Länder nur Lippenbekenntnisse zu diesen Zielen und zu diesen Richtlinien abgeben, weil sie wissen, dass dies sehr kostspielig, unpopulär und wirtschaftlich schädlich ist.

All die Dinge, die noch relativ einfach machbar waren, wurden in den letzten 10 Jahren gemacht. Ab jetzt wird es tatsächlich sehr teuer. Wenn Sie den CO2-Ausstoß um 20% senken möchten, können Sie irgendwie dahin kommen, indem Sie einfach alte Fabriken schließen und alte Autos von der Straße nehmen und hier und da ein wenig tun. Aber wenn Sie einmal radikal entkohlen wollen, wird es sehr schwierig und sehr kostspielig.

Sie haben mitbekommen, was Frankreich gemacht hat. Frankreich hat seinen Strom im wesentlichen dekarbonisiert, aufgrund der Kernkraftwerke, die Frankreich besitzt. Sie erzeugen viel Strom allein aus Kernenergie.

Wenn Sie den CO2-Ausstoß weiter senken möchten, müssen Sie die Autofahrer auffordern, mehr zu zahlen, weniger zu fahren, und Sie müssen den Leuten sagen, dass sie mehr für Heizung und so weiter zahlen müssen. Jetzt fängt das harte Stück wirklich an zu schmerzen. Infolgedessen gibt es eine wachsende Opposition gegen diese Politik.

 

Die Regierungen selbst sind zunehmend darüber gespalten, weil sie erkennen, dass dies Wählerstimmen kostet. Außer den Grünen gewinnt niemand wirklich, offensichtlich gewinnen sie. Aber jeder andere verliert Wähler mit diesem Thema. Regierungen werden unbeliebt und verlieren Wahlen. Sie beginnen zu kämpfen, wie sie dieses Problem am besten lösen können.

In der Zwischenzeit wird kaum ein Land seine Ziele erreichen. Sie haben diese rechtsverbindlichen[?] Ziele festgelegt, aber viele Länder können sie aus den gerade genannten Gründen nicht erreichen. Es gibt diese wachsende Diskrepanz zwischen dem, was Regierungen versprechen und was sie tatsächlich erreichen können.

Uns wurde immer erzählt, dass erneuerbare Energien jetzt so billig sind, dass sie mit herkömmlichen Energieformen konkurrieren können. Betrachtet man jedoch die Grafik links, so sinken die Investitionen in erneuerbare Energien in Europa rapide, da die Regierungen anfangen, die Subventionen links, rechts und in der Mitte zu kürzen. Wenn die Leute nicht für das Aufstellen von Windkraftanlagen bezahlt werden, wird niemand eine Windkraftanlage aufstellen, weil dies keinen wirtschaftlichen Sinn ergibt.

Hier in Europa im letzten Jahr – wurde in der Hälfte der EU hat keine einzige Windstromanlage gebaut, weil es, wie gesagt, keinen Sinn ergibt, wenn man keine Subventionen für erneuerbare Energien bekommt. Sowohl die Wind- als auch die Solarindustrie haben große Probleme, weil die Regierungen anfangen, Subventionen zu kürzen.

 

Sie haben alle gesehen, was in Frankreich passiert. Dies ist nur der Vorgeschmack darauf, was zu erwarten ist, wenn sich das Problem steigender Energiepreise beschleunigt. Es ist sehr wahrscheinlich, dass Sie ähnliche Protestbewegungen in ganz Europa sehen werden.

Wir haben ungefähr 50 Millionen Europäer, die bereits in Energiearmut leben, 50 Millionen, und die Zahl steigt schnell. Wenn die Energiepreise weiter steigen, können Sie mehr Energierevolten erwarten.

Um diesen Vortrag zu beenden, Europa ist gespalten und bleibt gespalten zwischen dem Westen, in dem die Klimaproblematik zu einer quasi-religiösen Bewegung geworden ist, und Osteuropa, das immer noch stark auf billige Energie angewiesen ist.

Die Westeuropäer sagen den Polen, Tschechen und Ungarn: „Weißt du was? Warum gibst du deine Kohle nicht auf und kaufst stattdessen ein bisschen russisches Gas?“ Aber das kommt nicht gut an. Irgendwie mögen sie russisches Gas nicht, weil sie natürlich Klimaleugner sind. Aber es gibt diese tiefe Kluft zwischen Osteuropa und Westeuropa.

Natürlich sagen die Leute: „Wenn der Preis stimmt, könnten wir uns dem anschließen, was Sie von uns erwarten.“ Wie immer dreht sich alles um Geld. Die Frage ist: Haben die Europäer genug Geld, um die osteuropäischen Staaten aufzukaufen? Das bezweifle ich sehr. Aber das ist die Situation in Europa.

Um es zusammenzufassen: Wenn Sie den Green New Deal zum Erfolg führen möchten, könnten Sie in 10 Jahren ähnliche Probleme haben wie wir. Wenn Sie diesen Weg nicht beschreiten und Ihre Wirtschaft weiter wachsen lassen möchten und mit dem Rest der Welt Schritt halten möchten, der nicht viel darüber gibt, seien Sie gewarnt. Das ist der Preis dafür, es falsch zu machen. Vielen Dank.

***

Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik.

Weiterführender Link:
http://www.thegwpf.org/who-we-are/dr-benny-peiser/

 

Link zu den Videos der Vorträge im Heartland Institute

Gefunden über Stopthesethings vom 20.08.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/08/20/with-wind-solars-days-over-who-cleans-up-europes-renewable-energy-mess/




Was Sie schon immer über CO2 wissen wollten: Teil 4 – die Klimasensitivität

CO2 ist für sichtbares Licht durchlässig und somit unsichtbar. Es absorbiert in bestimmten Frequenzbereichen Infrarotstrahlung (IR), trägt daher zum sogenannten Treibhauseffekt bei und wird infolgedessen als „Treibhausgas“ bezeichnet. Aus physikalischen Gründen müssen Treibhausgasmoleküle aus mindestens drei Atomen bestehen. CO2 ist solch ein Molekül. Es ist linear, die beiden Sauerstoffatome und das Kohlenstoffatom liegen auf einer Linie. CO2 ist kein Dipol. Bei Stößen oder Infrarotabsorption schwingt aber das CO2-Molekül, wobei „temporäre“ Dipole entstehen.

Die Eigenschaften der wichtigsten Treibhausgase wurden bereits in Tabelle 1 von Teil 1 gezeigt. Die Treibhauswirkung eines Gases ergibt sich aus seiner Konzentration in der Atmosphäre und der Stärke seiner IR-Absorption. Nur Wasserdampf, CO2, Ozon und CH4 sind maßgebende Treibhausgase. Den Löwenanteil des Treibhauseffekts verursacht der Wasserdampf. Der „Treibhauseffekt“ ist einerseits ein einfacher, zugleich aber auch ein extrem komplexer Mechanismus.

Komplex, weil Details und genaue Stärke, insbesondere was den Einfluss des menschgemachten CO2 betrifft, kaum zugänglich sind. Nun die Erklärung in zwei Stufen, je nach Geschmack und Vorkenntnis des Lesers.

In der einfachsten Erklärung stellen wir uns als Analogie eine wärmende Bettdecke vor. Alle Treibhausgase zusammen vertreten die Bettdecke. Leser mit technisch/physikalischen Kenntnissen werden hier zu Recht protestieren. Die Wärmewirkung der Bettdecke erfolgt durch Konvektionsverhinderung, denn die vom Körper erwärmte Luft kann nicht entweichen. Nicht zuletzt aus diesem Grunde wärmt auch Winterkleidung (Wärmestau). Aus diesem Bild stammt aber tatsächlich die etwas unglückliche Bezeichnung „Treibhauseffekt“. Ein Gärtnertreibhaus oder ein mit geschlossenen Scheiben in der Sonne stehendes Auto erwärmen sich im Inneren, weil Sonneneinstrahlung den Innenboden und die Innenwände erwärmt. Die durch Wärmeleitung im Treibhaus oder Auto erwärmte Luft kann nicht entweichen – dies ist der Treibhauseffekt eines Gärtnertreibhauses.

Die Bezeichnung „Treibhauseffekt“ ist natürlich schief, weil die Atmosphäre keine physischen Begrenzungen nach oben aufweist. Daher nun eine detailliertere, aber immer noch anschauliche Erklärung: Die kurzwellige Sonneneinstrahlung durchquert praktisch ungehindert die Atmosphäre und erwärmt das Wasser der Ozeane und den Erdboden. Die Ozeane und der erwärmte Erdboden geben ihre Wärme durch Kontaktleitung an die angrenzende Atmosphäre ab und strahlen zusätzlich Wärme als Infrarot ab. Die Treibhausgase in der Atmosphäre, welche die kurzwellige Sonnenstrahlung noch durchließen, absorbieren dagegen zu Teilen (Linienspektren) das langwellige Infrarot und strahlen diese Energie in den ihnen eigenen Linienspektren wieder ab. Der zum Erdboden gerichtete Teil dieser Abstrahlung wird als „Gegenstrahlung“ bezeichnet.

Nun kommt der berühmte Energieerhaltungssatz zum Zuge. Die von der Sonne kommende und von der Erde aufgenommene Gesamtenergie muss, ausreichend lange zeitgemittelt, in gleicher Energiemenge wieder ins Weltall abgestrahlt werden. Wäre dies nicht so, würde die Erde entweder verglühen oder zu einem Eisklumpen werden. Durch die Infrarot-Absorption der Treibhausgase ist dieses Energiegleichgewicht gestört. Die Natur – in Befolgung ihrer eigenen Gesetze – stellt das Energiegleichgewicht wieder her, indem sie die Bodentemperatur und damit auch die Temperatur der tiefen Atmosphäre erhöht, was das Abstrahlungsdefizit infolge Gegenstrahlung wieder ausgleicht.

Es handelt sich um gleichzeitig ablaufende dynamische Prozesse von Erwärmung durch eine Wärmequelle, hier die Sonne und von gleichzeitig ablaufender Abkühlung, hier von Infrarot ins Weltall. Das Gleichgewicht dieser beiden gegenläufigen Prozesse bestimmt die Erdtemperatur. Wer es genauer wissen will, sei verwiesen auf das Physiklehrbuch von W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre [1] oder den Beitrag „Atmospheric Radiation and the Greenhouse effect“ von Science of Doom (SOD) [10].

Manche Zeitgenossen haben allerdings mit der zweiten Erklärung Probleme und verweisen auf den 2. Hauptsatz der Wärmelehre, der besagt „ein kälterer Körper (kalte Atmosphäre) kann keinen wärmeren Körper (Ozean/Erdboden) weiter erwärmen„. Doch, kann er, wenn an Stelle von Kontakt-Wärmeleitung elektromagnetische Strahlung ins Spiel kommt. Die ist im 2. Hauptsatz nicht berücksichtigt. Jeder Festkörper, egal welcher Temperatur, strahlt IR in einem kontinuierlichen Spektrum ab [2]. Trifft diese Strahlung auf einen wärmeren Köper und wird sie nicht reflektiert, so erwärmt sie auch einen wärmeren Körper. Schließlich verschwinden die vom kälteren Körper kommenden und in den wärmeren Körper eindringenden IR-Photonen nicht wirkungslos im Nirwana, und sie „wissen“ auch nicht, woher sie stammen. Der Wärmehaushalt des wärmeren Körper wird durch die IR-Strahlung des kälteren Körpers erhöht.

Die Details dieses auf IR-Absorption von Treibhausgasen beruhenden Treibhauseffekts sind zwar komplex, aber die moderne Messtechnik bestätigt die Einzelheiten des geschilderten Mechanismus. So ist die Messung der von den Treibhausgasen erzeugten Gegenstrahlung, die den Auskühlungsvorgang des Erdbodens abschwächt und damit seinen Wärmehaushalt erhöht, heute Standard. Die Stärke des atmosphärischen Treibhauseffekts, die der direkten Messung nicht zugänglich ist, wird theoretisch und mit unvermeidbar hohen Fehlern zu über 30 °C berechnet. An diesen 30 °C hat das CO2, wie Tabelle 1 in Teil 1 zeigt, einen maßgebenden Anteil. Der Erdboden und die bodennahe Atmosphäre wären also im Mittel von Tag/Nacht, Jahreszeiten und Erdoberfläche ohne die Treibhausgase um diesen Wert kälter.

Bei all dem interessiert aber vorrangig die Treibhauswirkung des menschgemachten (anthropogenen) CO2. Und diese gibt die Fachliteratur und das IPCC mit etwas mehr als 1 °C bei jeder hypothetischen Verdoppelung der atmosphärischen CO2-Konzentration an, also bei Anstieg von 0,04% auf 0,08% und von 0,08% auf 0,16% etc. Das erscheint zunächst seltsam. Schließlich wurde doch oben der Erwärmungswert aller Treibhausgase von 30 °C genannt? Daran, so kann man vermuten, sollte gemäß Tabelle 1 (in Teil 1) das CO2 zwischen 9% bis 26% Anteil haben, also zwischen 3 und 8 °C? Warum trifft dies nicht zu?

Die Antwort: Der Zusammenhang von Temperatur und CO2-Konzentration ist nicht linear sondern logarithmisch, Details dazu beim IPCC [10] und insbesondere in einer AGU-Publikation [11]. Die Erwärmung ist daher bei Anstieg der CO2-Konzentration von von 0,04% auf 0,08% die gleiche wie von 0,08% auf 0,16%, obwohl 0,16% das Vierfache von 0,04% ist. Stark vereinfacht wird manchmal auch von „spektraler Sättigung“ gesprochen. Die Absorptionslinien des CO2 werden bei zunehmender Konzentration breiter und an den Flanken des Spektrums beginnen neue aufzutauchen.

Wer es lieber anschaulich möchte, vergleiche den Infrarot-Effekt der Treibhausgase mit dem Abdunkeln eines Fensters durch ein dunkles Tuch. Ein zweites Tuch darüber gehängt, dunkelt nur noch unwesentlich stärker ab. Für eine katastrophale Erderwärmung reicht also die berechnete Erwärmung durch anthropogenes CO2 nicht aus. Woher kommen dann die Warnungen?

 

Wasserdampfrückkoppelung

Die bisherigen Ausführungen lassen weitere entscheidende Effekte unberücksichtigt. Einer davon ist als Wasserdampfrückkoppelung bekannt. Bei Erwärmung der Atmosphäre durch zunehmendes anthropogenes CO2 sollte aus den Weltmeeren – insbesondere im Tropengürtel der Erde – mehr Wasserdampf ausgegasen. Wasserdampf ist das weitaus stärkste Treibhausgas. Die ursprünglich geringe Erwärmung durch CO2, so die der Wasserdampfrückkoppelung zugrunde liegende Idee, erhöht sich damit.

In einer entgegengesetzten Hypothese freilich führt mehr Wasserdampf bei ausreichend vorhandenen Kondensationskeimen zu mehr Wolken. Wolken, also kondensierende oder bereits kondensierte Flüssigkeitströpfchen, die nicht mit dem Gas „Wasserdampf“ oder gar mit Treibhausgasen zu verwechseln sind, schirmen die Sonnenstrahlung ab und wirken abkühlend. Die primäre Erwärmung infolge ansteigendem CO2 wird daher abgeschwächt, man spricht von Gegenkoppelung. Welchen Weg bevorzugt die Natur, Gegen- oder Rückkoppelung?

Auswertungen von Ballon-Radiosonden und Satellitenmessungen haben diese Frage bereits beantwortet. Alle bisher verfügbaren Messungen zeigen, dass Gegenkoppelungen überwiegen. Hierzu sagt der Klimaforscher und Leibniz-Preisträger Prof. Jan Veizer: „Bei beinahe jedem ökologischen Prozess und auf jeder Zeitskala sind der Wasserkreislauf und der Kohlenstoffkreislauf aneinander gekoppelt, aber Wasser ist nun einmal um Größenordnungen verfügbarer. Es ist nicht einfach nur da, um auf Impulse vom Kohlenstoffkreislauf zu warten, ganz im Gegenteil, es formt diesen aktiv“. Im Klartext sagt damit J. Veizer nur, dass das CO2 immer dem Wasserdampf folgt und damit auch keine durch ihn bedingte globale Temperaturänderung auslösen kann. In Vorträgen drückt Veizer er es noch plastischer aus: „Der Hund, Wasserdampf, wedelt mit dem Schwanz, CO2, nicht umgekehrt„.

Bis Ende des Jahres 2008 lagen keine veröffentlichten Messungen vor, die die Wasserdampfrückkopplung oder die Wasserdampfgegenkoppelung bestätigen oder widerlegen konnten. Diese unbefriedigende Situation änderte sich mit zwei grundlegenden Arbeiten, die beide in 2009 erschienen. Inzwischen sind weitere bestätigende Publikationen hinzugekommen.

Die Autoren G. Paltridge et al. zeigten als erste, dass die spezifische und relative Feuchte in der mittleren und oberen Troposphäre, also oberhalb 850 hPa Luftdruck, im Gegensatz zu den Annahmen der Klimamodelle des IPCC, in den Jahren 1973 bis 2007 mit den steigenden Temperaturen dieser Zeit abnahmen, was mit Wasserdampfrückkoppelung unvereinbar ist [3]. Lediglich die wenig rückkopplungswirksame Feuchte der unteren Troposphäre nahm in dieser Zeit zu und selbst dies nur in gemäßigten Breiten signifikant.

Die zweite Arbeit wurde von dem weltbekannten Klimaforscher Prof. R. L. Lindzen und seinem Mitautor Y.-S. Choi verfasst [4]. Sie wiesen ebenfalls nach, dass Gegenkoppelung vorliegen muss, konnten aber zudem noch den Effekt quantifizieren. Hierzu untersuchten sie die Empfindlichkeit des Klimas auf externe Störungen und benutzten dafür die Messdaten von ERBE (Earth Radiation Budget Experiment), geliefert vom ERBE-Satelliten, der 1984 vom Space-Shuttle aus gestartet wurde. Hieraus konnten sie die externen Einwirkungen auf das Strahlungsgleichgewicht extrahieren, wie sie zum Beispiel durch natürliche Oszillationen, wie El Niño, La Niña oder aber durch Vulkanausbrüche (Pinatubo), hervorgerufen werden.

Da die Wirkung von CO2 ebenfalls über die Störung des Strahlungsgleichgewichts abläuft, ist die analoge Übertragung physikalisch korrekt. Unter weiteren Belegen, die gegen eine Wasserdampfrückkoppelung sprechen, soll hier nur noch der sogenannte Hot-Spot erwähnt werden, eine bei Wasserdampfrückkoppelung unabdingbar zu erwartende Erwärmung in mehreren km Höhe über dem Tropengürtel der Erde. Vom Hot-Spot gibt es aber bis heute keine Spur [5]!

Die Klimasensitivität

An dieser Stelle ist es jetzt an der Zeit, den mehr politischen als physikalischen Begriff „Klimasensitivität“ zu beschreiben. Es gibt keine andere Maßzahl, in welche soviel über die Erwärmungswirkung des CO2 hineingepackt ist. Sie bezeichnet die Änderung der globalen Mitteltemperatur der Erde in Folge einer (hypothetischen) Verdoppelung des atmosphärischen CO2. Unterscheidungen zwischen spektralem Effekt oder Wasserdampfrück- bzw. Wasserdampfgegenkoppelung kennt die „Klimasensitivität“ nicht. Es geht bei ihr nur um einen einzigen, vor allem politisch brauchbaren Zahlenwert.

Technisch gibt es allerdings zwei Arten von Klimasensitivitäten. Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur extrem langsam auf Veränderungen des Strahlungsantriebs. Daher wird zwischen Equilibrium Climate Sensitivity (ECS) und Transient Climate Response (TCR) unterschieden. Die ECS beschreibt den Temperaturanstieg, der zu beobachten wäre, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind.

Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist dagegen die Transient Climate Response (TCR) geeigneter. Letztere ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese Verdoppelung pro Jahr um 1 % anwächst. Meist wird der Unterschied zwischen ECS und TCR vernachlässigt.

Die Klimasensitivität ist, wie schon erwähnt, eine politisch brauchbare Größe und spielt daher auch die maßgebende Rolle beim Pariser Klima-Abkommen [6]. In der Fachliteratur wird die Klimasensitivität in einem weiten Bereich von fast Null bis hin zu 4,5 °C angegeben. Man kann dies auch prosaischer ausdrücken – der Wert der Klimasensitivität ist unbekannt! Diesen unbefriedigenden Sachverhalt bestätigt insbesondere auch das IPCC, wenn auch nur sehr verschämt und gedrechselt, in folgender Fußnote

No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies“ [7].

Was sagt aber nun die Klima-Fachliteratur zur Klimasensitivität, denn die Fachliteratur sollte schließlich die ultimative Basis sein. Die Antwort lautet ähnlich wie die Antwort des bekannten Börsianers Kostany, der einmal, nach seiner Erwartung der kommenden Börsenkurse gefragt, antwortete, „sie fluktuieren„. Etwas mehr Information über die Klimasensitivität als dieser weltbekannte Börsen-Guru über die zukünftigen Börsenkurse gibt es glücklicherweise schon.

Der französische Klimaforscher Francois Gervais hatte in einer seiner Fachpublikationen alle Fachveröffentlichungen über die Zahlenwerte von ECS und TCR gegen ihre Veröffentlichungszeiten aufgetragen. Dabei zeigte sich ein interessanter Trend. Die Wissenschaft gibt im Großen und Ganzen  immer kleinere Werte bei immer jüngeren Veröffentlichungen an. Hier die inzwischen von F. Gervais aktualisierte Abbildung

Bild 1: Klimasensitivitätswerte von ECS und TCR in Abhängigkeit vom Veröffentlichungsdatum. Der TCR-Trend hin zu tieferen Werten als 1 °C ist unverkennbar [8], [9]. Damit wäre übrigens das 1,5 °C – Ziel des Pariser Klima-Abkommens längst erreicht und das Abkommen überflüssig geworden.

 

Auf die Methoden zur Berechnung der Klimasensitivität ECS und/oder TCR einzugehen, übersteigt den hier gesteckten Rahmen. Vielleicht kann man sehr grob drei Wege unterscheiden: durch theoretische Betrachtung, durch Analyse von Proxydaten, wie zum Beispiel Eisbohrkernen und aus Klima-Computermodellen. Am fragwürdigsten sind dabei zweifellos Klimamodelle, denn diese können bislang noch nicht einmal die Klimavergangenheit ohne künstliche Nachhilfen wiedergeben. Monokausale CO2-Abhängigkeit, wie in Klimamodelle hineingesteckt, liefert nur „rubbish in, rubbish out“. Gemäß Bild 1 jedenfalls darf man mit hoher Wahrscheinlichkeit von einer Klimasensitivität TCR von 0,5 °C bis höchstens 1,5 °C ausgehen.

Fazit: Obwohl die spektrale Erwärmungswirkung des CO2 theoretisch gut bekannt ist, ist dennoch die Erwärmungswirkung des anthropogenen CO2 eine unsichere Größe. Zu groß ist die Anzahl der beteiligten Prozesse (stellvertretendes Beipiel: durch das Sonnenmagnetfeld modulierte Wolkenbildung), zu hoch sind ihre Berechnungsunsicherheiten. Verlässt man sich auf die begutachtete Fachliteratur, so zeigt diese mit immer jüngeren Veröffentlichungszeiten ein stetiges Abnehmen der TCR-Klimasensitivitätswerte. Die zur Zeit beste TCR-Wert liegt zwischen 0,5 und 1 °C.  Dieser Wertebereich ist unbedenklich. Er liegt zudem weit innerhalb der natürlichen Temperaturschwankungen. Es ist also nicht verwunderlich, dass man aus dem natürlichen Klimarauschen keinen anthropogenen Beitrag heraushören kann.

Zu Katastrophenwarnungen über die Erwärmungswirkung des anthropogenen CO2 besteht jedenfalls nicht der geringste Anlass.

Bisherige Teile der Serie „Was Sie schon immer über CO2 wissen wollten“:

  1. Teil 1 – der CO2-Untergrund (27.Juni 2019)
  2. Teil 2 – CO2-Anstieg menschgemacht oder nicht?
  3. Teil 3 – der globale CO2-Kreislauf

 

Quellennachweise

[1] W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre, Springer, 5. Auflage.

[2] https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz

[3] G. Paltridge et al., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, 2009

[4] R. Linzen and Y.-S. Choi, On the determination of climate feedbacks from ERBE data, 2009

[5] Joanne Nova

[6] Pariser Klimaabkommen

[7] SPM, Summary for Policymakers, IPCC, S. 16, Fußnote, 2013

[8] F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, 2016

[9] F. Gervais, Vortrag bei der EIKE-Klimakonferenz in Düsseldorf, 2018

[10] Science of Doom

[11] IPCC Climate Change 2001, The scientific basis, Chapter 06, S. 358, Tab. 6.2

[12] Y. Huang and M. B. Shahabadi, Why logarithmic? A note on the dependence of radiative forcing on gas concentration

 

 




Broders Spiegel: Willkommen in der neuen klima-ökologischen Klassengesellschaft!

Mit freundlicher Genehmigung von Henryk Broder. Zuerst erscheinen bei der Achse des Guten bzw. Achgut.pogo.

 




Grüne Klimakiller (2)

Wie bei der Windenergie hat auch der Entzug von Naturenergie für Solaranlagen Folgen für die Natur.

Die Sonne stellt jeden Augenblick 10.000 bis 15.000mal so viel Energie zur Verfügung, wie alle Menschen verbrauchen. Was passiert mit all dem Sonnenschein? Er erwärmt unseren Planeten zyklisch (tagsüber) und ist damit der primäre Antreiber der Lebensprozesse auf der Welt. Zunächst erzeugt die Sonne die Wärme, die Lebewesen für ihre Existenz brauchen. Im Gegensatz zum landläufig üblichen Alarmismus ist ein wärmeres Klima auf der Erde im Grundsatz positiv, weil es die Bedingungen für Leben fördert, wenn ausreichend Wasser vorhanden ist. Die Biodiversität ist im brasilianischen Regenwald höher als auf Grönland. Lebewesen passen sich an verschiedene Klimata an, Arten verschwinden, andere breiten sich aus und verändern sich nach der Darwinschen Theorie „survival of the fittest“. Dabei gibt es weder Gerechtigkeit noch Mitleid, wer sich nach dem Wolfsgesetz der Natur den sich ändernden Bedingungen nicht anpasst, stirbt aus.

Auch für Menschen waren immer die wärmeren Zeiten die Blütezeiten ihrer Geschichte, wie die römische und die mittelalterliche Warmzeit zeigen. Im Gegensatz dazu waren Kaltzeiten mit hohen Rückgängen der Bevölkerungszahlen verbunden, zumal wenn sie zu Missernten und Hunger führten und Kriege wie den Dreißigjährigen begünstigten.

Hinzu kommt, dass jeder Klimawandel Gewinner und Verlierer nach sich zieht. Einige Regionen werden bei langfristig steigenden Temperaturen in Zusammenhang mit Trockenheit unbewohnbar, im hohen Norden hingegen sorgen höhere Temperaturen für eisfreie Häfen, höhere Ernten und damit bessere Lebensbedingungen. Aber selbst in wärmeren Gebieten führen eben diese höheren Temperaturen, so sie von ausreichend Feuchtigkeit begleitet werden, im Zusammenspiel mit einem erhöhten CO2-Gehalt der Luft zu besserem Pflanzenwachstum. Satellitenaufnahmen aus den 80er Jahren und von heute zeigen beeindruckend die Zunahme der Blattmasseauf der Erdkugel, auch in der Sahel-Zone. So gesehen sollten Fluchtgründe aus Gründen mangelnder Versorgung in Afrika eher geringer geworden sein.

Sonnige Zeiten

Es gibt keine ungenutzte solare Energie, sie wird in den natürlichen Kreisläufen komplett verwendet. Die Sonne schickt keine Rechnung, aber die menschliche Nutzung ihrer Energie hat Folgen (und kostet natürlich auch Geld).

Betrachten wir zwei gleich große Flächen, zum Beispiel eine naturbelassene Wiese und eine Freiflächen-Fotovoltaikanlage. Die Wiese wird von der Sonne erwärmt, der Bewuchs nutzt einen geringen Anteil der Energie von etwa einem Prozent für die Fotosynthese. Ein größerer Teil bewirkt die Verdunstung von Wasser über die Blätter der Pflanzen und damit die Kühlung des Bodens. Ein weiterer Teil der Sonneneinstrahlung wärmt den Boden auf und liefert Verdunstungswärme für die Erdbodenfeuchte. Nach Sonnenuntergang kühlt das Gelände ab, die im Boden gespeicherte Wärme geht über Konvektion an die Umgebung oder über versickerndes Wasser an das Erdreich ab.

Die entstehende Biomasse stellt einen Energiespeicher dar, entweder für die Natur selbst, oder durch menschliche Nutzung der Biomasse. Wird die Energie zur technischen Nutzung abgeführt, sei es durch solarthermische Verwendung oder Fotovoltaik-Strom, findet Speicherung nicht statt (von häuslichen Warmwasserspeichern abgesehen).

Mit dem Entfall der Energiespeicherung in der Biomasse und der Wärme- und Wasserspeicherung kann die Landschaft ihre Aufgabe als Klimaregulativ weniger gut erfüllen.

Thermische Solarkollektoren sind für die Abfuhr der Wärme projektiert. Kommt die Wasserzirkulation zum Stillstand, weil der Wärmebedarf gedeckt ist, erreichen Flachkollektoren Stillstandstemperaturen von 200 Grad Celsius, Vakuum-Röhrenkollektoren sogar bis 300 Grad Celsius1). Um das überhitzte System wieder in den Normalbereich zu bringen, wird oft nachts das System in Umlauf gehalten, so dass die überschüssige Wärme an die Luft abgegeben wird. Diese Energie gelangte nicht in den natürlichen Kreislauf.

Ist die Fläche mit Fotovoltaik-Zellen belegt, werden bis zu 20 Prozent der Sonneneinstrahlung in Elektrizität verwandelt. Die Paneele können im Sommer bei entsprechender Witterung über 60 Grad Celsius Betriebstemperatur erreichen, durch den Stromfluss und die solare Aufheizung. Diese Wärme wird konvektiv an die Luft abgegeben und heizt die Umgebung auf. Dabei tritt ein Rückkopplungseffekt auf: Steigt die Umgebungstemperatur, erhitzen sich die Paneele weiter.

Um möglichst viel Energie zu fangen, sind Solarpaneele dunkel gehalten. Dies bewirkt eine Reflexion der Strahlung im infraroten Bereich des Lichts, genauer gesagt eine Absorption und Re-Emission. Nach dem Stefan-Boltzmann-Gesetzhängt die abgegebene Wärmeleistung in der 4. Potenz von der Temperatur des strahlenden Körpers ab.

Das heißt, je mehr sich Solarpaneele erwärmen, umso mehr Energie geben sie exponentiell als Wärmestrahlung ab (beim Abtransport der Wärme über Konvektion ist das Verhältnis Temperatur zu abgeführter Wärmemenge etwa linear). Im Bereich einer Temperatur von 60 Grad Celsius, dies ist das Zentrum des Absorptionsbereichs von CO2(15 Mikrometer Wellenlänge), ist die „Klimawirkung“ besonders hoch. Sonnige Tage mit geringer Bewölkung, an denen Wasserdampf als Treibhausgas kaum wirkt, sorgen für erhöhte infrarote Rückstrahlung von Solarpaneelen und für höhere Wirksamkeit des CO2als Treibhausgas.

Legt man die Treibhausgastheorie in ihrer offiziellen Form zu Grunde, so sorgen zwei Effekte für Erwärmung, nur der erste wird öffentlich thematisiert:

  • Durch die Zunahme des Anteils von Treibhausgasen in der Luft steigt die Erdtemperatur.
  • Durch die Zunahme von Objekten, die infrarotes Licht reflektieren, steigt die Erdtemperatur.

Neben der Reflexion durch Solaranlagen wirken natürlich auch Dächer, Straßen, Bahnlinien und andere Bebauung in ähnlicher Weise.

Sowohl die Konvektion der Paneele wie auch die infrarote Rückstrahlung entfalten Wirkung, teils global, teils regional.

Große Fotovoltaik-Freiflächenanlagen sind Konkurrenz für landwirtschaftliche Nutzflächen, Naturflächen oder Forst. Nach dem Energieerhaltungssatz wird dem Bewuchs Licht vorenthalten. Pflanzen bekommen weniger lebensnotwendige Licht“nahrung“  und auch weniger Wasser (ein Teil verdunstet auf den Paneelen und auch durch höhere Umgebungstemperaturen).

 

Die im Schatten sieht man nicht

Geringeres Pflanzenwachstum im Schatten führt zu weniger blühenden Pflanzen, was ein verringertes Nahrungsangebot für Insekten zur Folge hat. Am Beginn der Nahrungskette entsteht Mangel. Die Fotosynthese findet in viel geringerem Umfang im Schatten unter den Paneelen weiterhin statt.

Durch Wärmeabstrahlung und Konvektion kommt es zu lokaler Erwärmung, die das Mikroklima ändert. Auf dem ehemaligen Truppenübungsplatz Lieberose nördlich von Cottbus tun das immerhin 50 Hektar (!) reiner Modulfläche innerhalb eines riesigen Kiefernwaldbestandes. Der Wald auf sandigem Boden ist extrem brandgefährlich und fast in jedem Sommer, auch in den Jahren 2018 und 2019, kam es zu großflächigen Bränden, wenn auch kilometerweit von der Anlage entfernt. Tatsache ist, dass die riesige Freiflächenanlage als Hotspot wirkt und zur Erwärmung der Umgebung beiträgt.

Wechselrichter und Transformatoren stellen zudem eine nicht zu unterschätzende Brandlast dar2). Mit zunehmender Alterung der Anlagen sinkt nicht nur ihr Wirkungsgrad, was zu steigender Abwärme führt, auch die Brandlast nimmt durch Isolationsmängel (gealterter Gummi oder Kunststoff) an Kabeln und Steckverbindern zu.

Größer sind auf Grund höherer Umgebungstemperaturen die Wärmeabstrahlungen in Anlagen, die in Wüstengebieten errichtet werden. Der Traum vom unendlichen Wüstenstrom ist zwar versandet, dennoch wollen vor allem arabische Länder mehr Fotovoltaik nutzen. Ein Megaprojekt von 7.200 Megawatt (!) in Saudi-Arabien hätte eine entsprechend riesige Fläche belegt und erhebliche regionale Klimawirkung gehabt. Nun hat sich Saudi-Arabien anders orientiert, was mit dem Kauf russischer Kernreaktoren in Zusammenhangstehen dürfte.

Etwa 44 Gigawatt(peak) Leistung sind in Deutschland als Dach- oder Freiflächenanlagen installiert. In den gegenwärtig heißen Sommern liefern sie physikalisch bedingt aber nur 24 bis 28 Gigawatt, also etwa zwei Drittel der möglichen Leistung. Sollten wir tatsächlich einer „Heißzeit“ entgegengehen, hilft uns die Fotovoltaik eher nicht dabei, durch hohe Wassertemperaturen oder Wasserknappheit eingeschränkte konventionelle Kraftwerksleistung zu ersetzen.

Solare Freiflächenanlagen sind eine Form der Monokultur auf Kosten der  Natur.

Auch mit der Anlage von Straßen und Städten, der Bodenversiegelung insgesamt, greifen wir in die natürliche solare Bilanz ein. Wird Energie „abgezweigt“, steht sie nicht für die Fotosynthese, also der Bildung von Biomasse als CO2-Senke, Energiespeicher, für die Erwärmung des Bodens und die Zufuhr von Verdunstungswärme zur Verfügung. Die klimaregulierende Wirkung des Bodens wird reduziert. Auch große Flächen offshore, also auf See, durch Fotovoltaik zu nutzen, greift in die natürlichen Kreisläufe ein und ändert die Bedingungen für Lebewesen und die Wärmebilanz des Gewässers.

Die Gewinnung von Energie aus Solarmodulen verringert nicht den Treibhauseffekt, sondern verstärkt ihn durch vermehrte Rückstrahlung. Tagsüber vermiedene Emissionen aus fossilen Energiequellen werden durch eigene infrarote Rückstrahlung und konvektive Erwärmung der Umgebung konterkariert.

Die „Energiedetektive“1)aus Graz fassen die Auswirkungen von Solar-Freiflächenanlagen in ihrer Studie im Kapitel „Tatort Solaranlage“ so zusammen:

  • Eingriff in die Nahrungskette durch Lichtkonkurrenz
  • Eingriff ins regionale Kleinklima
  • Eingriff ins Energiespeichersystem des Bodens
  • Eingriff ins Wasserspeichersystem des Bodens
  • Eingriff ins bodennahe Kühlsystem
  • Eingriff ins System der Wärmestrahlung

Alles Bio, oder was?

Eine weitere Sparte der „Erneuerbaren“ sei hier noch kurz auf ihre Umwelt- und „Klima“-Verträglichkeit angesprochen. „Biogas“ klingt gut und wie alles, was mit „Bio“ beginnt, man vermutet natürliche Reinheit und völlige Unschädlichkeit. Das ist falsch schon angesichts der Tatsache, dass 99 Prozent aller Umweltgifte, also weit über den Knollenblätterpilz hinaus, natürlichen Ursprungs sind.

Von Biogasanlagen gehen vor allem Gefährdungen durch Havarien und Undichtheiten aus, die Gärreste, Substrate oder Silage-Sickerwasser freisetzen. Die Umweltschäden können erhebliche Ausmaße annehmen und sind umso größer, wenn genannte Stoffe in Oberflächengewässer gelangen. Eine Meldepflicht für solche Unfälle gibt es übrigens nicht.

Die „Klimawirkung“ ergibt sich aus dem Methan-Schlupf von etwa fünf Prozent, den es in diesen Anlagen ebenso wie in den Förder- und Transportanlagen für fossiles Erdgas gibt. Immerhin 300.000 Tonnen Methan gelangen über Biogasanlagen jährlich in die Atmosphäre.

Auch hinsichtlich der Arbeitsunfälle sind die „Erneuerbaren“ kein besonders menschenfreundliches Feld, sondern im Gegenteil mit viel gefahrgeneigter Tätigkeit verbunden. Abstürze von Dächern und Windkraftanlagen kommen immer wieder vor, auch wenn sie im Grundsatz vermeidbar sind. Zahlen sind schwer zu finden. Für das Jahr 2011 gab die Berufsgenossenschaft Energie Textil Elektro (BG ETEM) fünf Todesopfer und elf Schwerstverletzte bei Solar-Dachmontagearbeiten an.

Gefährlicher scheinen Biogasanlagen zu sein. Selbst das Umweltbundesamt spricht von „Sicherheitsdefiziten“: „Vermeintliche Klimaschützer mit Sicherheitsdefiziten“ überschreibt es eine Veröffentlichung. 17 Tote und 74 Verletzte seien in den vergangenen zehn Jahren zu verzeichnen gewesen. Alle zwei Wochen käme es zu einem Unfall in einer Biogasanlage, meldete der „Spiegel“ am 24. Mai dieses Jahres.

 

Alle diese Informationen sollen ausdrücklich nicht die Gefahren und Umweltbelastungen durch konventionelle Kraftwerke relativieren oder aus dem Blickfeld geraten lassen. Von der Wasserkraft bis zur Braunkohle haben alle Technologien Risiken und Nebenwirkungen und es ist immer eine Frage der Abwägung, welche Folgen man bereit ist, in Kauf zu nehmen. Wäre Deutschland ein Land mit großem Wasserkraftpotenzial, würde sich die Frage der Kohlenutzung wie in Schweden gar nicht stellen. Wir sind aber ein flaches, dicht bevölkertes (Noch-) Industrieland mit eher schlechten Bedingungen zur Nutzung von Naturenergien. Andere Länder versuchen den Umweltfolgen der Energiewirtschaft dadurch zu begegnen, dass sie ihren Energiemix ausweiten und damit die Nachteile diversifizieren. Etliche Länder wollen mit Blick auf die Pariser Klimaverträge in die Kernkraft einsteigen.

 

Deutschland ist das einzige Land der Welt, das seinen Energiemix verengt und am Ende vor allem die volatile Wind- und Sonnenenergie zur Basis der Versorgung machen will.

 

Das würde zwangsläufig den exzessiven Ausbau von Wind- und Solaranlagen auf Grund der geringen Energiedichte in einem solchen Ausmaß erfordern, dass gravierende und irreparable Umweltfolgen nicht zu vermeiden wären.

Deshalb ist es nötig, darauf hinzuweisen, dass auch die Ökoenergieanlagen Umwelt- und Klimawirkung haben und eben nicht die reinen, unschuldigen und folgenlosen Technologien sind, als die sie von Lobby und Politik dargestellt werden.

 

 

 

 

 

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“

vom„Energiedetektiv“aus Graz. Hierder Weg zur Studie

 

2) rbb-Inforadio v. 22.8.18 (Brand im Solarpark bei Rathenow)

 




Unsere Wirtschaft soll den Finanz-Klimagötzen geopfert werden!

Was in der Öffentlichkeit so gut wie keine Beachtung fand, wurde in der Finanzbranche als sehr bedeutend wahrgenommen: Dass nämlich beim Pariser Klimagipfel 2015 in der Formulierung des Rahmenabkommens in Artikel 2 der Investmentbranche eine spezielle Aufgabe zugewiesen wurde. Darin heißt es: Um die Klimaziele überhaupt erreichen zu können, müssen ( Absatz C ) ….. „die Finanzmittelflüsse in Einklang gebracht werden mit einem Weg hin zu einer hinsichtlich der Treibhausgase emissionsarmen und gegenüber Klimaveränderungen widerstandsfähigen Entwicklung.

In einer Diskussionsrunde vom 7. und 8. Juni 2019 im Frankfurter House of Finance sprach Dr. Christian Thimann in seiner einleitenden Ansprache sogar euphorisch vom „Wunder von Paris“. Er betonte die bemerkenswerte Tatsache, dass alle Außenmnister das unterschrieben hätten, obwohl sie gewöhnlich wenig oder nichts von Finanzen verstehen. Ferner teilte er mit, dass die EU-Kommission danach zwei Jahre hart an dem Plan gearbeitet habe und zuletzt noch 12 Millionen junge Menschen diese neue Idee auf die Straße getragen hätten,…….. All dies habe dazu geführt, dass „Nachhaltigkeit“ nun auch in der Finanzbranche angekommen sei (Die Einleitung wurde entfernt, stattdessen gibt es ein sehr kurze schriftliche Zusammenfassung). Dr. Christian Thimann, von 2008 bis 2013 Berater des Präsidenten der Europäischen Zentralbank und Vize-Präsident der von Mike Bloomberg gleich nach dem Pariser Abkommen noch im Dezember 2015 gegründeten TCFD ( Task Force on Climate-related Financial Disclosures ), wurde Vorsitzender der Ende 2016 ins Leben gerufenen HLEG ( Hochrangige Expertengruppe für nachhaltiges Finanzwesen, High Level Expert Group).

In einem „Insiderbericht“, der als Kommentar im März 2019 beim Grantham Institute unter der Rubrik „Sustainable Finance Leadership Series“ veröffentlicht wurde, beschreibt selbiger Dr. Christian Thimann sehr detailliert, welche Lawine von Ereignissen diese Pariser Formulierung losgetreten hat. Die vielversprechende Überschrift dieses Kommentars lautet: „Wie die EU gelernt hat, nachhaltiges Finanzieren zu lieben: die Insidergeschichte der HLEG“.

Diese Gruppe von etwa zwanzig Experten, dazu noch weiteren Beobachtern sowie „engagierten“ EU-Komissaren sah in ihrem Auftrag keine geringere Aufgabe als die „Notwendigkeit einer tiefgreifenden Umgestaltung des Finanzsytems zur Unterstützung einer nachhaltigen Entwicklung“ und mit dem erklärten Ziel, diese Umgestaltung Schritt für Schritt gesetzlich zu fixieren. Der im Juni 2019 im Rahmen des EU-Aktionsplans veröffentlichte Bericht der technischen Expertengruppe mit dem Titel „Taxonomie, Technical Report“ erklärt auf mehr als 400 Seiten, worauf sich die europäische Wirtschaft demnächst einstellen muss. Durchgängig für alle Wirtschaftsbereiche, wie Landwirtschaft, Forst-und Wasserwirtschaft, industrielle Produktion, Energie, Transport, Kommunikation und Bauwirtschaft wird darin untersucht, nach welchen Kriterien man zukünftig beurteilen wird, was als klimaschonend gelten kann und was nicht oder, gemäß dem neuen Pariser Passus : Was mit den „Finanzmittelflüssen in Einklang gebracht werden“ kann und was nicht.

Was hier entsteht, ist ein neues Klassifikationssystem für Nachhaltigkeit, genannt „EU-Taxonomie“, das mit Marktwirtschaft und mit Industriepolitik nichts aber dafür mit grüner Ideologie umso mehr zu tun hat (hier).

Offensichtlich muß man in der Bundesrepublik nüchtern zur Kenntnis zu nehmen, dass nach dem zwangsweise vereinbarten Ausstieg aus der Kernenergie und desgleichen für den Bereich Kohle nun gesetzliche Vorschriften von der Finanzbranche (mittels EU-Gesetzgebung) für die Finanzbranche auf der Tagesordnung stehen, alles Schritte in die gleiche falsche Richtung.

Zum großen Bedauern des grünen Abgeordneten Giegold und auch anderen in der EU ist bis heute, August 2019, die Anwendung der Taxonomie noch auf den Bereich „Nachhaltige Finanzprodukte“ beschränkt, aber auch dies soll sich ändern.

 

Warum die Hektik?

Die Hektik, mit der diese Schritte gerade in der jüngsten Zeit in der EU betrieben werden und die parallel dazu von nahezu allen Medien verbreitete apokalyptische Hysterie deuten auf Folgendes hin: Eine ganze historische Periode kommt an ihr Ende mit dem verzweifelten Versuch, auf den letzten Metern noch durchzusetzen, was über so viele Jahrzehnte nur teilweise gelang. Der Irrglaube von den Grenzen des Wachstums , der die Politik des Westens nun seit 50 Jahren immer wieder bestimmte, beruhte auf zwei Behauptungen, die beide extrem ideologischer und nie wissenschaftlicher Natur waren:

Behauptung 1: Das industrielle Wachstum der reichen Nationen verschleiße die Ressourcen der Welt und zerstöre die Umwelt und könne so nicht weitergehen.

Behauptung 2: Wohlergehen und Prosperität der Bevölkerung in den Industrienationen könne auch ohne das traditionelle Wachstum der Industrie gesichert werden, indem man stattdessen auf spektakuläre Finanmarktgewinne, Beschäftigung im Dienstleistungssektor und die Realisierung einer „Informations-Revolution“ setze.

Die New Economy platzte nach kurzem Höhenflug bereits 2001, gefolgt vom Finanzkrach 2008 und trotzdem hielten besonders die großen Banken, Investmenthäuser, Versicherungen und Pensionsfonds fest an dem Konzept, dass Finanzmarktgewinne auch zukünftig das Bombengeschäft sind. Das Konzept der Dekarbonisierung, die Idee vom entmaterialisierten Wachstum, vom ökologischen Fußabdruck und der ganzen Green Economy stammen wesentlich aus den Denkfabriken der Finanzbranche, die damit nicht nur große Gewinne machte, sondern mit unzähligen NGOs auch sehr einflußreiche Propagandamaschinen schuf, die selbst weite Bereiche der börsennotierten Firmen an der Leine führen. Von einer der erfolgreichsten NGOs, dem Carbon Disclosure Project, sagt selbst Wikipedia, dass die mit diesem Projekt verbundenen 655 Anleger ein Vermögen von mehr als 78 Billionen Dollar verwalten und damit im Besitz eines Großteils der umsatzstärksten börsennotierten Unternehmen der Welt sind.

Nun, nachdem nicht nur die Deutsche Bank in Schieflage geraten und ein hoffnungsloser Fall geworden ist, hängt die zukünftige Existenz mehr und mehr an neuen Wegen.

 

Neue Wege“ sind gefragt

 

Auch in dieser Hinsicht ist die geplante EU-Taxonomie- Gesetzgebung ein Einschnitt selbst für die Investmentbranche. Man müsse nämlich, so Dr. Thimann, selbige (per Reglementierung) davon überzeugen, den gewohnten Hochrisiko-Bereich zu verlassen und wieder mehr Low-Risiko, dafür aber langfristig zu denken. In dem bereits zitierten „Insiderbericht“ verrät er überraschend und ziemlich ausführlich, warum die bisher gängige Spekulation ganz schlecht ist. Allerdings sind die Konsequenzen, die er als Lösung vorschlägt, noch schlimmer für die Wirtschaft als die Spekulation – nämlich tödlich. Hören wir aber zunächst, was er zum Thema Spekulation zu sagen hat:

 

Da er die schwärzesten Tage der Finanzkrise und das ganze Elend der Hedgefund Manager erlebt habe, sei ihm klar geworden, dass man einen ganz neuen Weg brauche und deshalb habe er die Aufgabe der High Level Expert Group mit Freude angenommen. Im Zuge dieser Arbeit sei er zu der Erkenntnis gekommen, dass spekulative Finanzmarktgewinne den inhärenten Fehler aufweisen, keinen nennenswerten wirtschaftlichen Wert zu schaffen und dass es deshalb notwendig sei, den Bereich Finanz-Investition von dem Bereich der Finanz-Spekulation zu trennen. Während im Bereich Investition an der Realisierung langfristiger Renditen gearbeitet werde, suche die Spekulation nur den kurzfristigen Profit.

Zitat: „Die Sphäre der Finanzspekulation versucht, kurzfristige Gewinne aus dem Handel mit solchen langfristigen Vermögenswerten zu ziehen. Diese >Kurzzeit< kann von Mikrosekunden bis zu Tagen oder Wochen reichen. Ziel ist es, Gewinne nicht aus den längerfristigen, zugrunde liegenden wirtschaftlichen Erträgen dieser Vermögenswerte zu ziehen, sondern aus ihren kurzfristigen Preisbewegungen an den Finanzmärkten. Der Großteil des Finanzhandels basiert auf dieser Aktivität, die praktisch keinen wirtschaftlichen Wert schafft, die Finanzzyklen verschlechtert und eine unechte Marktliquidität liefert. Die in dieser Aktivität verbrauchten Ressourcen würden in der Realwirtschaft viel nützlicher eingesetzt. Ich persönlich bin der Ansicht, dass wir erst dann zu einem nachhaltigen Finanzsystem gelangen werden, wenn Politik und Regulierung den Umfang solcher Finanzspekulationen drastisch verringern. Nur wenn das gemacht wird,– und nur dann, wird der Bereich der Finanzinvestitionen und nachhaltigen Finanzierungen florieren.“ (Zitatende)

 

So weit, so gut, aber dann kommt der Pferdefuß.

 

Das gesamte EU-Taxonomie Unternehmen zusammen mit der von Blumberg geleiteten Task Force on Climate-related Financial Disclosures, (TCFD) https://www.fsb-tcfd.org/ verfolgt die Absicht, die Transformation der Energiesysteme jetzt ohne weitere Verzögerung auf den Weg zu bringen und die Mobilisierung der notwendigen Investitionen in Billionenhöhe durch neue Reglementierungungen sowohl aus privaten als auch öffentlichen Geldern zu erreichen.

Aus prinzipiellen physikalischen und wirtschaftswissenschaftlichen Gründen ist das aber keine, wie er oben fordert, wertschöpfende Investition in die Realwirtschaft. Es ist gerade das Gegenteil mit voraussehbar katastrophalen Folgen und zwar eine Rieseninvestition in einen erzwungenen Rückschritt. Es ist der aussichtslose Versuch, eine Industrienation in einen Modus operandi mit Energiedichten des Mittelalters zu befördern und wird deswegen irgendwo auf dem Weg dahin an die Wand fahren, wenn nicht vorher die Reißleine gezogen wird.

 

Energiedichte als Entwicklungsprinzip

 

Die technologische Entwicklung gesunder Wirtschaften geht prinzipiell in Richtung höherer Energiedichten, weil die Versorgung einer wachsenden Bevölkerung von der Beherrschung höherer Formen der Energie und deren Einführung in den Produktionsprozeß abhängt.

 

Es kann gut sein, dass Dr . Thimann als Experte der Versicherungsbranche von Energiedichte genauso wenig versteht, wie die von ihm oben zitierten Außenminister von Finanzwirtschaft. Andererseits müßten ihm die Warnungen auf der Webseite der Agora Verkehrswende bekannt sein, wo erklärt wird, dass die Senkung des Energieverbrauchs oberstes Ziel sei. Niemand hätte noch vor 50 Jahren einen solchen Unsinn veröffentlichen können, und Ludwig Erhard wird sich im Grabe umdrehen. Um jetzt nicht missverstanden zu werden: Es geht hier nicht um Energiesparsamkeit, einem absolut vernünftigen kaufmännischen Prinzip. Es geht vielmehr um eine neue Wirtschaft, die von der EU, gesetzmäßig erzwungen, mit dem ehemaligen spanischen Hinrichtungsinstrument Garrotte langsam erdrosselt wird. Erdrosselt zu stetig geringerem Energieverbrauch landet sie final im Mittelalter. Es wird dazu nicht kommen, denn es gibt auch noch eine Welt außerhalb der EU, die ob dieses Wahnsinns die Hände über dem Kopf zusammenschlägt, vielleicht frohlockt, eine Menge Konkurrenten los zu werden, welche aber aus unserem Ruin am Ende auch nicht profitieren werden.

 

Was hier geplant wird, kann man nicht drastisch genug ausdrücken: Eine Industrienation auf diktatorischem Wege in eine wetterabhängige Energieversorgung zu zwingen bedeutet mittelfristig eine ähnliche Vernichtung von Volksvermögen wie die Umstellung einer produktiven Wirtschaft auf die Produktion von Kriegsmaterialien. (Auch das wirft bekanntermaßen für eine Weile hohe Gewinne ab). Alleine die geplante Schließung moderner und produktiver Kernkraft-, Kohle- und Gaskraftwerke ist eine Vernichtung volkswirtschaftlichen Reichtums, die in der Geschichte ihres gleichen sucht.

 

Die Phantasie der Finanzbranche besteht darin, kurzfristig aus den potentiell notwendigen billionenschweren Investitonen zu profitieren, die nötig wären, um den Versuch zu unternehmen, die mit dieser Transformation systematisch herbeigeführte Wetterabhängigkeit unserer Energieversorgung überhaupt irgendwie managen zu können. Die EZB scheut sich nicht, zu ihrer Rechtfertigung Science- Fiction-Apostel wie Jeremy Rifkin heranzuziehen, die den gigantischen Umbau auch noch als „ Vierte Industrielle Revolution“ anpreisen, wie beim EZB Treffen im Januar 2017 in Frankfurt geschehen (hier).

Kein Land würde diesen Selbst-Zerstörungsprozess freiwillig einschlagen. Man muß die öffentliche Meinung nur lange und intensiv genug an die Anbetung neuer Klima-Götzen gewöhnen, dann tönt es selbst aus Kindermund: „Industrie ist schlecht, zurück auf die Bäume, ihr Affen„. Was wir gegenwärtig erleben, ist eine international koordinierte Manipulation, die keinen anderen Zweck verfolgt, als unter Zeitdruck gesetzlich zu verankern, was unter freiheitlichen Bedingungen niemals durchsetzbar wäre.

 

Besonders die große mittelständische Industrie in Deutschland, die sich bisher weitgehend erfolgreich den Geflogenheiten der börsennotierten Konzerne entzogen hat, sollte sich umgehend mit den Folgen der geplanten EU-Taxonomie-Reglementierung nicht nur befassen, sondern sich in den Diskussionsprozess endlich einmischen, um den Weg in ein wirtschaftliches Desaster noch gerade rechtzeitig zu verhindern. Die Unterlagen zu der geplanten Transformation sind vielfältig und für alle einsehbar. Die Herausforderung besteht darin, den gigantischen Unsinn der geplanten Energie-Transformation zu verstehen und dem begleitenden Donnergetöse der Klimagötzen cooler zu begegnen.




„Klimaschädlicher Klimaschutz“: Greta Thunbergs Seereise pumpt mehr CO2 in die Atmosphäre als ein Langstreckenflug

Die Berliner Tageszeitung/ taz ist von Anfang an das Hausblatt der Grünen. Umso erstaunlicher ist, daß das Organ Gretas Törn aufs heftigste kritisiert. So soll die Seereise so viel Emissionen verursachen wie sechs Transatlantikflüge. Hätte das Mädchen sich gleich selber in den Airbus gesetzt, wärs weniger gewesen.

Der Grund für den hohen Ausstoß ist die Infrastruktur einer modernen Reise, egal ob mit Strahlturbine oder Segel. Auf den Fotos sind zwar Greta, ihr Vater und ihre Skipper zu sehen, die Yacht aber wird von fünf Kollegen ohne die Aktivistin zurückgefahren werden. Hinzu fliegen die fünf natürlich. (Hätten die nicht auf einem Frachter eine Mitfahrgelegenheit buchen können? Hätte ich schon aus PR-Gründen gemacht.) Mit Rückflug des einen Skippers fallen also sechs Flüge an, wenn man Gretas Entourage und den Medientroß außer acht läßt, die wohl auch den Flieger nehmen.

Hinzu kommt eine Reihe von unappetitlichen Begleiterscheinungen, die von der alternativen Medienszene rund um Weltwoche und Youtube (Charles Krüger, Miro Wolsfeld etc…) kommuniziert wurden. Die Yacht Malizia II gehört dem Jetset-Mitglied Pierre Casiraghi aus dem Hause Grimaldi, den Herrschern von Monaco. Dem Vernehmen nach gehört dem Adelsgeschlecht eine Hubschrauber-Taxi-Fluglinie, die Superreiche vom Flieger zu ihren Edeldestinationen bringt. Boris Herrmann, der eine von Gretas Skippern, soll dort in leitender Funktion arbeiten.

Unsere Leser wiesen im Kommentarbereich darauf hin, daß die unglaublich teuren Regatta-Yachten ihre Polymer-Segel je nach Einsatz häufig wechseln müssen; Lebensdauer meist unter einem Jahr. Das Boot selbst existiert auch nur zehn Jahre und ist dann verschlissen. Segel und Schiffsrumpf bestehen überwiegend aus sehr leichtem Kunststoff oder Kompositmaterial, das kaum rezyklisiert werden kann; ähnlich den Windradflügeln. Heißt: verbrennen.

Meine Recherche zum Schiffstyp hat noch mehr Verblüffendes zu Tage gefördert: Regattayachten sind nicht die Schiffe mit den Champagner-schlürfenden Millionären und ihren Badenixen drauf, die sich auf dem Bugdeck sonnen. Nein, es sind Renn-Yachten, sozusagen Formel1-Schiffe mit Segel statt Wärmekraftmaschine. Extrem leicht und schnell, für lange Strecken auf hoher See konstruiert, wie ein Leser uns schrieb. Deswegen ist Greta auch nach nur zwei Wochen schon in New York. Das Personal an Bord besteht daher wie in der Formel 1 üblicherweise aus hartgesottenen bestens trainierten Männern. Frauen oder gar Mädchen findet man auf den Yachten während der Fahrt kaum, was neben der erforderlichen Kraft und Ausdauer der Skipper auch dem Umstand geschuldet ist, daß es zur Gewichtsverringerung weder richtige Schlafkojen noch eine Toilette an Bord gibt (ähnlich die Tour de France – da fahren nur Männer, weil es keine Austrittspausen gibt; es wird auf dem Rad erledigt).

Die Eltern von Greta mußten dem Regatta-Törn mit Sicherheit juristisch zustimmen, da das Mädchen erst 16 ist. Und selbst wenn nicht, ist das Verhalten der Ernman-Thunbergs völlig unverantwortlich. Greta ist minderjährig und offensichtlich biologisch jünger, als ihr Geburtsdatum anzeigt. Zusammen mit ihrem Morbus Asperger ist sie kaum in der Lage, selbstverantwortliche Entscheidungen zu treffen. Die Eltern und ihre Berater hetzen das Mädchen durch die Medien und dulden, daß Greta alle möglichen unverdienten Preise entgegennimmt. Nun dieser knüppelharte Segeltörn. Was soll dabei herauskommen? Wenn das Mädchen 20 ist, müßte sie mit den Nerven völlig fertig sein.

Abschließend möchte ich die Frage in die Runde werfen, wieso die taz und mittlerweile viele andere Sprachrohre das Tamtam um Greta auseinandernehmen und zumindest teilweise Klartext reden. Der eine Grund mag sein, daß den ganz Scharfen der rosarote Kinderkult um ein Mädchen mit Zopf auf die Nerven geht. Man will doch kämpfen und nicht geistig im Kinderzimmer herumhocken. In dem Zusammenhang sei dringend darauf hingewiesen, die Kommentare unter dem verlinkten taz-Artikel zu lesen.

Der andere Grund mag sein, daß die Indoktrinierten in den Regierungs-Kapellen nur teilweise zynisch sind, viele aber auch auch rechtgläubig. Diese Frommen ärgern sich dann natürlich darüber, wenn ihre „Verbündeten“ das Gegenteil dessen tun, was sie predigen. Exemplarisch dafür ist der Kontraste-ARD-Beitrag über den Grünen-MdB Janecek, der vorschlug, begrenzende Flugkonten für jeden Bürger einzurichten, was Annalena Baerbock sofort kassierte, weil die eigene Klientel Hauptbetroffene wäre.

 

 




Wie haben sie das berechnet?

Was soll das alles nun? Ein Tweet über das, was Strogatz „mathematisches Twitter“ nennt. Das Tweet lautete:

em ♥︎ (@pjmdolI) 28. Juli 2019

Das ist einfach: Die korrekte Antwort lautet:

Jawohl, das stimmt! Die korrekte Antwort lautet: entweder 16 oder 1, abhängig von einem interessanten Aspekt der Mathematik. Das vorgestellte Image vermittelt uns ein paar Einsichten darüber, was hier los ist. Strogatz erklärt es so:

Obige Frage hat eine eindeutige und definitive Antwort – vorausgesetzt, wir richten uns alle nach den gleichen Regeln, welche die „Reihenfolge der Operationen“ vorgeben. Stehen wir wie in diesem Fall davor, verschiedene mathematische Operationen durchzuführen – um Ausdrücke in Klammern zu evaluieren, um Multiplikationen und Divisionen durchzuführen oder Additionen und Subtraktionen – die Reihenfolge der Durchführung dieser Operationen kann einen gewaltigen Unterschied ausmachen.

Wenn wir die Taschenrechner heranziehen, zeigt sich, dass meine Antwort absolut korrekt ist:

Bild von einem Twitterer)

Der TI-84Plus C von Texas Instruments zeigt das Ergebnis „16”, während der Casio fx-115MS das Ergebnis „1” zeigt.

Auch eine rasche Durchsicht des Online-Taschenrechners ergibt gemischte Ergebnisse:

Und vielleicht etwas genauer:

Mathe-Freaks wissen, dass das Problem in der Reihenfolge der Operationen liegt, und es gibt Konventionen hinsichtlich dieser Reihenfolge. In der Schule haben wir eine der folgenden Konventionen gelernt:

BODMAS ist eine Abkürzung. Sie steht für Bracket, Of, Division, Multiplication, Addition und Subtraction. In manchen Regionen ist PEDMAS (Parentheses, Exponents, Division, Multiplication, Addition und Subtraction) das Synonym für BODMAS.

PEMDAS ist eine Abkürzung für die Begriffe Klammern (Parenthesis), Exponenten, Multiplikation, Division, Addition, Subtraktion. Finden sich zwei oder mehr Operationen in einer einzigen Gleichung, gibt die Reihenfolge der Buchstaben in PEMDAS vor, was zuerst berechnet werden muss, was als zweites usw. bis die Rechnung vollständig ist. Falls es Klammern in der Gleichung gibt, sagt PEMDAS, zuerst die Berechnungen innerhalb der Klammern durchzuführen.

Strogatz sagt: „Die strikte Antwort zu dieser elementaren PEMDAS-Konvention ergibt nur eine Antwort: „16“. Oh, aber sein Eingabefeld (his editor) und viele Leser „…bestanden darauf, dass die richtige Antwort ,1′ sei“.

Um Strogatz‘ Ergebnis „16“ zu erhalten, muss man Folgendes machen: 8/2 = 4, dann 4 x (2+2) oder 4 x 4 = 16.

Wie man das Ergebnis „1“ bekommt, erklärt Strogatz so:

Was war da los? Nach der Lektüre der vielen Kommentare zu dem Beitrag erkannte ich, dass die meisten Kommentatoren eine andere (und anspruchsvollere) Konvention als die elementare PEMDAS-Konvention bemühen, die ich in dem Artikel beschrieben habe.

In dieser anspruchsvolleren Konvention, die oftmals in der Algebra Anwendung findet, wird einer impliziten Multiplikation höhere Priorität eingeräumt als einer expliziten Multiplikation oder expliziten Division, in welchen jene Operatoren aus Symbolen bestehen wie x; *; / oder ÷. Unter dieser anspruchsvolleren Version wird der impliziten Multiplikation in 2(2+2) höhere Priorität eingeräumt als in der expliziten Division in 8÷2(2+2). Mit anderen Worten, 2(2+2) sollte zuerst evaluiert werden. Dann ergibt sich 8÷2(2+2) = 8÷8 = 1. Nach der gleichen Regel, so argumentierten viele Kommentatoren, ist der Term 8÷2(4) nicht synonym mit 8÷2×4, weil die Klammern die sofortige Berechnung verlangen, was wiederum 8÷8 = 1 ergibt.

Falls also jedermann den gleichen Konventionen folgt, und zwar sowohl bei der Konstruktion von Gleichungen als auch bei deren Lösung, wäre alles in Ordnung und wir würden alle die von uns erwartete Antwort bekommen.

Aber…:

Diese (anspruchsvollere) Konvention ist sehr vernünftig, und ich stimme zu, dass die Antwort dann ,1′ ist, falls wir alle dieser Konvention folgen. Aber das ist eben allgemein nicht der Fall. Die Taschenrechner von Google und WolframAlpha benutzen die elementarere Konvention und unterscheiden nicht zwischen impliziter und expliziter Multiplikation, wenn sie darauf programmiert werden, einfache arithmetische Terme zu berechnen.

Und außerdem, nachdem Google und WolframAlpha evaluierten, was immer in Klammern steht, löschen sie diese Klammern effektiv und stellen deren Inhalt nicht höher in der Priorität. Im Einzelnen interpretieren sie 8÷2(2+2) als 8÷2x(2+2) und behandeln dies synonym mit 8÷2×4. Dann haben gemäß PEMDAS Division und Multiplikation die gleiche Priorität. Also rechnet man von links nach rechts und erhält 8÷2×4 = 4×4 und kommt zum Ergebnis 16. Für meinen Beitrag habe ich mich entschieden, mich auf diese einfachere Konvention zu konzentrieren.

Unser werter Mathematiker folgert:

Genauso ist es wesentlich, dass jeder, der Software für Computer, Tabellen und Taschenrechner schreibt, die Regeln der Reihenfolge von Operationen kennt und diesen folgt.

Aber ich habe schon gezeigt, dass die Software-Schreiber nicht alle den gleichen Konventionen folgen … Strogatz weist darauf hin, dass selbst anspruchsvolle Software wie WolframAlpha und Google nicht den anspruchsvollen Regeln folgen und „16“ erhalten.

Das finale Statement von Strogatz lautet: „Einige Tabellen-Kalkulationen und Software-Systeme weigern sich schlicht und ergreifend, die Frage zu beantworten – sie schrecken vor der verstümmelten Natur zurück. Das ist auch mein Gefühl sowie das Gefühl der meisten Mathematiker, mit denen ich gesprochen habe. Falls man eine eindeutigere Antwort haben will, dann stelle man eine eindeutigere Frage.

Kenneth Change von der NY Times schrieb jüngst dazu den Beitrag „Essay: Why Mathematicians Hate That Viral Equation“.

—————————

Vielleicht findet der eine oder andere diesen Beitrag instruktiv oder erheiternd. Die wirkliche Krux des Ganzen ist, dass der ursprüngliche Term „8÷2(2+2) absichtlich so schlecht formuliert worden ist, damit er unklar bleibt.

Aber was soll das Ganze jetzt? Nun, es erhebt sich eine sehr ernste Frage: Falls einfache mathematische Gleichungen mit verschiedenen Antworten interpretiert werden können oder verschiedene Lösungen ergeben, abhängig von der Reihenfolge der Operationen und unter der Vorgabe, dass selbst ernste mathematische Software verschiedenen Konventionen folgt – welches der sehr anspruchsvollen mathematischen Modelle, in denen die Variablen alle voneinander abhängig sind, muss iterativ gelöst werden?

Was die Klimawissenschaft betrifft – werden unterschiedliche zukünftige Klima-Szenarien simuliert, falls jemand die Reihenfolge der Berechnung ändert? Nicht in dem einfachen Sinn dieser viralen Twitty-Gleichung, sondern in einem erheblich ernsteren Zusammenhang: Sollte ein Klimamodell, ein General Circulation Model, erst nach Temperatur auflösen? Oder nach Luftdruck? Oder zunächst die einfallende Strahlung berücksichtigen? Das IPCC-Diagramm sieht so aus:

Ich versuchte, die Anzahl der Variablen zu zählen, die in diesem vereinfachten Diagramm auftauchen, und kam auf ein paar Dutzend – bevor ich erkannte, dass es zu vereinfacht war, um eine reale Anzahl zu liefern. Wo beginnt das Modell mit jeder Iteration? Spielt es eine Rolle, mit welcher Variablen es anfängt? Ergibt die Reihenfolge der Berechnungen vereinfachter Versionen der nicht-linearen Gleichungen einen Unterschied hinsichtlich der Ergebnisse?

Das muss es – würde ich denken.

Rechnen alle GCMs der westlichen Welt in der gleichen Reihenfolge? Was ist mit den zumeist unabhängigen russischen Modellen (INM-CM4 and 5)? Ergeben die russischen Modelle realistischere Ergebnisse, weil sie die mathematischen Operationen mit einer anderen Reihenfolge durchführen?

Ich weiß es nicht – aber es ist eine schreckliche Frage.

Link: https://wattsupwiththat.com/2019/08/07/howd-they-calculate-that/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Mit der einfachen Gleichung oben werde ich mal „hausieren“ gehen, mal sehen, was so kommt. Aber mir kam ein ganz anderer Gedanke: Da die CO2-Geschichte ja rein politischer Propaganda-Natur ist, wird man sicher die Reihenfolge der Rechnungen so gewählt haben, dass das Gewünschte herauskommt. Wie ist das eigentlich bei den kurz- und mittelfristigen Wettervorhersagemodellen (GFS, EZMW, ICON usw.)?




Das drohende Wind-Desaster von Boris Johnson

Der entscheidende Anhaltspunkt kam in Gestalt weit verbreiteter Stromausfälle vor zwei Wochen (hier). Eine Million Menschen waren betroffen, Züge blieben stehen, Passagiere waren viele Stunden darin gefangen.

Die Propaganda-Maschinerie des Establishments nahm sofort Fahrt auf. Ein Sprecher des National Grid sprach von einem „sehr, sehr seltenen Ereignis“. Außerdem versicherte er uns in klassischer Ablenkungs-Manier, dass es sich „nicht um böse Absicht oder einen Cyberangriff handelte“.

Nun gut. Welche Gründe hatte dann aber dieser Blackout, der – wie Richard North zu Recht hier sagte – eine „nationale Schande“ war und „die Art von Ereignis, welche wir eher in einer zugrunde gerichteten Ökonomie erwarten wie in Venezuela?“

Nun, die offizielle Antwort lautet „wir wissen es nicht und warten auf die Ergebnisse einer Untersuchung“.

Inoffiziell jedoch ist die Ursache schreiend offensichtlich. Das Nationale Netz von UK – und damit die Stromversorgung des Landes – wurde höchst gefährlich beeinträchtigt durch die Jagd nach erneuerbarer Energie. Je mehr unzuverlässige Quellen an das Netz gebracht werden – vor allem von Windturbinen – desto instabiler wird das ganze System.

Die jüngsten Stromausfälle waren alles andere als ein Einzelereignis, sondern nichts als ein Vorgeschmack auf noch Schlimmeres, das noch kommen dürfte.

Ursache dafür ist, dass Blackouts keine Schwäche des Stromsystems sind, sondern eine Folge der Einspeisung erneuerbarer Energie. Sie sind ein Merkmal derselben.

Klügere Köpfe prognostizierten und warnten genau davor schon seit Jahren. Christopher Booker beispielsweise beschrieb schon vor zehn Jahren die erfolgreiche Jagd der Regierung nach Windenergie als „das Verrückteste jemals in unserem Leben“. Er schrieb:

Sagen wir es ganz deutlich: UK steht vor einer beispiellosen Krise. Nicht mehr lange, und wir werden 40 Prozent unserer Erzeugungs-Kapazität verlieren. Und solange wir nicht augenblicklich mit einer Alternative aufwarten können, WERDEN die Lichter ausgehen“.

Nun, am Freitag waren die Lichter ausgegangen. Und die große Frage lautet jetzt: Wird die Regierung versuchen, die Risse zu verkleistern oder wird sie die Krise als eine Gelegenheit begreifen?

Das vielleicht Beste an diesen Stromausfällen ist, dass sie zu keinem ungünstigeren Zeitpunkt für die Windindustrie hätten kommen können.

Nachdem sich die Regierung von Boris Johnson törichterweise der Politik von Theresa May bzgl. Null-Kohlenstoff-Emissionen bis zum Jahr 2050 verpflichtet hatte, haben Big Wind – und viele von deren Unterstützern in den Mainstream-Medien – sich auf eine Goldgrube neuer Verträge eingestellt.

Erst am Sonntag vor diesem Stromausfall wartete die Mail on Sunday (bizarrerweise, ist das Blatt doch normalerweise ziemlich skeptisch bzgl. Umweltthemen) mit einer massiven Lobeshymne in seinem Wirtschaftsteil auf ob der „Lobby-Offensive“ seitens der Windindustrie: Energiefirmen haben eine Lobby-Offensive losgetreten, welche zu einer Errichtung einer neuen Generation von Windturbinen in den ländlichen Gebieten von UK führen kann. Direktoren großer Energieunternehmen drängen die Regierung, die Restriktionen zu lockern, welche derzeit noch die Installation von Windparks blockieren. Ihre Forderungen können die Konstruktion einer Flotte gigantischer Windturbinen auslösen im Zuge des Kampfes des Landes zum Erreichen der ambitionierten Ziele, Emissionen zu kappen und die Energie für Elektrofahrzeuge zu erzeugen. Wäre der Stromausfall nicht gewesen, hätten sie damit sogar auch durchkommen können. Aber jetzt – wenn Energieministerin Andrea Leadsom alles richtig macht, könnte sie in der Lage sein, das schändliche Programm in die Tonne zu treten.

Der Schlüssel hier wird es sein sicherzustellen, dass die Untersuchung fair, transparent und kein Grüngewäsch ist – also etwas, das recht unwahrscheinlich daherkommt, ist doch die National Grid-Gesellschaft vollständig der grünen Agenda hörig.

Falls die Untersuchung halbwegs sorgfältig durchgeführt wird, kann ich mir kaum vorstellen, dass sie zu einem anderen Ergebnis kommt als dass die Erneuerbaren das Netz immer weniger stabil machen und dass der Gedanke, immer neue Windprojekte auf den Weg in dieses überfrachtete System zu bringen, ein absolutes Auf-Keinen-Fall sein sollte.

Das wird so ziemlich von Leadsoms Willenskraft abhängen – und auch von der Unterstützung seitens ihrer Mit-Pragmatiker innerhalb des Kabinetts, als da wären Priti Patel, Jacob Rees Mogg und Liz Truss.

Bis jetzt wurden sogar klimaskeptische Kabinettsmitglieder gezwungen, so zu tun, als ob sie hinter dem Erneuerbaren-Selbstmordprogramm stehen – als Unterstützung für die Grünlastigkeit der Regierung von Boris Johnson.

Erst am Tag vor dem Blackout war Leadsom selbst höchst eifrig am twittern irgendeines Unsinns aus dem Department for Business, Energy and Industrial Strategy (BEIS), wobei sie für Net Zero, COP26 und die Windindustrie warb.

———————————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/08/14/delingpole-boris-johnsons-looming-wind-disaster/




Ein Selbstdarsteller verrät die Blaupause für die Große Transformation in eine CO2-freie Welt

Manchmal finden sich dann ganz zufällig Antworten auf solche offenen Fragen, in diesem Fall der Artikel „Die neue ‚große Erzählung‘ vom menschengemachten Klimawandel – jenseits von Postmoderne und Moderne“ von Heike Diefenbach auf Science Files, Zitat daraus:

Im Zuge solcher Dekonstruktionsprojekte wird z.B. die Menschheitsgeschichte in eine Geschichte der Unterdrückung von Frauen durch Männer pervertiert und die Sklaverei als Erfindung weißer Männer in relativ moderner Zeit ausgegeben. Solche Erzählungen, die durch Dekonstruktionsprojekte Postmoderner entstehen, werden selbst nicht zum Gegenstand entsprechender Dekonstruktionen – trotz aller angeblichen „Reflexivität“ Postmoderner und De-/Konstruktivisten, und so kommt es, dass im Zuge eines weiteren, m.E. besonders perversen, Widerspruchs die neukonstruierten Erzählungen zu „Wahrheiten“ werden, die gesellschaftspolitisches Handeln anleiten, z.B. durch Quotierungen zugunsten von Frauen oder ethnischen Minderheiten, die in der Erzählung als Wahrheit postuliertes vergangenes Unrecht irgendwie „heilen“ soll.

Solche „großen Erzählungen“ der Postmodernen waren geeignet – anders als die „großen Erzählungen“ der Moderne – die Gesellschaft zu fragmentieren, statt sie zu integrieren, und wenn man einen die gesamte Erde umspannenden, totalitären Superstaat herbeiführen wollte, wäre dies eine gute Strategie, um Widerstand zu verhindern oder einzuschränken, kämpfen die so fragmentierten gesellschaftlichen Gruppen doch eher gegeneinander als gegen diejenigen, die für die Fragmentierung verantwortlich sind. Derzeit findet aber ein Prozess statt, in dem eine weitere „große Erzählung“ formuliert und durchzusetzen versucht wird, nämlich die Erzählung vom menschengemachten Klimawandel. Es geht in dieser Erzählung um nichts Weniger als die Rettung der Erde als Lebensraum für Menschen in der Zukunft.“

Und gleich darüber findet sich zufällig der Artikel von Michael Klein „Klimaextremismus: In Potsdam wird Faschismus gesponsert“, wo es zunächst heißt, Zitat:

Das Institute for Advanced Sustainability Studies (IASS) in Potsdam ist ein eingetragener Verein. Dessen ungeachtet hängt das IASS am Tropf des Bundesministeriums für Bildung und Forschung und des Ministeriums für Wissenschaft, Forschung und Kultur des Landes Brandenburg.“

Weiter wird dort über ein Interview berichtet, in dem ein Lance Bennett, Professor für Politikwissenschaft und Kommunikation an der University of Washington und derzeit Senior Fellow am IASS, erklärt, wie bessere Kommunikation den notwendigen Kurswechsel vorantreiben kann, um die verheerende Auswirkungen des Klimawandels abzuwenden. Die im Artikel von Klein problematisierte Aussage findet sich dort in einem Screenshot, wo es wiederum heißt, Zitat:

Das Buch heißt Communicating the Future. Es beschreibt, wie sich Ideen über einen aus vier Schritten bestehenden Prozess in der Gesellschaft ausbreiten können. Der erste Schritt ist das Hervorbringen von Ideen durch Thinktanks, Forschungsnetze und Interessenvertretungen – unterstützt durch strategischere Visionen seitens der Geldgeber. Dann kommt die wirkungsvolle Verpackung dieser Ideen – zum Beispiel eine andere Art der Einordnung von Umweltproblemen, indem man sich stärker auf Wirtschaftsideen konzentriert. Dadurch wird es möglich, positivere Geschichten über Arbeit, Lebensstil und die Zukunft zu erzählen. Diese Verschiebungen bei der Ideenfindung und Verpackung der Kommunikation führen dann zum dritten Schritt, in dem es um eine bessere Abstimmung der derzeit zersplitterten politischen Netzwerke geht, so dass unterschiedliche Organisationen ähnliche Ideen an ihre eigenen Interessengruppen weitergeben können. Im letzten Schritt wird diese stärkere Einheit der Ideen zur wirtschaftlichen Umgestaltung in öffentlichen Druck umgewandelt, der von politischen Entscheidungsträgern und Parteien aufzunehmen ist.“

Haben Sie’s bemerkt? – Nein? – Also:

Dieser superschlaue professorale Selbstdarsteller plaudert hier die theoretischen Grundlagen der globalen Klimahysterie aus. Denn seinen eigenartigen Vorschlag für gesellschaftspolitisches Engineering müssen wir lediglich zurückentwickeln und auf die vergangenen dreieinhalb Jahrzehnte Klimahysterie anwenden. Also noch einmal ganz zurück und dann in kleinen Schritten wieder vorwärts, die jeweiligen Zitate finden Sie auch im eben zitierten Fließtext:

(1) „Der erste Schritt ist das Hervorbringen von Ideen durch Thinktanks, Forschungsnetze und Interessenvertretungen – unterstützt durch strategischere Visionen seitens der Geldgeber.“

(1985-1995)      In meinem Buch „MEHR GEHT NICHT“ hatte ich auf einige Indikationen für eine langfristige konzertierte Klimakampagne in dieser Zeit hingewiesen:

Der Intergovernmental Panel on Climate Change         (IPCC, Zwischenstaatlicher Ausschuss für Klimaänderungen), im Deutschen oft als „Weltklimarat“ bezeichnet, wurde im November 1988 vom Umweltprogramm der Vereinten Nationen (UNEP) und der Weltorganisation für Meteorologie (WMO) als zwischenstaatliche Institution ins Leben gerufen, um für politische Entscheidungsträger den Stand der wissenschaftlichen Forschung zum Klimawandel zusammenzufassen mit dem Ziel, Grundlagen für wissenschaftsbasierte Entscheidungen zu bieten, ohne dabei Handlungsempfehlungen zu geben. (Wikipedia)

Deutscher Bundestag 1989,      Zitat aus der Drucksache 11/4133 vom 08.03.89 mit Hervorhebungen: „Der Ozonabbau in der Stratosphäre und der Treibhauseffekt  werden zu einer immer größeren Herausforderung für die Menschheit. Die Bedrohung der Erdatmosphäre gefährdet das Leben auf der Erde, wenn der gegenwärtigen Entwicklung nicht frühzeitig und umfassend Einhalt geboten wird. Ursache für die Gefährdung sind durch menschliche Aktivitäten freigesetzte Spurengase.“

Club of Rome 1991:     In dem Buch „The First Global Revolution“ (1991) von Alexander King und Bertrand Schneider für den Club of Rome heißt es auf Seite 70, Zitat mit Hervorhebungen:          „The need for enemies seems to be a common historical factor. Some states have striven to overcome domestic failure and internal contradictions by blaming external enemies. The ploy of finding a scapegoat is as old as mankind itself – when things become too difficult at home, divert attention to adventure abroad. Bring the divided nation together to face an outside enemy, either a real one, or else one invented for the purpose.”

Und weiter heißt es dort auf Seite 75, Zitat mit Hervorhebungen:          „In searching for a common enemy against whom we can unite, we came up with the idea that pollution, the thread of global warming, water shortages famine and the like, would fit the bill. In their totality and their interactions these phenomena do constitute a common thread which must be confronted by everyone together. But in designating these dangers as the enemy, we fall into the trap, which we have already warned readers about, namely mistaking symptoms for causes. All these dangers are caused by human intervention in natural processes, and it is only through changed attitudes and behaviour that they can be overcome. The real enemy than is humanity itself.

Die Klimarahmenkonvention (UNFCCC) von 1992

Das Kyoto-Protokoll von 1997

(2) „Dann kommt die wirkungsvolle Verpackung dieser Ideen – zum Beispiel eine andere Art der Einordnung von Umweltproblemen, indem man sich stärker auf Wirtschaftsideen konzentriert. Dadurch wird es möglich, positivere Geschichten über Arbeit, Lebensstil und die Zukunft zu erzählen.“

(1995-2005)      Wissenschaft, Umweltschutz-NGOs und gemeinnützige Stiftungen/Organisationen werden von Klimajüngern unterwandert und auf die Bekämpfung einer „Klimakatastrophe“ ausgerichtet, beispielsweise ADAC,Greenpeace,Sierra Club, WWF, Brot für die Welt, Ärzte ohne Grenzen

(3) „Diese Verschiebungen bei der Ideenfindung und Verpackung der Kommunikation führen dann zum dritten Schritt, in dem es um eine bessere Abstimmung der derzeit zersplitterten politischen Netzwerke geht, so dass unterschiedliche Organisationen ähnliche Ideen an ihre eigenen Interessengruppen weitergeben können.

(2005-2015)      Wissenschaft, NGOs und gemeinnützige Stiftungen bilden Netzwerke, beispielsweise das Deutsche Klimakonsortium, Copernicus,Scientists for Future

(4) „Im letzten Schritt wird diese stärkere Einheit der Ideen zur wirtschaftlichen Umgestaltung in öffentlichen Druck umgewandelt, der von politischen Entscheidungsträgern und Parteien aufzunehmen ist.“

(2015-….?)        Die Fragmentierungvon Gesellschaft und Nationalstaaten ist bereits in vollem Gange. Und das EEG, Greta und die CO2-Steuer sind  bereits erfolgreiche Teilergebnisse  = das Klima-Netzwerk wird durch unser (Steuer-)Geld finanziert, die Klimaikone erhält die Goldene Kamera, den Prix Liberté in Erinnerung an den D-Day im Juni 1944, einen Ehrendoktorund vielleicht sogar noch den Nobelpreis– und wir alle bekommen jetzt eine schöne CO2-Atemsteuerals globale GEZ-Abgabe auf das eigene Leben verpasst…

Wir haben jetzt also einerseits die professorale Theorie, „wie sich Ideen über einen aus vier Schritten bestehenden Prozess in der Gesellschaft ausbreiten können“. Und wir wissen anderseits, wie sich die globale Klimahysterie im Verlauf der vergangenen Jahrzehnte in vier Schritten ausgebreitet hatte. Im direkten Vergleich stellt also die professorale 4-Schritte-Theorie in erschreckender Weise eine Blaupause für den historischen Ablauf der Klimahysterie dar.

Wenn man so will, beweist sich also die professorale Science-Fiction durch die tatsächlichen Abläufe in der jüngeren Vergangenheit. In einem historischen Rückblick auf die letzten drei Jahrzehnte sind die wirklichen Ursachen für alle unerwarteten und unlogischen politischen Entscheidungen und alle spontanen Astroturf-Massenhysterien bisher immer schön im Dunkeln geblieben. Und das alles hatte mit Hilfe von Wissenschaft und Massenmedien auch hervorragend funktioniert. Und dann kommt da so ein Professor für Politikwissenschaft und Kommunikation und plaudert mit seiner 4-Schritte-Theorie den ganzen Fahrplan für die globale Dekarbonisierung aus – wirklich dumm gelaufen, wobei man sich andererseits wundern muss, dass ein solches Leaking nicht schon viel früher erfolgt ist…

Also haut weiter in die Kerbe, meine Damen und Herren Klimarealisten, denn es ist nie zu spät – und es ist immer von Vorteil, wenn man die Pläne seiner Gegner kennt!

 

Anmerkung: Kein Wunder also, dass die meisten Kritiker der Klimareligion in den 1980-er Jahren ihre Ausbildung bereits abgeschlossen hatten und deshalb heute als „alte weiße Männer“ (und Frauen) öffentlich diskeditiert werden; umso höher ist übrigens jüngeren Semestern eine Kritik an der globalen Klimareligion anzurechnen. Aber auch die Klimarealisten sollten sich nicht über jeden Klimaaberglauben erhaben fühlen, denn auch sie verteidigen mehrheitlich einen „natürlichen atmosphärischen Treibhauseffekt“ mit Klauen und Zähnen – obwohl seine Herleitung mit dem Stefan-Boltzmann-Gesetz nachweislichdie zwingende physikalische Randbedingung der Gleichzeitigkeit verletzt…




Juli 2019 – war es der heißeste jemals?

Die NOAA hat Milliarden Dollar der Steuerzahler ausgegeben, um Satelliten in den Orbit zu bringen zur Überwachung des Wetters und damit auch des Klimas auf der Erde. Bezahlt werden zwei verschiedene wissenschaftliche Institutionen, UAH und RSS, um globale Temperatur-Datensätze der Erdatmosphäre zu erstellen. Aber die NOAA ignoriert die Datensätze dieser beiden Gruppen notorisch, wenn es darum geht, den Klima-Katastrophismus voranzutreiben.

Jene, welche eine vollständige wissenschaftliche Erklärung lesen wollen, warum der Juli 2019 NICHT der heißeste jemals war, sollten den Beitrag von Dr. Roy Spencer vom 2. August anklicken (in deutscher Übersetzung hier).

All jenen, die es vorziehen, sich visuell damit zu befassen, zeige ich zwei Graphiken der beiden globalen Temperatur-Datensätze via Satelliten, welche die NOAA ignoriert, wenn sie „heißeste-Jemals“-Erklärungen abgibt. Zunächst die Graphik von Remote Sensing Systems:

Es ist interessant anzumerken, wie anders sich der visuelle Eindruck darstellt zwischen den jüngsten Daten und den weiter zurück liegenden Daten. In das obere Bild mit den „jüngsten“ Daten ist die Trendlinie des gesamten langzeitlichen Datensatzes eingezeichnet – und nicht die Trendlinie der jüngsten Daten. Nichtsdestotrotz ist aber offensichtlich, dass die Daten flach verlaufen (oder sogar einen Abwärtstrend aufweisen, wenn man am Höhepunkt des Jahres 2016 beginnt).

Als Erinnerung für all jene, die vergessen haben, welche Änderungen RSS bei den Berechnungen für 2016 vorgenommen hat (hier), hier die folgende Graphik (von Climate4you):

Die Visualisierungen der gleichen Daten vom National Space Science & Technology Center at The University of Alabama in Huntsville, allgemein bekannt als UAH, sehen so aus:

Nur damit klar wird, wovon wir reden: die untere Troposphäre ist der Teil der Atmosphäre, in welchem die meisten von uns leben. Die höchsten Berge der Erde sind fast 10.000 Meter hoch, genau die unteren 10 km der Troposphäre. Die Obergrenzen tropischer Gewitter können eine Höhe bis zu 12,5 km erreichen [bei besonders schweren Hagelunwettern in Mitteleuropa sind auch schon Obergrenzen um 17 km beobachtet worden, z. B. Ende Juni 2002! Anm. d. Übers.] Darunter, in der unteren Troposphäre kommt es zu den alltäglichen Wetterereignissen, den Winden, welche die Bäume bewegen sowie andere Wetter- und Klimaphänomene, welche fast alle Menschen immer wieder erleben. Bergsteiger wie ich, welche in den Sierras von Kalifornien oder in den Rocky Mountains die Gipfel erklommen haben, befanden sich an der Obergrenze der unteren Troposphäre.

Diese Graphik hilft ein wenig bei der Einschätzung:

Link: https://wattsupwiththat.com/2019/08/16/july-2019-hottest-july-ever/

Übersetzt von Chris Frey EIKE




Ist die CO2-Steuer verfassungswidrig?

Was mag die Unabhängigkeit des wissenschaftlichen Dienstes im Reichstag hervorrufen? Ich vermute, die alteingesessene Führungsebene dort achtet streng darauf, keine halbseidenen Polit-Wissenschaftler einzustellen, die sich an den Unis festgesetzt haben.

Gerade ging die erstaunliche Nachricht durch die Massenmedien, daß die Wissenschaftler im Bundestag sich erdreisteten, die von allen Parteien (außer der AfD) gewünschte oder geduldete Kohlenstoff-Abgabe als nicht vereinbar mit dem Grundgesetz zu bezeichnen. Zur Begründung führten die Gutachter aus, daß der Steuertypenkatalog des Grundgesetzes ein Steuer-Findungsrecht, aber kein Steuer-Erfindungsrecht vorsehe. Eine grüne Weltuntergangsverhindungssteuer muß sich also in vorhandene Kategorien einfügen. „In Betracht kommt damit die Schaffung einer CO2-Steuer als Verbrauchs-, Aufwands-, oder Verkehrssteuer.“ Gasemissionen seien aber nicht als Verbrauch eines Verbrauchsgutes, als Besitz oder Rechts-/Wirtschaftsvorgang einzuordnen. Daher seien sie „steuerverfassungsrechtlich ausgeschlossen“.

Aber freuen Sie sich nicht zu früh, lieber Leser, das Klimaschutzministerium von Svenja Schulze stört sich wie der Rest der Regierung nicht an solchen Albernheiten wie Verfassung und Gesetzen. Ein Sprecher des Ministeriums meinte, daß die Kohlenstoffsteuer eine „Energiesteuer“ sei, die um eine „CO2-Komponente“ ergänzt werden soll. Die Orwellsche Rhetorik findet immer einen Weg.

Falls es doch zu viel Widerstand geben sollte, müßte man die Verfassung ändern. Die derzeit verfügbaren Stimmen der schwarzroten Regierung plus Grüne und Linkspartei (?) wären nicht ausreichend. Die FDP stellt sich quer; die AfD sowieso. Auch Rest-Konservative aus der Union melden Protest an: Der Berichterstatter der Unionsfraktion für Energiebesteuerung, Sebastian Brehm, will keine zusätzlichen Steuern zur „Bestrafung“ der Bürger.

Bis zum 20. September will die Regierung über ein „Maßnahmenpaket“ entscheiden, das wohl den Fahrplan zur Einführung der zweiten Mehrwertsteuer enthalten wird. Was geschehen wird, ist schwer abzuschätzen. Die Union wird unter dem Eindruck des medialen Greta-Klima-Hypes wohl eine Kohlenstoffabgabe durchdrücken wollen, um den Höhenflug-Grünen etwas von ihren angeblich 20% abknapsen zu können. Söder nutzt diese verantwortungslose Strategie gerade in Bayern mit seinem Ökoprogramm; und Merkel handelt seit 2011 so.

Die verzwergende SPD will eine CO2-Steuer angeblich nur mitmachen, wenn sie sozial verträglich sei. Das hieße aber, die Klimaschutzabgabe nicht auf sämtliche Preise zu schlagen, sondern nur den Besserverdienern, also den rot-grün-roten Wählern, exklusiv vom Gehalt abzuziehen. Das machen die aber nicht; für die Folgen der elitären Heilslehren haben erfahrungsgemäß die einfachen Bürger aufzukommen.

Daher wird es spannend. Setzen die Regierungsparteien ihre herostratische Idee, auch mit GG-Änderung, durch, wird die Schweigende Mehrheit immer weniger bereit sein, zu schweigen, und den opportunistischen Eliten ihren Profit finanzieren.

Ein launiger Kommentar von Bernd Zeller, Senior-Influencer der Online-Satirezeitung https://zellerzeitung.de.

 




Alarm, Angst, weglauf – hier ist alles verstrahlt!

Radioaktivität ist verboten

Der Gesetzgeber hat zusätzliche Radioaktivität verboten, denn das hätte eine zusätzliche Bestrahlungsdosis zur Folge, und das soll gefährlich sein. Aber was ist zusätzliche Radioaktivität? Der ganze Erdball ist radioaktiv, aber nicht gleichmäßig, sondern an allen Stellen verschieden hoch. Es sollen drei Beispiele beschrieben werden, wo es Strahlenalarm gegeben hat, weil unser Herrgott etwas zu schlampig bei der Erschaffung der Erde vorgegangen ist.

 

1) Die (Hals)kettenreaktion [1]

Vor etwas mehr als einem Jahr gab es Strahlenalarm am Frankfurter Flughafen durch eine Luftfrachtsendung aus China, die an eine Adressatin in der Schweiz geliefert werden sollte. Die Sendung enthielt 25kg von einem Gesteinspulver mit erhöhter Radioaktivität. Einige Jahre zuvor hatte die Adressatin schon einmal eine ähnliche Menge vom radioaktiven Gesteinspulver bestellt, welches ohne Strahlenalarm über den Seeweg die Empfängerin erreicht hatte. Die Kundin in der Schweiz hat mit dem Gesteinspulver Halsketten hergestellt, die nicht nur hübsch aussehen, sondern denen auch noch eine förderliche Wirkung für die Gesundheit zugeschrieben wird. Die erste Sendung war aufgebraucht, jetzt war weiteres Material notwendig.

Der Strahlenalarm am Frankfurter Flughafen hatte erhebliche Folgen: Die Polizei erschien bei der Adressatin, sie wurde verhört, alles radioaktive Material wurde sichergestellt. Alle früheren Kunden wurden benachrichtigt, auch deren Halsketten sollten entsorgt werden. Das Ganze wurde als Straftat bezeichnet. Es ist eine lange Geschichte [1], die hier im Einzelnen nicht ein zweites Mal beschrieben werden kann.

Ich habe eine Halskette dieser Art in den Händen gehalten und konnte mit einem verlässlichen Strahlenmeßgerät direkt auf der Kettenoberfläche einen Strahlenpegel von 5 Mikrosievert pro Stunde messen. Bei einem Flug auf Reiseflughöhe auf unserer Breite setzen sich ALLE Insassen des Fliegers STÄNDIG mit ihrem GANZEN Körper einem Strahlenpegel von etwa 5 Mikrosievert pro Stunde aus (noch variabel mit der Aktivität der Sonne). Unser Herrgott hat Himmel und Erde geschaffen, so steht es geschrieben. Warum ist dann die Strahlung in der Höhe erlaubt, die gleiche auf der Erde aber verboten?

 

2) Die Mineraliensammlung in Schulen im Salzburger Land [2]

Durch Zufall wurden durch den Anti-Atomaktivisten Thomas Neff in der Mineraliensammlung einer Salzburger Schule radioaktive Gesteinsproben entdeckt. Das ergab ein Medienecho, initiiert durch die Salzburger Plattform gegen Atomgefahren und hatte zur Folge, daß überall nach „brisantem Material“ gesucht wurde, denn schließlich hatte der Geiger-Zähler bis zum Anschlag ausgeschlagen. Man wurde an etlichen Schulen fündig und startete ein Meßprogramm mit den 44 gefundenen Gesteinsproben. In 10cm Entfernung von den Proben wurde ein Strahlenpegel im Bereich von <0,1 bis zu >10 Mikrosievert pro Stunde gemessen, Maximalwert war 29 Mikrosievert pro Stunde.

Die Gesteinsproben lagerten schon jahrzehntellang unbenutzt in den Schränken. Die meisten stammten vermutlich aus St. Joachimsthal in Tschechien, das auf Gestein liegt mit höherer Radioaktivität. Das wird dort das radioaktive Edelgas Radon aus dem Gestein freigesetzt, so daß der Ort zu einem Heilbad wurde.

Es wurde veranlasst, daß die Gesteinsproben nur in bruchsicheren verschlossenen Gefäßen aufzubewahren sind, und daß diese Gefäße wiederum in abgeschlossenen Schränken aufzubewahren sind. So sei sichergestellt, daß niemand weder ein Staubkörnchen von den Steinen einatmen könne, noch davon abbeißen könne. Zugang ist nur unterwiesenen Personen während möglichst kurzer Zeit erlaubt.

Wieder bietet sich der Vergleich mit dem Strahlenpegel beim Fliegen an: In der üblichen Höhe von 10 bis 12km sind es etwa 5 Mikrosievert pro Stunde, in der größeren Flughöhe der Concorde wurden die Fluggäste während der gesamten Flugzeit einem Strahlenpegel von 10 bis 15 Mikrosievert pro Stunde ausgesetzt. Ist es die Richtung, aus der die Strahlung kommt, die den Unterschied in der Bewertung macht: einmal vom Himmel, das andere Mal von der Erde??? Aber warum ist dann seit uralten Zeiten der Herkunftsort der Steine, St. Joachimsthal, ein Heilbad??? Sind die Strahlen von unten wirklich „Teufelszeug“, wie es Kardinal Reinhard Marx aus München mit einer Bemerkung anzudeuten schien???

 

3) Strahlung inmitten unserer Städte [3]

Überall, wo viele Menschen sind, wird inzwischen nach Strahlung gesucht. So hat man in den Zentren der Städte gesucht – und natürlich wurde man fündig. Es werden folgende Strahlenpegel angegeben:

Der natürliche Untergrund mit                                       60 bis 80 nSv/h

Die tolerierbare Umgebungsstrahlung sind                    maximal 300 nSv/h

Erhöhte Strahlung in Leipzig, Dresden                          um 600 nSv/h

Strahlung in Oranienburg, Hannover, jetzt saniert          1 200 nSv/h bis 15 600 nSv/h

Zur Erläuterung:

1 nSv = 1 Nanosievert = 1/1000 Mikrosievert = 1/1000 µSv = 1/1 000 000 Millisievert = 1/1 000 000 mSv

Natürlich muß man eine ganze Stunde an der Stelle mit 15 600 nSv/h stehen bleiben, um die gleiche Dosis zu erreichen, die Fluggäste in der Concorde während einer Stunde erhalten. Die Concorde gibt es nicht mehr, aber im normalen Flugzeug über den großen Teich ergeben sich dieselben zusätzlichen Bestrahlungsdosen:

Beim Flug über den Atlantik FRA – JFK – FRA summiert sich die erhaltene Dosis auf

80 µSv bis 140 µSv

Und das sind Bestrahlungsdosen, die in der Kerntechnik sämtliche Alarmglocken läuten lassen würden, denn in der Kerntechnik werden riesige Geldbeträge ausgegeben, um die vom Gesetzgeber vorgegebene Grenze einer zusätzlichen Dosis von

10 µSv/a

nicht zu überschreiten. Bei der Kerntechnik gibt es in Medien Schlagzeilen „Alles ist verstrahlt“, Dosisvergleiche mit Bodenstrahlung oder Höhenstrahlung werden vermieden.

 

Was soll mit den niedrigen in der Kerntechnik geltenden Grenzen bezweckt werden?

Diese Frage liegt nahe, aber eine Antwort könnte nur der Gesetzgeber geben. Der Gesetzgeber steht aber zur Beantwortung von Fragen des Bürgers nicht zur Verfügung. Und es steht zu vermuten, daß er in der Materie nicht Bescheid weiß, die Fragen nicht beantworten kann. Die niedrigen Grenzen gelten nur für den Umgang mit Kernbrennstoffen, nicht für Bodenstrahlung, nicht für Höhenstrahlung und nicht in der Medizin. Natürlich sind die Grenzen in der Kerntechnik unlogisch, aber da sich niemand auskennt und da die wirklichen Fachleute in Medien und Politik nicht gehört werden, funktioniert die Volksverführung mit der Strahlenangst.

Die Strahlenangst wird geschürt um ein politisches Ziel zu erreichen. Die Medien machen da mit. Entweder sind sie schon selber von der Strahlenangst total ergriffen, so daß sie sich noch nicht einmal dazu aufraffen, sich in den Fachmedien zu informieren. Oder die Medien sind inzwischen so stark von der Obrigkeit abhängig geworden, daß sie sich keine freie Berichterstattung mehr zutrauen.

[1] https://nuklearia.de/2018/10/18/radioaktive-halskette/Sehr zu empfehlen, denn die 27-seitige Darstellung von Dr. Walter Rüegg mit vielen nützlichen Zitaten befasst sich mit dem Strahlenrisiko, was durch eindrucksvolle Vergleiche die behördlichen Vorschriften lächerlich erscheinen lässt.

[2] StrahlenschutzPRAXIS 2/2018 Seite 50 bis 53

[3] R. Gellermann: The world we really live in – communication on radiation, Kerntechnik 77 (2012) 3




Chinesische Wissen­schaftler warnen vor globaler Abkühlung und Auswir­kungen der Sonnen­aktivität

Die Studie ergab, dass Winde aus dem arktischen Sibirien schwächer geworden waren. Die Baumgrenze von Nadelbäumen hat sich nordwärts ausgebreitet, und es gab einen stetigen Anstieg der Biodiversität im Zuge des allgemeinen Erwärmungstrends, der bis heute im Gange ist. Das hat wenig zu tun mit der Zunahme von Treibhausgasen, welche mit dem Beginn der industriellen Revolution einhergingen.

Die Leiterin der Studie Dr. Wu Jing vom Key Laboratory of Cenozoic Geology and Environment am Institute of Geology and Geophysics, Fachbereich der Chinese Academy of Sciences, sagte, dass die Studie keine Belege für einen menschlichen Einfluss bzgl. der milder werdenden Winter in China ergeben habe.

„Zu den treibenden Kräften gehören die Sonne, die Atmosphäre und deren Wechselwirkung mit dem Ozean. Wir haben keinen menschlichen Einfluss finden können. Das heißt aber nicht, dass wir uns jetzt zurücklehnen können und gar nichts zu tun brauchen“.

Wu und ihre Kollegen sind besorgt, weil sich die Gesellschaft immer mehr an das Konzept einer globalen Erwärmung gewöhnt und dass die Menschen ein Vertrauen in unsere Fähigkeit entwickeln, den Klimawandel zu kontrollieren, das völlig fehl am Platze ist. Die Natur, so warnten sie, könnte uns austricksen und uns vollkommen unerwartet treffen – was zu Chaos, Panik, Hunger und sogar Kriegen führen könnte, wenn das globale Klimasystem plötzlichen Änderungen unterworfen ist. Schon jetzt gibt es der Studie zufolge alarmierende Anzeichen.

Wu und ihre Kollegen haben über ein Dutzend Jahre damit zugebracht, die Sedimente des Moon Lake zu untersuchen. Dieser liegt versteckt in der Greater Khingan Mountain Range in der autonomen Region Innere Mongolei. Es zeigte sich, dass die milder werdenden Winter während der letzten 6000 Jahre keine gleichmäßig verlaufende Sache waren, ergaben sich doch Auf- und Abwärts-Schwingungen etwa alle 500 Jahre.

Diese Ergebnisse bestätigten eine frühere, im Jahre 2014 veröffentlichte Studie von chinesischen Wissenschaftlern. Sie hatten als Erste die über 500 Jahre laufende zyklische Verteilung des Sommermonsuns in China entdeckt und den Zusammenhang mit der Sonnenaktivität erkannt.

Die Forschungen aus dem Jahr 2014, in welcher 5000 Jahre lange Datenaufzeichnungen ausgewertet worden waren, zeigten, dass die gegenwärtige Warmphase des Zyklus‘ während der nächsten Jahrzehnte zu Ende gehen und in eine 250 Jahre lange Kaltphase wechseln könnte.

Wu erklärte, dass die jüngste Studie, in der Daten über 10.000 Jahre untersucht worden waren, nicht nur geholfen hat, ein vollständigeres Bild des 500-Jahre-Zyklus‘ zu zeichnen, sondern auch einen zuvor unbekannten Prozess hinter dem Phänomen zeigte. Dieser besagt, dass der Einfluss der Sonne auf das Klima der Erde größer sein könnte als bisher gedacht.

Wu zufolge ist jedoch die Variation der Sonnenaktivität allein nicht stark genug, um die rapiden Änderungen der Vegetation zu induzieren, welche aus den Sedimenten im Moon Lake hervorgingen. Stattdessen fanden die Wissenschaftler, dass der Einfluss der Erwärmung verstärkt wurde durch eine massive Wechselwirkung zwischen der Ozean-Oberfläche und der Atmosphäre im Pazifik, bekannt als die El Nino Southern Oscillation.

Im Zuge der Bewertung der Ergebnisse der Studie sagte Wu, dass sie jetzt mehr besorgt war bzgl. einer Abkühlung, nicht einer Erwärmung. „Ein plötzlicher Temperaturrückgang wird niemandem nützen. Das größte Problem ist, dass wir zwar wissen, dass es dazu kommt, aber nicht, wann es dazu kommt“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/chinese-scientists-warn-of-global-cooling-impact-of-solar-activity/