1

Die Ursprünge des Schwindels vom menschengemachten Klimawandel

Als ich meine Promotion in physikalischer Geographie im Jahre 1981 an der Universität von Calgary abschloss, konnte ich die schwachen Umrisse des „globalen Erderwärmungszuges“ noch kaum erkennen, der die Schienen vom entfernten Horizont herandampfte. Zu dieser Zeit wertete ich den zunehmenden Fokus auf Klimaforschung als gute Sache, weil er würdigen wissenschaftlichen Forschungen dringend benötigte Geldmittel zukommen ließ. Als ich meine universitäre Lehrkarriere (ebenfalls 1981) an der Northern Arizona University in meiner Heimatstadt Flagstaff begann, schien es, als stünde dem jungen Feld der Paläoklimatologie (Studium des Klimas der Vergangenheit) ein Goldenes Zeitalter bevor. Es war eine aufregende Zeit. Zusätzlich zu einem sehr arbeitsaufwendigen Lehrauftrag an der Universität trat ich der American Quaternary Association (AMQUA) bei, einer lose geknüpften, interdisziplinären Gruppe von Gelehrten aus Amerika und Kanada, und wurde ihr Schatzmeister. Bei AMQUA-Treffen genoss ich das Privileg, einige der anerkanntesten Gelehrten aus vielen Gebieten akademischer Forschung treffen zu können, die der Klimaforschung verwandt sind.

Eine der kleinen „wissenschaftlichen Revolutionen“, die sich zu dieser Zeit zutrugen, bestand darin, dass nach Jahrzehnten der Ignoranz durch den „wissenschaftlichen Konsens“ die Milankowitsch- oder Astronomische-Zyklen-Theorie des Klimawandels durch Korrelation von datierten irdischen und ozeanischen Sediment-Sequenzen, die ein eindeutiges „Klimasignal“ trugen, „bewiesen“ wurde. Die Idee astronomisch bedingter Klimazyklen, die die großen glazialen-interglazialen Fluktuationen der letzten zwei bis drei Millionen Jahre antreiben (auch bekannt als „Eiszeit“), schien nun von der Wissenschaftsgemeinde weithin akzeptiert.

Was mir zu dieser Zeit nicht bewusst war: Die junge Wissenschaft der Klimatologie war auf den Fluren der Macht in Washington, D.C. und andernorts bereits zu Zwecken der Ausbeutung und Kooption ins Visier genommen worden, weil sie nützliche Mittel zur Förderung politisch-ökonomischer Ziele lieferte. Denkfabriken wie der „Report from Iron Mountain“ und der Club of Rome, politische Entitäten wie die Vereinten Nationen, verschiedene Zweige des Militärs und der Geheimdienstgemeinde sowie Wall-Street-Konzerne hatten damals entschieden, dass Klima-„Forschung“ genutzt werden könne, um „globalistische“ politisch-ökonomische Ziele voranzutreiben. Tatsächlich kam der „Report from Iron Mountain“ zu dem Schluss, dass die „Wahrnehmung“ einer drohenden Umweltkatastrophe als Ersatz für Krieg dienen könnte und in der Zukunft als organisierendes Prinzip für die Gesellschaft: „Ökonomische Surrogate für Krieg müssen zwei wesentliche Kriterien erfüllen. Sie müssen ‚verschwenderisch‘ sein im landläufigen Sinne des Wortes, und sie müssen außerhalb des normalen Systems von Angebot und Nachfrage operieren.“ – „Es kann sein, dass die schwerwiegende Verschmutzung der Umwelt die Möglichkeit der Massenvernichtung durch Nuklearwaffen als oberste offensichtliche Bedrohung für das Überleben der Spezies ersetzen kann…“ So der „Report from Iron Mountain on the Possibility and Desirability of Peace“ (1967) („Der Bericht von Iron Mountain zur Möglichkeit und Erwünschtheit von Frieden“, deutscher Titel: „Verdammter Friede“) der „Special Study Group“, angeblich Mitglieder eines geheimen Pentagon-Thinktanks (von dem angenommen wurde, dass es sich um die Rand Corporation handelt), dem auch Harvard-Ökonom John Kenneth Galbraith angehörte.

„Auf der Suche nach einem neuen Feind, um uns zu vereinen, kamen wir auf die Idee, dass Umweltverschmutzung, die Bedrohung durch Erderwärmung, Wasserknappheit, Hunger und Ähnliches ihren Zweck erfüllen würden. Die Erde hat Krebs, und der Krebs ist der Mensch.“ – „Der wahre Feind ist dann der Mensch selbst.“ Die „daraus resultierende ideale, tragfähige Erdbevölkerung liegt demnach bei über 500 Millionen, aber weniger als einer Milliarde.“ (Club of Rome)

Zu Beginn meiner akademischen Karriere wusste ich das noch nicht, aber die Suche nach wissenschaftlicher Wahrheit auf Feldern wie der Klimatologie und Paläoklimatologie war bereits politischen und finanziellen Zwecken internationaler Finanziers und ihrer zahlreichen Lakaien-Organisationen untergeordnet.

Auf diese Weise wurde das Feld der Klimawissenschaft in „Pseudowissenschaft“ verwandelt. Die hauptsächlichen Mechanismen dieser Kooption umschlossen UN-gesponserte Staatsfinanzierung, Zensur und Kontrolle von Klimawissenschaftlern und Klimaforschung durch ein System aus Belohnungen und Bestrafungen, ein Netzwerk befangener Zeitschriftenherausgeber sowie, vermutlich am wichtigsten, Computermodelle. In Computermodellen hängen Schlussfolgerungen ausschließlich von den Annahmen ab, die in die Modelle programmiert wurden. Oder wie Computeranalysten sagen: „Garbage in, garbage out.“ („Müll geht rein, Müll kommt raus.“)

Zu den Hauptannahmen, die in diese elaborierten und teuren Klimamodelle programmiert wurden, gehörten: Erstens, es gab keinen signifikanten Klimawandel während der ungefähr 4,6 Milliarden Jahre, die der Ankunft der Ära der fossilen Brennstoffe (circa 1850) vorausgingen, und zweitens, Kohlendioxid ist der größte Klimatreiber.

Beide dieser Annahmen sind haarsträubend und falsch und wurden schon vor langer Zeit vom Großteil der wissenschaftlichen Forschung widerlegt. Tatsächlich weist die vorherrschende Forschung darauf hin, dass sich das Klima der Vergangenheit radikal und oft zyklisch wandelte und dass das Spurengas Kohlendioxid eine vernachlässigbare Rolle beim tatsächlichen „Treiben“ der Temperaturen spielt.

Wie es Dr. Reid Bryson, der Vater der modernen wissenschaftlichen Klimatologie, formulierte: „Sie können rausgehen und auf den Boden spucken und dabei denselben Effekt erzielen wie durch eine Verdopplung von Kohlendioxid.“ – „Die gesamte Debatte, ob die Temperatur steigt oder nicht, ist absurd. Natürlich steigt sie. Sie stieg seit der Frühzeit des 19. Jahrhunderts, vor der industriellen Revolution, weil wir aus einer Kleinen Eiszeit austreten, aber nicht, weil wir mehr Kohlendioxid in die Luft blasen.“

„Müll rein, Müll raus“ erklärt teilweise, warum die vielen von Regierungen gesponserten Klimamodelle alle fehlerhafte Voraussagen lieferten (auch bekannt als „Projektionen“ und „Szenarien“).

Somit schloss die Kooption und Korruption der Klimawissenschaft eine Kollision von Interessen mit ein, deren Ergebnis war, dass Standardverfahren wissenschaftlicher Untersuchungsmethoden durch mächtigere politische/ökonomische Kräfte verzerrt wurden, das heißt durch die „Macht der Brieftasche“. Diese Dynamik sollte einen profunden und negativen Einfluss auf meine eigene Karriere haben, ebenso – da bin ich mir sicher – auf die Karrieren vieler meiner Kollegen, inklusive meines Vaters, Dr. Thor N.V. Karlstrom.

Die Wurzeln des Schwindels der anthropogenen Erderwärmung verlaufen tief und vielfältig. Sie lassen sich finden: Erstens in der von der Elite geförderten eugenischen Bewegung des späten 19. und 20. Jahrhunderts, einer weiteren Pseudowissenschaft. Zweitens in Positionspapieren von Denkfabriken wie dem „Report from Iron Mountain“ und dem Club of Rome, die sich dafür aussprechen, die Umweltbewegung zu kontrollieren und als Kriegsersatz einzuspannen. Drittens in der Geschichte der Eliten-Kooption, Korruption und sogar der Verwandlung ganzer akademischer Disziplinen in „Waffen“. Beispiele enthalten die Schaffung der Pseudowissenschaft der Eugenik und die Kooption der Disziplinen der Psychologie und Psychoanalyse durch Figuren wie Sigmund Freud, Sir John Rawlings Rees und Donald Ewen Cameron, des Feldes der Anthropologie, wie es von Franz Boas initiiert wurde, des Feldes der Soziologie durch die deutsche Frankfurter Schule und sogar des Feldes der modernen Musik durch die Frankfurter Schule und die „Sozialwissenschaftler“ des Tavistock Institute wie zum Beispiel Theodor Adorno. Auf diese Weise scheint die Angstkulisse der Erderwärmung zusammengebraut hochgezogen worden zu sein als ein weiteres aus einer langen Reihe von Propagandawerkzeugen, die von Sozialingenieuren am Tavistock Institute und verbundenen Stellen genutzt werden, um einer leichtgläubigen und uninformierten Öffentlichkeit „traumabasierte Bewusstseinskontrolle“ einzuflößen. Viertens in der Notwendigkeit eines Tarnmantels und Finanzierungsmechanismusses für Staaten (vor allem die USA und Großbritannien), die UN, die Nato und andere, um streng geheime Geoengineering-Experimente und -projekte voranzutreiben, deren wahre Ziele auf Wetterkriegsführung, Depopulation und Massenbewusstseinskontrolle hinauslaufen. Fünftens in der Kooption der Umweltbewegung durch die Elite (UN und verwandte Organisationen) mit der globalen Erwärmung als Herzstück, die als Abschreckungstaktik verwendet werden soll, um Nationen dazu zu zwingen, internationale (UN‑) Kontrolle aller ökonomischen und tatsächlich menschlichen Aktivität zu akzeptieren… ebenso wie eine Weltregierung, wie sie in der „Agenda 21“ der Vereinten Nationen kodifiziert wird („Agenda for the 21st Century“, auch bekannt als „nachhaltige Entwicklung“). Die „Agenda 21“ (heute „Agenda 2030“) ist die Blaupause des „faktischen Rechts“, verdeckt übernommen von fast allen Nationen, für die Machtübernahme der UN über alle menschliche Aktivität und Ressourcen und zur Errichtung einer prototypischen Weltregierung. Sechstens: Schließlich liefern die verschiedenen Pläne für Kohlendioxidzertifikatshandel einen weiteren Mechanismus, durch den die Elite (Al Gore, Maurice Strong, Dr. Rajendra Pachauri, Vorsitzender des International Panel on Climate Change (IPCC), ebenso wie Goldman Sachs, zahllose andere Konzernkonglomerate und Kartelle) Billionen an Profiten aus der Kontrolle und dem Verkauf von „Emissionsrechten“ zu schlagen beabsichtigen, die von den UN reguliert und besteuert werden, ferner verschiedenen kooperierenden Regierungen, und so weiter.

„Es wird immer klarer, dass diejenigen, die die sogenannte ‚Neue Weltordnung‘ unterstützen, oder eine Weltregierung unter den Vereinten Nationen, den globalen Umweltschutz als Basis zur Auflösung unabhängiger Nationen und internationalen Neuausrichtung von Macht übernommen haben.“ (Dixy Lee Ray, ehemalige Vorsitzende der Atomic Energy Commission, 1993 in „Environmental Overkill: Whatever Happened to Common Sense?“.)

„Die heraufziehende ‚Ökologisierung‘ unserer Zivilisation und die Notwendigkeit energischen Handelns im Interesse der gesamten globalen Gemeinschaft werden unausweichlich mehrere politische Konsequenzen haben. Die wichtigste davon wird vermutlich eine graduelle Änderung des Status der Vereinten Nationen sein. Diese werden unvermeidlich einige Aspekte einer Weltregierung annehmen müssen.“ (Michail Gorbatschow, ehemaliger Premier der Sowjetunion, State of the World Forum und mit Maurice Strong und Steven Rockefeller Koautor der „Erd-Charta“.)

„Regionalismus muss Globalismus vorausgehen. Wir sehen ein nahtloses Regierungssystem voraus, von lokalen Gemeinden, einzelnen Staaten, regionalen Unionen bis hinauf zu den Vereinten Nationen selbst.“ („UN Commission on Global Governance“)

Dieser Artikel erschien zuerst als einleitender Text der Seite „Natural Climate Change“ und wurde von Axel B.C. Krauss exklusiv für eigentümlich frei ins Deutsche übersetzt.

Die Übernahme des Berichts für Eike erfolgt mit freundlicher Genehmigung von eigentümlich frei

https://ef-magazin.de/2019/09/22/15760-hintergruende-der-globalen-erwaermung-die-urspruenge-des-schwindels-vom-menschengemachten-klimawandel




Des Windkaisers neue Kleider – Teil 3 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

*** Teil 3

Die Bedeutung von bedarfsgesteuerten Systemen, „dispatchable“ genannt

Elektrische Energieerzeuger  (~ Generatoren), die nach Willen mit einer bedarfsgesteuerten Intensität ein- und ausgeschaltet werden können, werden als „zuteilbar“, im Fachjargon als „dispatchable“ bezeichnet. Ein solches System kann jederzeit gesteuert werden, d.h. es kann wie gewünscht reagieren – mehr oder weniger Strom liefern und das zu beliebigen Zeiten; Wartung wird durchgeführt, wenn es am besten passt. Ein dispatchbares System ist zuverlässig;  fehlt diese Eigenschaft, ist das System nicht zuverlässig. Wie bereits erwähnt, die Nachfrage bestimmt (bislang noch) die elektrische Stromversorgung und variiert dabei täglich und saisonal.

Wie bereits oben erwähnt, ist die Netzfrequenz kritisch für das gesamte Netz. Kleine Frequenzänderungen oder –verschiebungen, können erhebliche Auswirkungen sowohl auf die Einspeisung unterschiedlicher Stromquellen in das Netz aber auch auf Maschinen und andere Geräte haben. Netzbetreiber müssen die Frequenz in sehr engen Grenzen konstant halten.

Leider sind Wind- und Solarstrom nicht steuerbar – sie erzeugen nicht immer Strom, wenn dieser benötigt wird und können einen Überschuss erzeugen, wenn dieser nicht benötigt wird. Sowohl Mangel als auch Überschuss können gleichermaßen schädlich sein.

Zu diesem Thema habe ich für „beide Seiten“ Informationen im Web gefunden:

… Einige Anlagen mussten daher jeweils für kurze Zeit abgeschaltet werden; die Techniker sprechen von „abgeregelt“. Die Betreiber dieser abgeregelten Anlagen erhielten trotz fehlender Stromeinspeisung eine Entschädigung.

https://www.sciencemediacenter.de/alle-angebote/fact-sheet/details/news/wie-viele-windraeder-stehen-in-deutschland-still-wird-wirklich-jedes-jahr-mehr-windenergie-abgereg/

… Bei der Einspeisung von Wind- und Solarstrom in das Stromnetz müssten die anderen Kraftwerke in dieser Zeit zum Ausgleich mit geringerer Leistung betrieben werden, um Netzüberlastungen zu vermeiden. Eine solche Drosselung ist aber nicht mit allen Kraftwerken in derselben Geschwindigkeit möglich, mit der sich die Stärke von Strom vor allem aus WEA ändert*. Der bereits durch diese Energiequelle viel höhere Regelaufwand erzeugt einen stark erhöhten Aufwand für die Netzbetreiber

https://www.frankshalbwissen.de/2012/03/15/koennen-sonne-und-wind-atomkraftwerke-ersetzen/

… Eine Idee findet derzeit viele Anhänger: Die Stromkonzerne könnten bei einer Laufzeitverlängerung im Gegenzug einen Teil der Extragewinne in einen Fonds für die Entwicklung der erneuerbaren Energien zahlen. Das wäre ein wirklich schmutziger Deal auf Kosten unserer Sicherheit. Schrottreife Reaktoren wie in Biblis oder Brunsbüttel sollen eine Gnadenfrist erhalten, damit für die erneuerbaren Energien Almosen abfallen? Offenbar haben viele Leute noch nicht verstanden, dass wir uns so eine Übergangszeit nicht leisten können und sie auch gar nicht brauchen. Die Technologien, mit denen wir die Klimaschutzziele erreichen können – Erneuerbare, Effizienz, Kraft-Wärme-Kopplung – sind ja vorhanden. Sie müssen jetzt konsequent angewendet werden.

https://www.greenpeace-magazin.de/%E2%80%9Eallein-windkraft-kann-die-akws-ersetzen%E2%80%9C

 Bei thermischen Systemen – wie Fossile- Kernkraftwerke kann die Wärme abgeblasen oder bei Wasserkraftwerken das Wasser abgeleitet werden, so dass die Turbinen keine Elektrizität erzeugen. Dies führt zu verschwendeter Wärme oder Wasserverschwendung. Aber das System ist nicht gefährdet.

Überschüssige Elektrizität

In Energy Matters beschreibt der dänische Energieexperte Paul-Frederik Bach das hochkomplexe System der Stromübertragung in Europa. Bach ist eine Autorität, nachdem er jahrelang mit Netzproblemen im dänischen System gearbeitet hat, das viele Netzverbindungen hat. Was mit überschüssiger Energie zu tun ist, wenn zu viel Windenergie eingespeist wird, bleibt seiner Meinung nach ein ernstes Problem.

Da Windenergie, wenn sie denn gerade zufällig vorhanden ist, bevorzugt einzuspeisen ist (in Deutschland per Gesetz), gibt es Befürworter der zufälligen Energieerzeugung, die stattdessen den Verbrauch schneller anpassen wollen. Abschalten von „niedrig-prioren“ Verbrauchern oder zwangsweises einschalten – sinnvollerweise natürlich von Energiespeichern, die aber den  Überschussstrom auch nicht zum Nulltarif bekommen. Bach sieht bei weiterem, ungehindertem Ausbau von Wind und Solar größte Probleme mit Überschussstrom, sinkenden Marktpreisen für den Überschuss und überlasteten Netzen. Diese Faktoren werden zu steigenden Preisen für die Verbraucher und zur Kürzung erneuerbarer Energiequellen führen.

 

Zuerst das ultimative Versagen von Subventionen, dann Einführung von Mandaten

In der langen, komplexen Geschichte der Energieerzeugung, -speicherung und Wartung und  Innovation, haben es die Ideologen heutzutage geschafft, ihre Vertreter in den Bundes- und Regionalregierungen in die Lage zu versetzen, Gewinner und Verlierer auf dem Energiemarkt zu bestimmen. Damit sind vorher akzeptable Praktiken zum Scheitern verurteilt.

Wenn radikale Umweltgruppen in ihren politischen Zielen erfolgreich sind, wird die derzeitige Präferenz, Subventionen für erneuerbaren Energiequellen anzubieten, schließlich Mandaten [-> Verpflichtungen] weichen. Aus mehreren Gründen werden diese Lösungen jedoch nicht das wachsende Energieniveau liefern, das für eine optimale Effizienz erforderlich ist. Wenn die Regierung von den Betreibern verlangt, dass sie einen bestimmten Prozentsatz aus wetterabhängiger Windkraft oder Solarenergie [„im Mix“ einkaufen und] liefern, können sie nicht mehr nach dem besten Preis und bester „Qualität“ einkaufen, sondern müssen stattdessen die Forderungen der Regierung erfüllen. Die Einmischung der Regierung erhöht letztlich die Kosten für den Verbraucher und verzerrt die Märkte stark. In den Sonntagsreden der Politiker wird dagegen gerne gefordert, zuverlässige Elektrizität zu möglichst niedrigen Kosten für die Verbraucher zu liefern. Der einzige Ausweg aus diesem Rätsel besteht darin, Sonne und Wind zu regulieren – eine Macht, die den Göttern in griechischen Mythen vorbehalten ist.

 

Offshore-Wind

Promotoren für Windenergie beharren oft darauf, dass Offshore-Wind extrem zuverlässig wäre – auch wenn sich gezeigt hat, dass Wind sowohl on-shore als auch off-shore immer wankelmütig ist. Roger Andrews untersucht in „Energy Matters“ die Frage nach der Zuverlässigkeit von Offshore-Wind aus der „Windnation“ der Welt. Dänemark ist ein kleines Land, das auf einer von Offshore-Windparks umgebenen Halbinsel liegt. Roger Andrews empfindet dänische Behauptungen vordergründig und bemerkt, dass sie die zusätzlichen Kosten der Reparatur nicht berücksichtigen, die durch Salzwasserkorrosion und Salzspray verursacht werden. [Link zum Original nicht gefunden, es wird jedoch auf mehreren Blogs erwähnt, hier WUWT in 2017/07/09]

Die Suche nach soliden Daten ist immer ein Problem für solche Studien, aber Andrews gelang es, eine dänische Datenbank zu finden, welche die Onshore- und Offshore-Windenergieproduktion für drei Jahre, von 2014 bis 2016, getrennt ausweist.

Andrews stellt fest, dass Offshore-Wind einen Kapazitätsfaktor von 43 Prozent hat, verglichen mit Onshore-Wind von 25 Prozent. Er fand auch heraus, dass, wenn kein Wind an Land weht, er auch vor der Küste stirbt. Beide erfordern ein back-up durch zuverlässige Kraftwerke.

Jeder Wochenendsegler in den Gewässern vor der Ostküste der USA kann besonders im August die Unzuverlässigkeit der Meereswinde bezeugen. Da Offshore-Wind außerdem doppelt so teuer ist wie Onshore-Wind, ist off-shore auch kein Schnäppchen.

 

Das Experiment auf den Kanarischen Inseln

Im November 1997 beschloss die Regierung der Insel El Hierro auf den Kanarischen Inseln [süd-westlich gelegen], die Insel vollständig mit erneuerbaren Energien zu versorgen, wodurch die Insel sich selbst versorgen sollte. Im Juni 2002 wurde der Plan zur Nutzung von Wind zur Stromerzeugung genehmigt, mit Pumpspeicherkraftwerken für back-up. Das Projekt wurde von Gorona del Viento El Hierro SA unter Beteiligung des Inselrats (60 Prozent), Endesa (30 Prozent), des Technologischen Instituts der Kanarischen Inseln (10 Prozent) und mit geplanten Kosten von 64,7 Millionen Euro durchgeführt.

Vor der Küste Afrikas schien die Insel El Hierro ein idealer Ort für ein solches Projekt zu sein. Es erhebt sich steil über dem Atlantischen Ozean und der höchste Berg erreicht eine Höhe von knapp 1400m. Die Kanaren sind seit langem für ihren Wind bekannt. In der Kolonialzeit segelten Schiffe von Europa nach Süden zu den Kanarischen Inseln, um die Passatwinde zur Weiterfahrt in die Neue Welt auszunutzen. In jüngerer Zeit erhielt El Hierro seine Energie aus importiertem Dieselkraftstoff – etwa 6.000 Tonnen / p.a., was 40.000 Barrel Öl entspricht.

Das kanarische Projekt ging im Juni 2015 online. Die Gesamtkosten sind noch nicht klar. Glücklicherweise hat Red Eléctrica de España (REE), ein spanisches Unternehmen, das sich zum Teil in staatlichem Besitz befindet und teilweise in Privatbesitz ist und das nationale Stromnetz in Spanien betreibt, Statistiken für El Hierro erstellt. Roger Andrews von Energy Matters verfolgte die Zahlen aufmerksam und berichtete, dass das windgepumpte Wasserkraftwerk nach zwei vollen Betriebsjahren 39 Prozent des Strombedarfs von El Hiero und nur 9 Prozent seines Energiebedarfs deckt.

Zwischen der Gesamtenergie, die die Insel benötigte, wie einige behaupteten – und der weit geringeren Strommenge, die die Insel benötigte, wie es jetzt behauptet wird, mag es erhebliche Verwirrung gegeben haben. Abgesehen von dieser Verwirrung lieferte das System in nur zwei Monaten innerhalb von zwei Jahren mehr als 60 Prozent des Strombedarfs der Insel – und blieb weit hinter den Anforderungen zurück. In drei dieser Monate lieferte das System weniger als 20 Prozent des Strombedarfs der Insel. Bei vielen Gelegenheiten erzeugten die Windanlagen wenig oder keinen Windstrom **. Das gesamte elektrische System auf El Hierro ist durch Windkraft und Pumpspeicher unterversorgt. Unter anderem sind die oberen Wasserreserven, die für den Strom benötigt werden, wenn der Wind ausfällt, viel zu klein, um den Fehlbetrag auszugleichen; Bedenken Sie, dass der Wind häufig und für längere Zeit versagt.

[ ** auf der Webseite von Corona Wind, das Projekt betreuende Unternehmen, wird eine Grafik gezeigt, die für die Monate des ersten Halbjahres 2018 49% bis 71% Energielieferung des Pumpspeicherkraftwerkes ausweisen, 1.450 Stunden Hydro, zur Gesamtversorgung mit 61 % aus Erneuerbaren Quellen – und der Rest ist Diesel]

 

Eine Windkatastrophe in Südaustralien

Kürzlich beschloss die Provinzregierung von Südaustralien, die Windenergie zu fördern und zuverlässige Kohle zu vernachlässigen. Bei einer Reihe von schweren Gewittern haben sich  Windparks abgeschaltet, um Schäden zu vermeiden. Aber die Stilllegung der Windparks setzte sich kaskadierend fort und das gesamte Netz war abgeschaltet. Einige Stadtgebiete waren für einige Stunden ohne Strom, in einigen ländlichen Gebieten dauerte es sogar Wochen bis wieder Strom zur Verfügung stand. Seit dem Stromausfall im letzten September gab es im Dezember und Februar zwei weitere Stromausfälle. Diese Unsicherheit wird noch Jahre andauern.

Südaustralien, etwas kleiner als die Größe von Texas und New Mexico zusammen, hat eine Bevölkerung von 1,7 Millionen. Eine der am schwersten betroffenen Einrichtungen war eine Aluminiumschmelze. Als die Aluminiumfabrik den Strom verlor, erstarrten Tonnen von geschmolzenem Aluminium, was zu einem Produktionsstillstand von vielen Monaten führte.

 [Anmerkung STT: Die oben erwähnte Aluminiumschmelze liegt in Portland in Victoria nahe der Grenze und wurde im Dezember 2016 während eines weiteren Zusammenbruchs der Windkraft getroffen . Der landesweite Stromausfall vom September 2016 traf die riesige Kupfer-, Gold- und Uranmine von BHP Billiton am Olympic Damund die Blei- / Zinkhütte von Nyrstar in Port Pirie .

Die Ereignisse in Südaustralien illustrieren die Folgen der Privilegierung von Windstrom: Die Besitzer eines südaustralischen Kohlekraftwerks brauchten Subventionen, um den Betrieb weiter aufrecht zu halten, nicht weil ihre Kosten stiegen, sondern weil sie durch die Bevorzugung von subventioniertem Windstrom nicht genügend liefern durften. Das Kraftwerk wurde stillgelegt und stand während der Krise nicht für Backup zur Verfügung, als wetterabhängige Anbieter keinen Strom liefern konnten.

Über dieses große Geheimnis der Stromerzeugung reden die Ideologen nicht gerne: Wetterabhängige Anbieter brauchen immer Unterstützung, wenn der Wind nicht weht oder die Sonne nicht scheint. In der Tat müssen diese Systeme eine parasitäre Beziehung zu zuverlässigen Anbietern aufrecht erhalten.

*** Ende des dritten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work/

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3

***

Im Eike Archiv finden sie u.a. auch das:

Energiepolitisches Manifest – Teil 1  „Argumente für die Beendigung der Energiewende“

Energiepolitisches Manifest – Teil 2

Energiepolitisches Manifest – Teil 3




Des Windkaisers neue Kleider – Teil 2 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

*** Teil 2

Eine faire Wetterlösung – Die Wahrheit hinter den Subventionen

Um ihre Forderungen nach staatlichen Subventionen für Wind- und Solarenergie zu begründen, haben deren Befürworter den Öl- und Gasproduzenten viele historische Subventionen angedichtet; Diese Behauptungen stammen aus irreführenden Statistiken, die von der Privatfirma International Energy Agency (IEA) erstellt wurden. Zu den größten statistischen Verstößen der IEA wurden staatlich geregelte niedrige Gaspreise für Bürger in den Petrostaten als Subventionen für Ölgesellschaften hergenommen. Dazu zählte die IEA zum Beispiel die von der Regierung festgelegte Preisobergrenze für Venezuelas verstaatlichtes Öl auch als Subvention für Ölfirmen. Diese Marktinterferenz bedeutete, dass Benzin in Venezuela für nur $ 0,05 pro Gallone verkauft wurde;  während es etwa 3 $ pro Gallone in den USA kostete [bei etwa 1,30 Euro/L gäbe das 5 Euro/Gallone]

Roger Bezdek, Präsident von Management Information Services, berichtete in einer Fünfjahresstudie über den Zeitraum 2011-16, dass Solar-, Wind- und Biomasse mehr als das Dreifache der Bundesanreize, Subventionen und Sonderzahlungen erhielten, die für Öl, Gas, Kohle, und nukleare ausgegeben wurden!

(Dieser Bericht war Teil einer umfassenden Studie, die die Energiesubventionen der USA von 1950 bis 2016 abdeckte und vom Nuclear Energy Institute gesponsert wurde.) [Im Netz u.a. zu finden: 2018 World-NuclearBright Power 2014; Chemical Eng. 2011]

Nach Angaben der US-amerikanischen Energy Information Administration hat sich die heimische Energieerzeugung im Jahr 2016 wie folgt entwickelt:

Erdgas, 33 Prozent der US-Energieproduktion, Erdöl (Rohöl und Erdgas) 28 Prozent, Kohle 17 Prozent, erneuerbare Energien 12 Prozent (in denen die EIA Wasserkraft einschließt) und Kernkraft 10 Prozent.

Wie setzt sich der kleine Teil der „erneuerbaren“ Energien zusammen? Die Biomasse stellt dabei mit 4,6 Prozent der abgenommenen Energieanteile aus Biokraftstoffen, Holz und Biomasseabfällen den größten Anteil. Biokraftstoffe machen 2,2 Prozent aus, gefördert durch die Bundesregierung in Form von Ethanol, dass mit Benzin gemischt wird. Holz bringt mit 1,9 Prozent den zweitgrößten Anteil zum Energieverbrauch. Dies ist vor allem auf die Verbrennung von Abfallholz in Holz- und Papierfabriken und die Verwendung von Holz in der Hausheizung zurückzuführen. Biomasseabfälle machen 0,5 Prozent dieser Energieart aus. Biogas aus Deponien, Mist, Abwasser ist in dieser Summe enthalten.

Die Wasserkraft macht mit 2,4 Prozent den zweitgrößten Anteil erneuerbarer Energien aus. Windkraft ist die drittgrößte Komponente und bringt 2,1 Prozent der Energielieferungen. Die Solarenergie liegt mit 0,6 Prozent des Verbrauchs etwa auf dem vierten Platz. Geothermie macht nur 0,2 Prozent des Verbrauchs aus.

Aus diesen Daten wird schnell klar, dass trotz des großen Druckes der Lobbygruppen, Wind und Sonne weniger als drei Prozent des Energieverbrauchs in den USA decken werden. Die wichtigsten Energiequellen, die in den USA genutzt werden, sind Erdöl mit 37 Prozent, Erdgas mit 29 Prozent, Kohle mit 15 Prozent und Kernkraft mit 9 Prozent.

 

Warum schlagen wetterabhängige Optionen fehl? Das Grid

Es lohnt sich zu untersuchen, warum die Nutzung dieser alternativen Energiequellen so frustriert. Der grundlegende und wichtigste Punkt ist, dass die Energie-Verteilsysteme ( grid …~netze) hohe Zuverlässigkeit  und Planbarkeit fordern, die wetterabhängige [und nicht planbare]  Energiealternativen nicht bieten können.

Zunächst die Grundlagen zu den US-amerikanischen Übertragungs-Netzbetreibern, einschließlich ihrer Ursprünge, Speicherprobleme und sogar einige Missverständnisse.

Gegründet im Jahr 2006, überwacht die North American Electric Reliability Corporation den Betrieb des Stromnetzes für die zusammenhängenden Vereinigten Staaten und die südliche Hälfte Kanadas. Die unteren 48 Staaten der USA sind in drei Hauptverbindungen, die Eastern Interconnection, östlich der Rocky Mountains, der Western Interconnection und der Electric Reliability Council von Texas (ERCOT) [erreichbar mit VPN „Herkunft-Verschlüsselung“, Europa wird blockiert] gruppiert.

[de.Wiki zu Texas: … Das generelle Problem der Windenergie in Texas ist, dass die Erzeugung im Sommer am geringsten ist, während gleichzeitig der Verbrauch am höchsten ist. So rechnete ERCOT im Sommer 2014 bei einer installierte Leistung von 11.000 MW nur mit einer gesicherten Leistung von 963 MW. Aufzeichnungen zeigen auch, dass der meiste Windstrom nachts erzeugt wird, während die Lastspitzen am Tag auftreten.[9]]

Sechsundsechzig Behörden in den USA balancieren die Einspeisung  aufgrund der Nachfrage und überwachen die Belastung für ihre Regionen. Die Eastern Interconnection besteht aus 36 Bilanzierungsbehörden: 31 in den Vereinigten Staaten und 5 in Kanada. Die Western Interconnection umfasst das Gebiet aus den Rockies West und besteht aus 37 Bilanzierungsbehörden: 34 in den Vereinigten Staaten, 2 in Kanada und 1 in Mexiko. ERCOT deckt die meisten Gebiete von Texas ab,  und ist selbst eine Bilanzierungsbehörde.

Dieser Verbund der Zuständigkeiten zeigt, dass die Zuverlässigkeit von Strom ein regionales und internationales Problem ist. Was lokal passiert, kann Auswirkungen auf die gesamte Region oder die Nation haben oder gar über Landesgrenzen hinweg. Hier ein Beispiel: 1989 verursachte ein Sonnensturm den Stromausfall des elektrischen Netzes in Quebec, der etwa 12 Stunden dauerte. Der Stromausfall verursachte erhebliche Probleme für Stromversorger in New York und New England.

Die Koppelungen der verschiedenen Stromnetze, sowie die ständige Notwendigkeit des Lastausgleichs, können für die Ingenieure zu großen Problemen bei der Bereitstellung von zuverlässiger Elektrizität führen. Die Einspeisung der wetterabhängigen und auch noch stark schwankenden Energie  verstärkt diese Probleme. Anbieter von wetterabhängiger Erzeugung, wie zum Beispiel Windenergie, sollten sich ebenfalls wegen einer inkonsistenten Stromerzeugung sorgen.

Große Missverständnisse bestehen im Hinblick auf das Stromnetz. Wem gehört es und der Strom darin? Der Richter des Obersten Gerichtshofs, Clarence Thomas, sprach kurz und knapp über die Funktionsweise der Stromnetze, wie es von einem Energieingenieur beschrieben worden war. Einer der wenigen sehr nützlichen Ausarbeitungen der „Freunde des Gerichts“, mit denen er in seiner ganzen Karriere in Kontakt war. Versorgungsunternehmen und andere Unternehmen können die Leitungen, die Anschlüsse und die Stromerzeugungsanlagen besitzen, nicht jedoch das Netz selbst. Das Stromnetz ist ein System zur Verteilung und Weiterleitung von elektrischer Energie, bei überregionalen Verbindungen spricht man vom Verbundnetz,  das keinem allein gehört und für alle Benutzer verfügbar ist.

Man könnte sich vorstellen, dass das Verbundnetz dem menschlichen Zentralnervensystem ähnelt. Teile können durch Verletzungen verloren gehen, das System funktioniert jedoch weiterhin. Natürlich kann ein schwerer Schock das gesamte System zum Einsturz bringen. Auf diese Weise kann eine schwere Zerstörung des Stromnetzes dazu führen, dass es für alle katastrophal versagt.

Beim Netz können diese schweren Störungen in Form von Stromstößen und umgekehrt, plötzlichen Leistungseinbrüchen auftreten. Überspannungsstöße im Netz können durch elektrische Stürme, Sonnenstürme oder durch zu starke Einspeisung von Strom erzeugt werden. Stromausfälle können durch den Verlust von elektrischen Leitungen, Stromerzeugungsanlagen und Verbrauchszunahmen entstehen. Solche Stöße können Transformatoren, Netzfilter und andere wichtige Einrichtungen zerstören. Bei dieser Art von Ausfällen kann es Monate dauern, um Ersatz zu bekommen und es zu reparieren, mit zornigen Kunden, die jeden Tag anrufen. Zur Verhinderung eines elektrischem Desasters,  müssen die Ingenieure in den Leitzentralen ständig darauf achten, dass das Angebot an die Nachfrage anpasst ist und die Netzfrequenz mit sehr geringen Toleranzen stabil bleibt, in den USA sind das 60Hz, in Europa sind das 50 Hz. Diese kritische Aufgabe wird „Lastausgleich“ genannt. Auf der anderen Seite, können die unzuverlässigen und schwankenden Einspeisungen wetterabhängiger Energien, das ganze System durcheinander bringen. [Wind- und Sonnenenergie können sehr schlagartig auf hohe Werte ansteigen (Wolken, Böen, …), um ebenso schlagartig auf sehr niedrige Werte zurück zufallen, auch auf NULL ist nichts Seltenes]

In der Tat hört man oft von den Befürwortern von Wind, die Lösung für überschüssige Windenergie, die des Nachts produziert wird und während des Tages nur unzureichende Leistung abgibt, sind smart-grids „intelligente Netze“.  Dies sind Regeleinheiten im Stromnetz, die den Verbrauch beschneiden [also Verbraucher und Haushalte abschalten] um das Stromnetz stabil zu halten – z.B. tagsüber abschalten und nachts anschalten – inzwischen von den Behörden  vorgeschrieben. Solche Regulierungen für den Stromverbrauch sind schon in der Vergangenheit nicht gelungen. Eine der grundlegendsten Herausforderungen, die es zu lösen gilt, bevor das Konzept der „Smart Grids“ optimiert wird: Die meisten von uns bevorzugen in der Nacht zu schlafen und nicht irgendwelche Hausarbeiten zu verrichten.

 

Speicher im Netz

Seit über hundert Jahren versuchen Ingenieure und Energieversorger, das Problem der Stromspeicherung und die Nutzung von Abwärme zu lösen. Thermische Systeme wie Kohlekraftwerke oder neuzeitliche Kernkraftwerke arbeiten am effizientesten im Nennbetrieb. Das Ändern der Energieerzeugung, das Hoch- oder Herunterfahren, führt zu einem übermäßigen Verschleiß des Systems [Materialermüdung durch Wärme- / Kältekontraktion] und zu einem Wärme- gleich Energieverlust – mit anderen Worten zu einer Ineffizienz. Versorgungsunternehmen haben lange erkannt, dass Elektrizität nicht effektiv in den Mengen gespeichert werden kann, die für den kommerziellen Betrieb benötigt werden. (Strom kann in Batterien gespeichert werden, aber die Speichermenge ist winzig im Vergleich zu den enormen Schwankungen des sekündlich, minütlich bis täglich angeforderten Strombedarfs.)

Im Jahr 1924 leistete Connecticut Light and Power Pionierarbeit bei der Entwicklung eines wirklich innovativen Systems zur Nutzung der „Abwärme bei der Stromerzeugung bei Bedarf, genannt Pumpspeicherkraftwerke. In einem solchen System wird überschüssige Energie verwendet, um Elektrizität zu erzeugen, die zu Pumpen fließt, um Wasser von einem niedrig gelegenen See zu einem weiteren in der Höhe zu pumpen. Wird zusätzlicher Strom benötigt, wird das Wasser wieder abgelassen und durch die Rohre auf Wasserturbinen geleitet, die wiederum Strom erzeugen. Im Allgemeinen ist das obere Reservoir zweckgebunden, aber das untere Reservoir kann ein See oder sogar der Ozean sein.

Die größte derartige Anlage der Welt befindet sich in Bath County, Virginia, in der Nähe von West Virginia, mit einer Nennkapazität von 3.000 Megawatt. Das Gebiet verfügt über steile Hügel, ideal für Pumpspeicherkraftwerke. Die beiden Reservoirs wurden zu diesem Zweck gebaut und haben einen Höhenunterschied von knapp 400m. Während des Betriebs kann der Wasserstand des oberen Reservoirs um mehr als 30m und des unteren Reservoir um 20m variieren.

Die 1985 in Betrieb genommene Anlage trägt zum Ausgleich der elektrischen Last bei und nutzt überschüssige Energie aus einem Kernkraftwerk und mehreren Kohlekraftwerken. Es funktioniert ohne Schwierigkeit und erfordert kein zusätzliches Wasser, außer dem Ersetzen der Verdunstung. Den verfügbaren Daten zufolge beträgt der Energieverlust bei solchen Pumpspeicherkraftwerken etwa 20 Prozent (Wirkungsgrad also etwa 80%, hälftig für Pumpe und Generator).

[In Deutschland: Das Pumpspeicherwerk (PSW) Goldisthal

Hier in Goldisthal, im tief eingeschnittenen Tal der Schwarza, ist der Höhenunterschied zu den umliegenden Bergen ausgesprochen groß. So beträgt die Differenz zwischen Talsohle und Bergkuppe an manchen Stellen über 300m. Aus diesem Grund entstand hier eines der größten und modernsten Pumpspeicherwerke Europas. Es hat eine Kapazität von 1060 Megawatt (MW) und ging 2003/2004 in Betrieb. Das eigentliche Kraftwerk ist in einer unterirdischen Kaverne untergebracht. Für weitere Daten zum PSW klicken Sie auf den Link.

Quelle: http://kraftwerke.vattenfall.de/goldisthal]

Leider wurden Vorschläge für ähnliche Einrichtungen an anderen Orten, wie dem Hudson River, von Umweltgruppen scharf abgelehnt. Ironischerweise kommt der bittere Widerstand von den gleichen Umweltorganisationen, die derzeit die Stilllegung traditioneller Öl- und Gaskraftwerke fordern. Wind und Solar werden von vielen dieser Aktivisten fälschlicherweise als einzig gangbare Alternativen angesehen.

 

Subventionierte Fehler – Die Bedeutung der Zuverlässigkeit und des menschlichen Faktors

Die traditionell verstandenen Anlagen  nutzen „fossilen Brennstoff“  (auch bekannt als Öl-, Kohle- und Gaskraftwerke) und können zusammen mit anderen alternativen Kernkraftwerken rund um die Uhr in Betrieb sein. Sie können zu Wartungszwecken nach einem festgelegten Zeitplan leicht abgeschaltet werden [… runtergefahren, wegen der Materialschonung dauert zum Teil Tage!], in Abstimmung zu den anderen Kraftwerksbetreibern. Diese Kraftwerke speisen in der Regel in das lokale Stromnetz ein, das seine Verbraucher mit Strom versorgt, das sind Hausbesitzer, Unternehmen, Industrie und Behörden.

Der Energielieferant wählt die Arten von Energieerzeugern, um die täglichen und saisonalen Schwankungen der Nachfrage nach Elektrizität zu erfüllen, in der Regel nach den niedrigsten Kosten. Die ausgewählten Energieerzeuger, die dann den Strom liefern, sind in bevorzugter Weise einer von vieren: bestehende Kernkraft, Wasserkraft, Kohle und Erdgas. Dieser Aufzählung entspricht in etwa den Betriebskosten von niedrig bis hoch und entspricht auch der Geschwindigkeit -> Zeitdauer, mit der sie von stand-by oder Teillast  auf Volllast kommen (können). Natürlich kontrollieren menschliche Bediener diese Einrichtungen. Gelegentlich werden auch Dieselgeneratoren als Notstromaggregat eingesetzt [Krankenhäuser, öffentliche Infrastruktur, Flugsicherung u.ä.] oder wenn politischer Druck die Schließung von Kohlekraftwerken ohne verfügbare Alternativen erzwingt.

[[Inforum: Lastbereiche des Kraftwerksbetriebes

Die durch die Leistungsanforderungen der Stromverbraucher sich ergebende Netzbelastung muss über einen zeitlich angepaßten Kraftwerksbetrieb gedeckt werden.

Dabei unterscheidet man Grundlast, Mittellast und Spitzenlast. In diesen Bereichen werden die Kraftwerke je nach ihren betriebstechnischen und wirtschaftlichen Eigenschaften eingesetzt.

Grundlast fahren die Laufwasser-, Braunkohle- und Kernkraftwerke, Mittellast die Steinkohle- und Gaskraftwerke und Spitzenlast die Speicher- und Pumpspeicherkraftwerke sowie Gasturbinenanlagen.

Ein optimaler Betrieb ist unter den heutigen und absehbaren Gegebenheiten gesichert, wenn das Verhältnis der Kraftwerksleistung in der Grundlast einerseits und in der Mittel- und Spitzenlast andererseits 1:1 beträgt.

Hier finden Sie Diagramme und Erläuterungen; zu Lastbereichen:  http://www.udo-leuschner.de/basiswissen/SB124-05.htm]]

 

Kernkraftwerke arbeiten typischerweise mit über 90 Prozent der jährlichen Kapazität [Nennabgabeleistung x 8760h x 0.9] und werden nur selten für Wartungsarbeiten abgeschaltet.

[Grundsätzlich gibt es jedoch – in D auf alle Fälle – gesetzlich vorgeschriebene Wartungs- und Revisionsintervalle für alle Energieerzeuger; Erhaltung der Betriebserlaubnis, landläufig TüV genannt]

Aussagen zu Lastfolgebetrieb der KKW, d.h.:  ~ wie wirkt sich auf- und abregeln auf den Betrieb und die Zuverlässigkeit von KKW aus:  https://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Hintergrundpapier-hp021.pdf]]

 

Wasserkraft kann in Ländern mit viel Wasservorkommen und genügend hohen Bergen gut auch als zuverlässiger Stromlieferant genommen werden, z.B. in Norwegen. In manchen Gegenden kann es saisonal bedingte Einschränkungen geben. Um das zu verbessern werden – sofern möglich – auch große Staudämme gebaut. Die Umwelteinwirkungen – Landschaft, Ökosysteme, Besiedlungen sind allerdings enorm.

[Die Nutzung der Kraft des Wassers ist heute als „Erneuerbare Energie“ vereinnahmt:

Quelle:  Umweltbundesamt, Energie aus Wasserkraft 

Die Nutzung der Wasserkraft hat eine jahrhundertealte Tradition. Früher wurde die Energie des Wassers direkt mechanisch genutzt: zum Beispiel in Mühlen. Heute wird die gewonnene Energie mit Generatoren in Strom umgewandelt. Die Wasserkraft hat seit Jahrzehnten einen wichtigen Beitrag zur Stromversorgung geleistet. Heute ist das technische Potenzial jedoch weitestgehend ausgeschöpft.

De.Wiki: Wasserkraft:

1880 wurde das erste Wasserkraftwerk im englischen Northumberland in Betrieb genommen und schon 1896 entstand an den Niagarafällen in den USA das erste Großkraftwerk der Welt.]

 

Kohlekraftwerke benötigen mehr Wartung als KKW oder Wasserkraftwerke.

Erdgas betriebene Kraftwerke können (wie Wasserkraftwerke) schnell auf- und ab-geregelt werden und sind daher vor allem zur Lieferung von kurzzeitiger Spitzenlast geeignet. Allerding sind die Kosten für den Strom unter den „konventionellen“ Kraftwerken aufgrund der Erdgaspreise am teuersten. Nur in den USA lohnt es sich seit einigen Jahren, aufgrund besonders niedriger Gaspreise, die Gaskraftwerke auch für Mittellast zu nutzen. Die modernste Variante nutzt auch die Abwärme weiter aus.

[de.Wiki: Während rein stromerzeugende Anlagen Wirkungsgrade zwischen 33 % (ältere Anlagen) und 61,5 % (Gas-und-Dampf-Kombikraftwerke)[6] erreichen, kommt man bei KWK-Anlagen auf Nutzungsgrade von bis zu 85 % und höher.]

[In Deutschland decken allerdings bei viel Sonnenschein die Photovoltaikanlagen den Bedarf zur Mittagsspitze ab. Gaskraftwerke dürfen aufgrund der EEG – Vorrangeinspeisung daher nicht einspeisen, d.h. Strom in wirtschaftlichen Mengen liefern, so dass diese nicht mehr kostendeckend zu betreiben sind. ]

Zu den in der Erinnerung goldenen Zeiten, ohne zufällig einspeisende [wann?] und in zufälliger Menge [wieviel?] und in zufälliger Zeitdauer [wie lange?] das Netz störende „Erneuerbare Energien“, reichten die „parametrierten“  Regeln aus, um fast ohne menschliche Eingriffe rund um die Uhr die Stromversorgung zu gewährleisten. Heutzutage benötigt eine – beim Verbraucher ankommende, zuverlässige Stromversorgung gut ausgebildete Menschen in den Leitständen der Kraftwerke und der Versorgungsnetze, die auf die Störungen im Netz reagieren und die notwendigen Stromflüsse zeitsynchron und auf Bedarf der Verbraucher einstellen können – In Südaustralien ist allerdings der Punkt, mit unkonventionellen Schaltungen das Netz noch irgendwie „am Laufen zu halten“ , bereits oft genug überschritten worden.

*** Ende des zweiten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3

***




Des Windkaisers neue Kleider – Teil 1 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

***

Die wenigen Orte, die versuchen, einzig die Wunderbrennstoffe der Natur zu nutzen, sind zu wirtschaftlichen Debakeln geworden. Eine von ihnen, die “Supermacht der  Erneuerbare Energien“  – Südaustralien (SA), erleiden seit Jahren routinemäßigen Lastabwurf : d.h. Energiemangel und in ungeahnte Höhen geschossene Strompreise. Die Südaustralier zahlen die höchsten Strompreise der Welt und SA ist der einzige australische Staat, der landesweite Blackouts erleidet .

Südaustraliens gehirnlose Obsession mit Wind- und Solarenergie wird in dem kleinen Video erwähnt und wird in gut gegliederter Übersicht und  brillant von Kenneth Haapala aus den USA detailliert beschrieben.

Video zur Wind- und Solarenergie von Dr. Steven J. Allen

Des Wind-Gottes neue Kleider
Capital Research, Kenneth Haapala, 22. Mai 2018

Die elektrische Revolution – Zusammenfassung

In den letzten Jahren haben viele Politiker und Projekteure erneuerbarer Energieerzeugung behauptet, dass Strom aus Wind und Sonne die sinnfällige Wahl der Zukunft sei. Als Quellen alternativer Energie sind Wind und Sonne jedoch letztlich unzuverlässig; beide hängen vom Wetter ab, das bekanntlich veränderbar ist. Nichtsdestoweniger haben Regierungen die Nutzung bestimmter Arten von Elektrizitätserzeugung gegenüber anderen bevorzugt, ohne Rücksicht darauf, welche die effizienteste oder praktischste ist. Dieser Artikel untersucht zunächst die Geschichte der am häufigsten Energiequellen und untersucht dann die aktuelle Landschaft alternativer Energiequellen. Obwohl Aktivisten und Regierungsbehörden Wind und Solar (vor allem mit Subventionen) belohnen, gibt es komplexe Gründe, warum die Begeisterung der Verbraucher für deren langfristige Nutzbarkeit weiter abnehmend ist.

Wie sich aktuelle Energieoptionen entwickelten

Es ist schwierig, den aktuellen Stand alternativer Energieoptionen ohne ein klares Verständnis der bestehenden Möglichkeiten und der grundlegenden Konzepte zu verstehen. Beides wird das Verständnis der Herausforderungen klären, vor denen Energieversorger mit alternativen Energien stehen.

Bis etwa 1850 war Holz die Hauptenergiequelle der Welt, ergänzt durch Muskelkraft, Mensch und Tier, und nur einige wenige Mühlen konnten Wasserkraft nutzen. Obwohl Kohle jahrhundertelang abgebaut wurde, ersetzte sie erst Mitte des 19. Jahrhunderts das Holz als primären Brennstoff der Menschheit. Ab etwa 1880 ersetzte Kohle  des höheren Heizwertes wegen, die Holzkohle in Hochöfen und Holz in Dampfmaschinen fast vollständig – es wurde bald zum wichtigsten Brennstoff.

[[ Im 19ten Jahrhundert waren die Wälder in Europa ziemlich abgeholzt, d.h. ausgeplündert, daher im Folgenden weiterführende Informationen für interessierte Leser, der Übersetzer]

[de.Wiki.: Geschichte des Waldes in Mitteleuropa . lesenswerte, ausführliche Beschreibung … Eine Holznot wurde seit dem 16. Jahrhundert und bis ins frühe 19. Jahrhundert regelmäßig beklagt oder befürchtet…

Und auch lesenswert:  Der deutsche Wald, Waldfrevel contra staatlichen Interessen

Von: PD Dr. Uwe Eduard Schmidt, Leiter des Arbeitsbereiches Forstgeschichte des Instituts für Forstpolitik der Universität Freiburg i. Br.

.. um 1830 sind die Gefängnisse überfüllt mit Holzdieben

… Im Liedgut der Revolution 1848/1849 wird immer wieder das Problem der unzureichenden Holzversorgung, der Holzpreissteigerung und der strengen Forstpolizei aufgegriffen….

Hinweis: Als PDF herunter ladbar; Landeszentrale der politischen Bildung Baden-Württemberg, von 2001, verschiedene Autoren]]

Die Kohle förderte die industrielle Revolution und befreite große Teile des Landes von der Abhängigkeit der Subsistenzwirtschaft

 [Wirtschaftsform, die darin besteht, dass eine kleine wirtschaftliche Einheit (z. B. ein Bauernhof) alle für den eigenen Verbrauch benötigten Güter selbst produziert und deshalb vom Markt unabhängig ist]

– einer Lebensweise, unter der viele Menschen litten, wobei die gesamte Bevölkerung durch eine schlechte Ernte immer kurz vor dem Verhungern war [- kleine Eiszeit, viele Jahre mit reduzierter und schlechter Wachstumsperiode]. In der Zwischenzeit erlaubt die verstärkte Nutzung von Kohle, auch verderbliche Agrargüter für weiter entfernt lebende Kundschaft anzubieten. Der Transport  von ländlichen Betrieben in städtische Gebiete kann leicht und preiswert per Eisenbahn organisiert werden [auch entfällt oft der „Sicherheitsdienst“, da fahrende Züge schlecht zu berauben sind!]. Viele Städte kämpften erfolgreich um eine Eisenbahnhaltestelle in ihrer Stadt. Mit Waren beladene Handelsschiffe, die auf Flüssen oder Kanälen ihr Ziel erreichten, waren zu Beginn des Jahrhunderts für den Transport von entscheidender Bedeutung, wurden durch die Schiene allmählich marginalisiert. Bergketten, Wüsten, reißende Flüsse und andere natürliche Hindernisse stellten inzwischen keine großen Handelsbarrieren mehr dar.

Obwohl Erdöl seit Jahrtausenden in Lampen verwendet wurde (die ersten primitiven Ölquellen wurden im 4. Jahrhundert in China erschlossen; die ersten modernen Bohrlöcher wurden 1848 in Baku, Aserbaidschan, gebohrt), kam die Industrie erst 1859 zu ihrem Recht. In diesem Jahr bohrte Edwin Drake sein berühmtes Bohrloch in Titusville, Pennsylvania, und förderte sowohl Öl als auch Erdgas. Die Öl- und Gasindustrie explodierte förmlich in den nächsten Jahrzehnten. Kerosin ersetzte schnell teurere Walöle und rauchige Kerzen für die Heimbeleuchtung. Im Jahr 1885 erfand Robert Bunsen ein Gerät, das Erdgas mit Luft mischte und es damit für eine sichere Nutzung erschloss [Gaslampen und Gaslaternen]. Ölproduzenten und die breite Öffentlichkeit erkannten schnell, dass die Energie der Zukunft in Öl und Erdgas lag.

1882 eröffnete Thomas Edison das erste Kohlekraftwerk in der Pearl Street Station in Manhattan.  Elektrizität-per-Draht hat die Welt bald verändert und wird von vielen Historikern als einer der beiden wichtigsten Beiträge zur modernen Zivilisation angesehen (nach der Druckerpresse im 15. Jahrhundert).

[… die Energieübertragung  durch eine elektrische Fernleitung wurde 1891 erstmalig in Deutschland demonstriert: Vom Kraftwerk in Lauffen am Neckar über 175km zum Messegelände in Frankfurt/Main anlässlich der ‚Internationale Elektrotechnische Ausstellung‘. … der bis dahin vorherrschende Gleichstrom hatte sich als echte Innovationsbremse erwiesen…]

Diese technologische Innovation hat die Welt im Zeitraum einer einzigen Lebensspanne verändert. Der Wettbewerb zwischen den Arten der Stromübertragung favorisierte Wechselstrom (AC) gegenüber Edison’s Gleichstrom (DC); andere Innovationen in der Stromerzeugung folgten schnell. Die Elektrifizierung wurde zum Kennzeichen der modernen industriellen Zivilisation.

Die Energie-Innovationen der Mitte des 19. Jahrhunderts geschahen ohne den Einfluss staatlicher Subventionen. [Wie auch die Entwicklung und der Bau von Schienenverkehr –  Eisenbahn und Straßenbahn!].  Aber dann kam der Kalte Krieg.

 

Beginn der Regierungsbeteiligung

Ein Sprung in die 1970er Jahre. Die Nachfrage nach Energie – speziell Erdöl – ist in den Industrieländern während des Kalten Krieges hoch. Die Beteiligung der Vereinigten Staaten am Yom-Kippur-Krieg brachte die Sowjetunion in Aufruhr und führte zu einem Ölembargo der Organisation erdölexportierender Länder (OPEC), was zu einem massiven Gasmangel führte.

Nach der Jahrtausendwende glaubten die politischen Entscheidungsträger erneut, dass dem Land Öl und Gas ausgingen und reagierten mit der Verabschiedung des Energy Policy Act von 2005, der umfangreiche Subventionen in Form von marktfähigen Steuergutschriften für alternative Energiequellen (Wind- und Solarenergie) vorsah ) und die Verwendung von Biokraftstoffen in Benzin forderten.

Die Bundesregierung [hier gemeint: in USA; aber auch in D war es ähnlich], zeigte sich erstmal zurückhaltend, als der Strombedarf zunahm. Inzwischen wird „Stromsparen“ durch die Politik den Verbrauchern empfohlen – besonders wenn er durch Öl, Kohle und Gas erzeugt wird. Stattdessen fördern und subventionieren die Politiker in der  Regierung „erneuerbare Energie“, die die Menschen wieder von den Wetterelementen abhängig macht.

 

Grenzen von Wind und Solar – Kann Wind eine Alternative zu thermischer Energie sein?
Wind wird seit tausenden von Jahren verwendet, um Segelschiffe anzutreiben und später Räder anzutreiben, um Getreide zu mahlen und Wasser zu pumpen. Die erste Windmühle zur Stromerzeugung in den USA, „The Brush“ genannt, wurde 1887-88 von Charles Brush in Cleveland gebaut. Bei dieser Vorrichtung treibt ein großer vom Wind angetriebener Rotor wiederum einen Generator mit einer vertikalen Welle an. Im 19. und 20. Jahrhundert wurden im ganzen Mittleren Westen einige tausend solcher Windmühlen installiert, die Elektrizität und Pumpwasser erzeugten. Aber „The Brush“ hatte seinen Nutzen verloren, als die Stromversorgung von zuverlässigen zentralisierten Erzeugungsanlagen verfügbar wurde.

Seit den pittoresken Tagen der Brush, gab es bedeutende Veränderungen an den Windmühlen, die versuchen Strom zu erzeugen, verstärkt durch das OPEC Ölembargo der frühen 1970er Jahre. Diese Bemühungen haben zu der modernen Windkraftanlage geführt.

Im Jahr 1919 stellte der Physiker Albert Betz eine hypothetische Grenze für die Energie fest, die eine Windmaschine umwandeln kann; die maximale Energieausnutzung kommt auf etwa 59 Prozent der kinetischen Energie des durchfließenden Windes. Heute kommen die effizientesten Turbinen [an fast 50% heran], über aerodynamische geformte Rotorflügel, bei denen die kinetische Energie des Windes auf einer Achse erfasst wird, die direkt dem Wind zugewandt ist. Sicherheitsmerkmale müssen in das Design integriert werden, um sicherzustellen, dass starke Windböen nicht zur Selbstzerstörung des Geräts führen. Außerdem müssen Windkraftanlagen bei verschiedenen Windgeschwindigkeiten verwertbaren Strom erzeugen. Unterschiedliche Windgeschwindigkeiten und notwendige Mindestdrehzahlen für die Generatoren erfordern oft ein Getriebe, inzwischen gibt es allerdings auch getriebelose Anlagen – beides hat Vor- und Nachteile, nähere Information hier.

Das Endergebnis ist eine komplexe Konstruktion, bei der der Generator und das Getriebe entlang der Achse der Flügel (Nabe) in einem Gehäuse angeordnet sind, die als Gondel bezeichnet wird. Diese Windturbinen erreichen bei vorgegebener Windgeschwindigkeit 70 bis 80 Prozent der theoretischen Grenzwerte. Moderne Turbinen beginnen  ab 10 bis 15 km/h Strom zu erzeugen, wobei die Nennleistung bei 40 bis 60 km/h und einer Abschaltgeschwindigkeit von 145 km/h erreicht wird. [-nicht nachrecherchiert], konstante Windgeschwindigkeiten voraus gesetzt, keine Böen. Moderne Windturbinen haben ihre theoretischen Grenzen erreicht; ob noch ein großer technologischer Durchbruch möglich ist, um diese Grenzen zu überschreiten, ist unbekannt.

Die inkonsistente Energieerzeugung ist nicht der einzige Nachteil von Windkraftanlagen.

Nur wenige Personen außerhalb des begrenzten Kreises von Ingenieuren für Windkraftanlagen kennen die enorme Menge an Beton, die für das Fundament eines Windturms benötigt wird. Eine Standard-1,5-MW-GE-Turbinen- und Blattanordnung mit einem Gewicht von etwa 92 Tonnen wird auf einem Turm etwa 63 m über dem Boden angeordnet. Das Drehmoment, das von einem großen Rotor mit einer hohen Geschwindigkeit erzeugt wird, entspricht einem Schulbus, der am Ende einer Planke mit der Länge eines Fußballfeldes befestigt ist. Daher muss die Basis in der Tat sehr stark und dick sein; Gegenwärtig können solche Fundamente mehr als 550 Tonnen Beton und 45 Tonnen Bewehrungsstahl enthalten. [[ In Deutschland hat die größte WKA 178m Nabenhöhe, Gesamt 246,5 m]]

Wenn Windturbinenschaufeln den Turm passieren, erzeugen sie niederfrequente Schallwellen; Diese Art von Schall bewegt sich über große Entfernungen und kann bei einem kleinen Prozentsatz sensibler Personen sehr störend sein, was zu Störungen des Innenohrs und zu Beeinträchtigungen des Gleichgewichts führt. [Weiterführende Information hier und hier]]

 

Was ist mit Solar?

Auch der Ursprung der Innovation der Solarenergie stammt aus der Zeit der industriellen Revolution. Die photovoltaische (PV) Technologie wurde erstmals in der Mitte des 19. Jahrhunderts demonstriert, aber die ersten Versuche waren ineffizient und lieferten nur einen schwachen elektrischen Strom. Im Jahr 1921 erhielt Albert Einstein einen Physik-Nobelpreis für die Erklärung des Prozesses, der durch Licht Elektrizität erzeugt, Forschung, die zum Teil die Grundlage der späteren Generationen der Technologie bildete.

In diesem Fall begann die Beteiligung der Regierung an der Förderung der Solarenergie durch militärische Forschung. Nach dem Zweiten Weltkrieg trugen Forschungen des Naval Research Laboratory und der National Aeronautics and Space Administration dazu bei, die frühe PV-Technologie voranzutreiben.

Das Interesse an Solarenergie ist wiederum das Ergebnis der Energiekrise der 70er Jahre. Die in dieser Ära erlassene Gesetzgebung erweiterte den Einsatz von Solartechnologie in Bundesgebäuden (Präsident Jimmy Carter war der erste Präsident, der Sonnenkollektoren im Weißen Haus installierte) und erhöhte Forschungsbudgets, um Sonnenenergie erschwinglicher und verfügbarer zu machen.

Trotz der Attraktivität der Solarenergie hat sich die Stromproduktion als schwierig erwiesen. Damit Solarenergie Strom mit einer Kapazität von 60 Prozent [der maximalen „Peak“ Leistung] erzeugen kann, die in der Nähe des Spitzenwerts liegt, benötigen Solarkollektoren wolkenlosen Himmel und hochstehende und geradlinig daraufscheinende Sonne. Selbst in einer der besten Gegenden für Solaranlagen in den USA (Tucson, Arizona) erzeugen Solar-Photovoltaik-Module den Strom mit 60 Prozent Kapazität nur etwa für  4 bis 5 Stunden pro Tag, abhängig von der Jahreszeit. Natürlich erzeugen sie nichts zwischen Sonnenuntergang und Morgendämmerung. [Von Fans dieser Technologie wird immer angeführt, PV-Module erzeugen auch bei bedecktem Himmel noch Strom – ja, das stimmt, nur nicht viel]

Die industrielle Solarthermie wurde angepriesen, um einige der Einschränkungen von Solarmodulen zu überwinden. Die im Februar 2014 offiziell eröffnete Ivanpah Solar Power in Kalifornien zum Beispiel, konzentriert die Sonnenstrahlen über bewegliche Spiegel auf Türme im Zentrum, die Dampf für den Antrieb von Dampfturbinen erzeugen. Leider ist das System eine teure Enttäuschung. Es arbeitet mit einer durchschnittlichen Kapazität von weniger als 21 Prozent [8760 Jahresstunden mal Nennleistung = 100%]. Entsprechend der geplanten Kapazität sollte es eine durchschnittliche Kapazität von über 27 Prozent erreichen. Aufgrund fehlender Daten sind die tatsächlichen Betriebskosten schwer zu berechnen, aber sie scheinen nahe an den Kosten eines modernen neuen Kernkraftwerks zu liegen, das rund um die Uhr Strom produziert. Außerdem benötigt die Anlage trotz allem Erdgas, um die Salzschmelze in dem Kessel wieder zu schmelzen – und um evtl. Lieferrückstände zu erfüllen (vereinbarte Strommenge an Abnehmer).

Zu dem Solarkraftwerk und den Betriebskosten finden Sie auf Eike übersetzte Berichte: hier in 2014 und hier in 2016 und hier in 2018.

*** Ende des ersten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work/

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3




Im Holozän war der Meeresspiegel um 2 Meter höher – heutige Änderungen gehen im Rauschen unter

Holocene-CO2-10500-Years-Ago-to-1800-AD

Vor dem Beginn der industriellen Revolution im späten 18. und frühen 19. Jahrhundert schwankten die Konzentrationen von Kohlendioxid (CO2) zwischen 260 und 280 ppm.

Innerhalb des letzten Jahrhunderts sind die atmosphärischen CO2-Konzentrationen erheblich angestiegen. Kürzlich haben sie 400 ppm übertroffen.

Wissenschaftler wie Dr. James Hansen sind zu dem Schluss gekommen, dass die vorindustriellen CO2-Werte klimatisch ideal waren. Obwohl weniger optimal, wurden atmosphärische CO2-Konzentrationen bis zu 350 ppm als klimatisch „sicher“ charakterisiert. Es wird jedoch angenommen, dass CO2-Konzentrationen über 350 ppm für das Erdsystem gefährlich sind und dass solche „hohen“ Konzentrationen zu einer raschen Erwärmung, Gletscher- und Eisschichtschmelze und zu einem erschütternden Meeresspiegelanstieg von 3 Meter innerhalb von 50 Jahren führen könnten.

Um diese katastrophalen Ausmaße (3 Meter innerhalb von 50 Jahren) zu erreichen, die von Befürwortern des Meeresspiegelanstiegs vorhergesagt werden, muss die derzeitige „anthropogene“ Änderungsrate von +1,4 Millimeters pro Jahr (seit 1958) sofort auf +61 Millimeter pro Jahr explodieren. Die Wahrscheinlichkeit, dass dies geschieht, ist gering, insbesondere wenn man bedenkt, dass Grönland und die Antarktis zusammen seit 1958 insgesamt 1,54 cm beigetragen haben (Frederiske et al., 2018).

 

 

Steigt der aktuelle Meeresspiegel mit einer beispiellosen „anthropogenen“ Rate? –  Nein.

Trotz des Anstiegs der CO2-Konzentrationen seit 1900 ist der Weltklimarat (IPCC) der Vereinten Nationen zu dem Schluss gekommen, dass der globale Meeresspiegel im gesamten Zeitraum 1901-2010 nur um durchschnittlich 1,7 mm / Jahr gestiegen ist, was 17cm pro Jahrhundert entspricht.

Während der Periode von 1958 bis 2014, bei ansteigenden CO2-Emissionen, ergab eine kürzlich durchgeführte Analyse, dass sich der Anstieg des Meeresspiegels auf 1,3 mm / Jahr bis 1,5 mm / Jahr oder nur 14 cm pro Jahrhundert verlangsamte.

 

Frederiske et al., 2018 „Anthropogene“ globale Meeresspiegelanstiegsrate (1958-2014): liegt bei +14 cm pro Jahrhundert

„Zum ersten Mal wird gezeigt, dass für die meisten Wassereinzugsgebiete der rekonstruierte Meeresspiegeltrend und die Beschleunigung durch die Summe der Faktoren sowie einen großen Teil der dekadischen Variabilität erklärt werden kann. Die Rekonstruktion des globalen, mittleren Meeresspiegels zeigt einen Trend von 1,5 ± 0,2 mm/Jahr im Zeitraum 1958-2014 (1σ), verglichen mit 1,3 ± 0,1 mm/Jahr für die Summe der Faktoren.“

In den letzten paar tausend Jahren hingegen stieg und fiel der Meeresspiegel in einigen Regionen mit Raten von + oder – 0,5 bis 1,1 Metern pro Jahrhundert, das ist 4 bis 7 mal so hoch wie seit 1958.

[[Hinweis: Im Original Bericht und vor allem bei den Kurzfassungen vieler Studien, sind viele Grafiken über „Höhe des Meeresspiegels“ eingeklinkt.
Der Übersicht halber, habe ich nur wenige übernommen. Bitte nutzen Sie die angegebenen Links für mehr Details.
Achten Sie bitte auf die Zeitskala: Jetzt (oder NULL) kann mal ganz rechts oder auch ganz links sein. Der Übersetzer]]

 

Holocene-Cooling-Sea-Level-Africa-Mozambique-Miguel-2018

alle Grafikquellen im Original: Bracco et al., 2014   Whitfield et al., 2017    Strachan et al., 2014 

 Hein et al., 2014    Miguel et al., 2018

 

Hansen et al., 2016

„Kontinuierliche Aufzeichnung der Veränderungen des holozänen Meeresspiegels (von vor 4900 Jahre bis heute). …. Die Kurve zeigt acht hundertjährige Schwankungen des Meeresspiegels von 0,5-1,1 m, die dem allgemeinen Trend der RSL-Kurve (relativer Meeresspiegel) überlagert sind.“

Auch andere Regionen haben in den letzten tausend Jahren starke Schwankungen des Meeresspiegels erfahren, die weit über die heutigen Veränderungen hinausgehen.

Holocene-Cooling-Sea-Level-Denmark-Hansen-16

Das dänische Meer verändert sich innerhalb der natürlichen Variabilität.
Bildquelle:  Hansen et al., 2016

  

Vor ~15,000 – 11,000 Jahren, stieg der Meeresspiegel um plus 4 bis plus 6 Meter pro Jahrhundert

Veränderungen in aktueller Zeit sind auf den Diagrammen der langfristigen Meeresspiegeltrends nicht einmal zu erkennen.

 

  

Holocene-Cooling-Sea-Level-China-Bradley-16

Holocene-Cooling-Sea-Level-Thailand-Scheffers-2012

alle Grafikquellen im Original: Dura et al., 2016 ; Bradley et al., 2016 ; Scheffers et al., 2012  Kane et al., 2017

 

Cronin et al., 2017  

 „Raten und Verlauf des globalen Meeresspiegelanstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind aus radiometrischen Zeitaltern an Korallenriffen von Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie Sedimentdaten vom Sunda-Schelf und anderen Orten bekannt.

 Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Hauptphase der Enteisung vor 16,5 bis 8,2 Tausend Jahren bei 12 mm/Jahr [+1,2 Meter pro Jahrhundert] mit schnelleren SLR [Meeresspiegelanstiegs] Raten ( ~ 40 mm/Jahr) [+4 Meter pro Jahrhundert]  während des Schmelzwasserimpulses 1A vor etwa 14.500 bis 14.000 Jahren“.

[englisch: … während des „meltwater pulse“]

Abdul et al., 2017   Anstieg des globalen Meeresspiegels:  +4 Meter pro Jahrhundert (vor 11.450 bis 11.100 Jahren)

 „Wir stellen fest, dass der Meeresspiegel den Klimaschwankungen bemerkenswert gut folgt. Der Anstieg des Meeresspiegels war im frühen Allerød (25 mm/Jahr) schnell, fiel aber sanft in den Jüngeren Dryas (7 mm/Jahr) zurück, bis die Rate auf <4 mm/Jahr ‚plateaued‘, dort als „slow stand“ [~ langsamer Pegelstand] bezeichnet“.

 Es wurden keine Beweise gefunden, die auf einen Sprung des Meeresspiegels zu Beginn des Jüngeren Dryas hinweisen, wie von einigen Forschern vorgeschlagen. Nach dem „Slow-Stand“ beschleunigte sich der Anstieg des Meeresspiegels schnell und erzeugte den 14 ± 2 m hohen Meeresspiegelsprung, bekannt als MWP-1B; dieser trat auf vor 11,45 und 11,1 Tausend Jahren, mit einem Anstieg des Meeresspiegels auf 40 mm/Jahr [+4 Meter pro Jahrhundert]. „

  

Ivanovic et al., 2017   Meeresspiegelanstieg auf der Nordhalbkugel: +3,5 bis +6,5 Meter pro Jahrhundert (vor ca. 14.500 Jahren)

„Während des letzten glazialen Maximums vor 26-19.000 Jahren, erstreckte sich eine riesige Eisdecke über Nordamerika [Clark et al., 2009]. In den folgenden Jahrtausenden, als das Klima sich erwärmte und diese Eisdecke zerfiel, strömten große Mengen Schmelzwasser in die Ozeane [Tarasov und Peltier, 2006; Wickert, 2016].

 Diese Periode, die als „letzte Enteisung“ bekannt ist, umfasste Episoden abrupten Klimawandels, wie die Bölling-Erwärmung [vor ~ 14.7-14.5 Tausend Jahren], als die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um 4° bis 5 ° C anstieg [Lea et al., 2003; Buizert et al., 2014]. Das fiel zusammen mit einem Anstieg des Meeresspiegels um 12-22 m in weniger als 340 Jahren [3,5 bis 6,5 Meter pro Jahrhundert] (Melt water Pulse 1a (MWP1a)) [Deschamps et al., 2012]. „

 

  Zecchin et al., 2015    Anstieg des regionalen Meeresspiegels: +6 Meter pro Jahrhundert (vor 14.500-11.500 Jahren)

 Schmelzwasser-Impulse haben den postglazialen relativen Meeresspiegelanstieg mit Raten von bis zu 60 mm/Jahr [6 Meter pro Jahrhundert] für ein paar Jahrhunderte unterbrochen.

 

Es ist immer offensichtlicher geworden, dass der Meeresspiegel ohne offensichtlichen Zusammenhang mit CO2-Konzentrationen steigt und fällt. Und wenn ein anthropogenes Signal nicht auffallend deutlich mit dem Meeresspiegelanstieg in Verbindung gebracht werden kann (wie Wissenschaftler festgestellt haben), dann wird die größte wahrgenommene existenzielle Bedrohung, die von Befürwortern einer gefährlichen anthropogenen globalen Erwärmung verkündet wird, nicht mehr in Betracht gezogen werden können.

Erschienen auf No Tricks Zone am 12.04.2018

Übersetzt durch Andreas Demmig

http://notrickszone.com/2018/04/12/70-papers-holocene-sea-levels-2-meters-higher-todays-sea-level-change-indistinguishable-from-noise/

Link zur Übersicht über viele der angesprochenen Studien)

70+ Studien: Meeresspiegel 2+Meter höher vor 9.000 – 4.000 Jahren, während die CO2-Werte mit 265ppm „sicher“ waren