1

UNO-Ozeanbeauftragter: Klimaschutz sei wie „Kriegszustand“

Der Holocaust war eine Klimakatastrophe, die sich nicht wiederholen darf.

Vor kurzem gaben Klimawissenschaftler in einer Studie zu klimabedingt kochenden Weltmeeren die aufgenommene Wärmemenge in „Milliarden Hiroschima-Atombomben“ an. Ein Hamburger Kandidat der Linkspartei in Hamburg, Tom Radtke, setzte noch einen drauf und erstaunte die Wähler mit der Aussage, daß sich die Wehrmacht im Zweiten Weltkrieg klimaschädlich verhalten habe, was Henryk Broder zum eingangs genannten Bonmot veranlaßte. Eigentlich müßten solche wirren Aussagen als politisch höchst unkorrekt gelten, da hier Millionen Opfer von Krieg und Antisemitismus für den Wahlkampf oder die Finanzierung des eigenen Pöstchens instrumentalisiert werden.

Aber die Vertreter des klimamedialen Komplexes können sich jede Peinlichkeit und jeden Rassismus leisten, solange es dem hegemonialen Narrativ nützt. Wußten Sie, daß es einen „Ozeanbeauftragten“ der UNO gibt? Was der macht, ist nicht ganz klar; es dürfte sich um einen Versorgungsposten für verdiente Höflinge handeln; eine Art Lobbyist für Interessensgruppen innerhalb des UN-Betriebes.

Der Mann vergleicht die aktuellen Meeresschutzmaßnahmen allen Ernstes mit der Appeasement-Politik des britischen Premiers Sir Neville Chamberlains gegenüber Adolf Hitler. Abgesehen davon, daß Sir Neville weder feige noch dumm war, sondern der Königlichen Luftwaffe R.A.F. die nötige Zeit verschaffte, Görings Messerschmitt-Jägern ebenbürtige Spitfire-Geschwader aufzustellen, ist der Vergleich des Klimakollaps mit der NSDAP-Barbarei nicht nur geschmacklos, sondern geradezu widerwärtig. Hier wird die tödlichste und grausamste Phase unserer Geschichte im 20. Jahrhundert instrumentalisiert, um Kasse und Politik zu machen. Ist zu erwarten, daß Antifaschisten und Opferverbände protestieren? Eher nicht.

„Auch vor dem Zweiten Weltkrieg gab es Leute, die wollten, daß alles so bleibt, wie es ist.“

Heißt das, Klimaskeptiker seien Nationalsozialisten oder Mitläufer? Danke auch, das erinnert an Greta-Mutti Malena Ernmans Aussage, sie würde keine Zeitungen unterstützen, die Klima-Holocaustleugner schreiben lassen. Wird jetzt sogar von der UN aus mit dem Nazivorwurf Jagd auf Klimaskeptiker gemacht? Einen Vorgeschmack hatten wir von EIKE ja in München anläßlich unserer Konferenz schon bekommen. Die UNO hat in den letzten Jahrzehnten krude Ideen wie das Gendern (1995) durchgesetzt, das westliche Staaten dann übernahmen. Ähnlich sieht es mit dem Antisemitismus aus, wegen dem die USA die Kultur-Organisation UNESCO verließen. Mal sehen, wie viele Beamte die Münchener Polizei im November dann auffahren muß, um unsere diesjährige Konferenz zu schützen.

Im Artikel der Welt über Thomsons verhetzende Aussage wird dann noch mit der lustigen Aussage „gewarnt“, daß „der“ Meeresspiegel 2018 3,7 mm höher gewesen sei als 2017. Nun, „den“ Meeresspiegel gibt es nicht; und eine weltweite Mittelung der Meßpunkte ist so, als würde man ein mittleres Geschlecht oder einen mittleren Beruf der Erdenbürger angeben wollen. Zudem schmilzt das Polareis nur im Sommer, und es gibt fast überall Tidenhub, also Ebbe und Flut, man kann also Spiegelunterschiede gar nicht so leicht feststellen. Es sei denn, es wären deutlich mehr als ein paar Millimeter per annum. 3,7 mm im Jahr verschwinden in der Fehlertoleranz, das ist überhaupt kein realer Wert. Zudem wissen wir von unseren Experten auf der IKEK-12, daß die Meeresspiegel nicht oder nicht überall steigen.

Noch etwas Interessantes: Raten Sie, wer Thomson zum Ozeanographen der UNO ernannt hat. Richtig, es war António Guterres, der in Madrid mit alarmistischen Tönen auffiel.




Der Stern sinkt: Stellenstreichungen bei Daimler

Die Botschaft von Daimler wird eindeutig sein: Wieder ein Gewinneinbruch, und die Spirale zeigt weiter nach unten. Am Dienstag, 11. Februar, verkündet der neue Daimler-Chef Ola Källenius den zweiten Gewinneinbruch hintereinander. Källenius, der im Mai vergangenen Jahres inthronisierte Schwede, wird nach einem Bericht des Handelsblattes in seinem Sparprogramm mehr als 10 000 Stellenstreichungen verkünden – bei rund 282 000 Mitarbeitern. Es könnten auch 15 000 Arbeitsplätze wegfallen.

Das Ergebnis vor Zinsen und Steuern liegt mit 5,6 Milliarden Euro nur noch bei der Hälfte des Vorjahresergebnisses, wie Daimler bereits im Januar veröffentlichte. 

Die Aktien des Stuttgarter Autohersteller mit seiner mehr als 130-jährigen Tradition haben seit Anfang des Jahres 2018 fast 40 Prozent an Wert verloren. Ein ziemlich beispielloser Fall des einstigen Vorzeigeunternehmens.

Zum Milliardengrab wird für Daimler ausgerechnet der Dieselantrieb. Dem Unternehmen, das den Dieselmotor salonfähig gemacht und zum ersten Mal in einen Pkw eingebaut hat, wird das Kesseltreiben auf diese Antriebsform zum Verhängnis. Die Motorenbauer wussten sich bekanntlich seinerzeit nicht mehr anders als mit einigen Tricksereien zu helfen, um irgendwie die ins aberwitzige gesteigerten Grenzwerte zu erreichen.

Auf zwischen 1,1 bis zu 1,5 Milliarden Euro werden allein die Kosten für die laufenden Verfahren in den USA geschätzt. Es schlagen auch die Kosten für den horrenden Aufwand für neue Zertifizierungen zu Buche, die die Autohersteller aufgrund geänderter Abgasvorschriften für jedes Modell in jeder Variante zu absolvieren hatten. Das führte zu absurden Situationen, dass Autohersteller nicht mehr liefern konnten, und dies hat erhebliche Spuren in den Kassen hinterlassen. Auch Daimler drohen hohe Strafzahlungen aufgrund des CO2-Ablasszertifikatehandels. Denn jetzt machen sich die verschrobenen CO2-Vorschriften bemerkbar, und die Folgen der Entscheidungen werden deutlich, die vor einem Jahr der Bundestag diskussionslos durchgewunken und die EU im Eiltempo beschlossen hat. Nur die AfD wollte seinerzeit im Bundestag ein Moratorium erreichen und die Autoindustrie etwas aus der Schusslinie nehmen, kam damit aber nicht durch.

Es zeigt sich, dass die Autohersteller besser rechtzeitig massiv gegen die systematische Zerstörung des Automobils Stellung bezogen hätten, anstatt in ein freudiges »Wir schaffen das!« einzustimmen. Aber das ist mehr als zehn, fünfzehn Jahre her, als sozialdemokratische und grüne Politik in trauter Eintracht mit internationalen NGOs die deutsche Autoindustrie unter Beschuss genommen haben.

Eine durchwegs dürftige Rolle spielen die letzten Gewerkschaftler. Sie wollen sich gegen Arbeitsplatzabbau wehren, verkünden sie von ihrer Resterampe. Källenius hat die IG Metall bereits zur Zurückhaltung bei den kommenden Tarifverhandlungen aufgerufen: »Wir halten es in dieser Situation für sehr, sehr sinnvoll, die Ansprüche entsprechend anzupassen.«

Von zwei größeren Daimler-Aktienpaketen, die in chinesische Autobauerhände wechselten, berichtet die Welt. Die chinesischen Autobauer Geely, dem bereits Volvo gehört, und BAIC wollen ihren Anteil an Daimler auf bis zu zehn Prozent aufstocken. Die sind am technologischen Know how Daimlers höchst interessiert und kaufen um fast jeden Preis.

Viel zu transferieren hätten sie nicht. Das Know how entsteht bereits in Peking. Daimler baut in China ein weiteres komplettes Technologiezentrum mit Prüfständen, Teststrecke sowie Prüflabors und Werkstätten zur Erprobung von Technologie, Antriebsstrang und Chassis, Emissionen und Luftqualität im Innenraum auf. Also das, was in Stuttgart und Sindelfingen vorhanden ist und worin der technologische Kern eines Autoherstellers besteht.Die neue Automobiltechnik wird in China entstehen. Und, so viel sei verraten, das Auto der Zukunft dort wird kein Elektroauto werden.

Da wirkt es wie ein schlechter Witz, dass sich jetzt ausgerechnet die Bundesumweltministerin Svenja Schulze zu Wort meldet. Die Bundesregierung wolle keine strengeren Klimaschutz-Vorschriften für Autoflotten in der EU – vorerst, wie sie sagte.

Doch werden die Händler des neuen »Green Deals« in Brüssel wohl kaum eher ruhen, bis auch die letzten Reste der Autoindustrie Deutschlands zerschlagen sind. Die Gelegenheit ist gerade günstig. Hebel sind weiterhin Grenzwerte, mit denen dem effektivsten Motor, den es zur Zeit gibt, nämlich dem Diesel, der Garaus gemacht werden kann. Der geht mit dem Kraftstoff besonders sparsam um und ist deshalb beliebt. Die Autoingenieure haben ihn so sauber bekommen, dass hinten aus dem Auspuff kein Feinstaub und nur noch sehr wenige Stickoxide herauskommen.

Es darf sehr bezweifelt werden, ob Schulze überhaupt merkt, was ihre Klimakampftruppen angerichtet haben. Sie sollte nur nicht mehr vor arbeitslosen Arbeitern der Autoindustrie auftreten. Die dürften nicht mehr so friedlich sein wie die Bauern bei ihrer Demonstration in Berlin.

Das letzte Gefecht der Autoindustrie hinterläßt deutliche Spuren in den Bilanzen. Geschlossene Werkshallen sind der nächste Schritt. Die Sterne über Stuttgart und Sindelfingen sinken. 

Der Beitrag erschien zuerst bei TE hier




Wie viel Strom kann eine 1-Milliarden-Dollar-Solaranlage produzieren?

[Diese Bauart (Solar incl. Speicher] können (sollen) den Strom nach Bedarf und auch nachts abgeben können (wie z.B. ein thermisches Kraftwerk) und setzen sich damit von dem Zufallsstrom der PV-Anlagen ab.]

[[ Text ergänzt durch Auszüge der von Albert Parker angegebenen Links:

Die vielgepriesene Solaranlage Crescent Dunes geht pleite

Tom Koski, Las Vegas, 14. January, 2020

Erinnern sich die Leser an das Solarkraftwerk Crescent Dunes in Tonopah? Das Projekt startete vor ungefähr 10 Jahren und wurde teilweise mit einer Bundeskreditgarantie in Höhe von 737 Mio. USD finanziert.

Nevada Energy unterstützte das Projekt voll und ganz und versprach, Strom zu kaufen, zu einem Preis, fast sechsmal so hoch war wie der Marktpreis zu dieser Zeit. Gleichzeitig zerstörte das Unternehmen das Solargeschäft in Wohngebieten in Nevada, indem es eine Maßnahme durchsetzte, um den „Rückkauf“ von Energie aus privaten Haushalten auf weniger als ein Sechstel der laufenden Rate zu reduzieren.

Wie geht es Crescent Dunes? Der Betrieb wurde im April eingestellt. Wir Steuerzahler haben die drei Viertel einer Milliarde US-Dollar an garantierten Bundeskrediten dazu gegeben und das Energieministerium versucht zu entscheiden, was mit diesem Industriemonster geschehen soll.

https://www.reviewjournal.com/opinion/letters/letter-much-touted-crescent-dunes-solar-plant-goes-bust-1935510/

 

Crescent Dunes: Ein weiterer grüner Flop

Von Chris Edwards, 7. Januar 2020

Das Energieministerium bezeichnete das riesige und teure Solarprojekt als „Erfolgsgeschichte“ und “ Meilenstein für die Energiezukunft des Landes“.

Aber Sie können nicht alles glauben, was die Regierung sagt. Crescent Dunes ist ein Flop und die Steuerzahler werden laut einem neuen Bloomberg- Bericht voraussichtlich 737 Millionen Dollar verlieren. Das ist sogar mehr als die 535 Millionen US-Dollar Steuerzahler, die durch das korruptionsgetränkte Solarsolarprojekt Solyndra verloren gegangen sind.

https://www.cato.org/blog/crescent-dunes-another-green-flop

 

Ein weiteres von der Bundesregierung unterstütztes Solarenergieprojekt ist gerade pleite gegangen

David Boaz, 26. Januar 2020

Es war nicht das erste und wird nicht das letzte sein.

Sieht aus, als wäre eine andere von der Bundesregierung unterstützte Solarenergieanlage pleite gegangen. Bloomberg News  berichtet: „Eine Solaranlage im Wert von 1 Milliarde US-Dollar war veraltet, bevor sie online ging.“

2011 sollte das 1-Milliarden-Dollar-Projekt [Crescent Dunes] die größte Solaranlage ihrer Art sein, und es sah aus wie die Zukunft der erneuerbaren Energien. Citigroup Inc.  und andere Finanziers investierten 140 Millionen US-Dollar in die Bürgschaften ihres Entwicklers  SolarReserve Inc. Steven Chu, dem damaligen US-Energieministeri und Senator Harry Reid, Nevada , dem damaligen Mehrheitsführer der Demokraten im Senats, ebneten dem Unternehmen den Weg, auf öffentlichem Land zu bauen.

Der Bundesstaat Nevada hat  in  20 Jahren weitere 119,3 Millionen US-Dollar an Steuerermäßigungen dazugegeben. Aber Chris Martin und Nic Querolo schreiben bei Bloomberg:

Bis zur Eröffnung der Anlage im Jahr 2015 hatte die Effizienzsteigerung billiger PV-Module bereits ihre Technologie übertroffen und diese ist heute veraltet – die neuesten PV-Module können mit nur gelegentlichem Abspritzen jahrzehntelang Strom zu einem Bruchteil der Kosten liefern…

Die Technologie der Anlage war so konzipiert, dass sie Tag und Nacht genug Strom erzeugt, um eine Stadt in der Größe des nahegelegenen Bundesstaates Sparks (100.000 Einwohner) zu versorgen, kam diesem Ziel jedoch nie nahe. Die Megawattstunde kostete [von dort] rund 135 US-Dollar, verglichen mit weniger als 30 US-Dollar pro MWh von dem neuen Photovoltaik-Solarpark in Nevada, das gemäß Bloomberg NEF, nach Alternativen für fossile Brennstoffe forscht.

https://nationalinterest.org/blog/buzz/another-federally-backed-solar-energy-project-just-went-belly-116506

]]

Der abgegebene Strom, der wie üblich nicht nach Bedarf produziert werden konnte, sondern meistens bei Sonnenschein (und hier oft genug nicht einmal dann), ist bekannt, auch Wikipedia führt die EIA-Daten in einer Tabelle auf.

[[ Text übersetzt von https://en.wikipedia.org/wiki/Crescent_Dunes_Solar_Energy_Project

Production (Produktion – abgegebene Energie)

Die Inbetriebnahme eines neuen fossilen Kraftwerks, dessen Technologie sich auf der Basis von Crescent Dunes befindet, dauert von der ersten Netzverbindung bis zur vollständigen Produktion einige Jahre.

Die Produktionsdaten von Edwardsport z.Bsp., dessen Produktion (das erste partielle Teiljahre nicht betrachtet) 40% im ersten vollen Jahr erreichte, erreichte 57% im zweiten vollen Jahr und wurde im nächsten Jahr durch ein Problem im Oktober gestoppt, werden mit 73% im vierten und nächsten Jahr fortgesetzt. Bei Crescent Dunes war mit einem ähnlichen Verlauf zu rechnen, doch der Ausfall der Lagertanks im Jahr 2016 führte zum Stillstand der Inbetriebnahme. [29] Danach wurde das erste volle Produktionsjahr auf 2018 verschoben, beginnend mit einer abgegebenen Leistung von 40% (200 über 500).


Text übersetzt von https://en.wikipedia.org/wiki/Crescent_Dunes_Solar_Energy_Project

Shutdown  (Stilllegung)

Die ersten drei Monate des Jahres 2019 (Januar, Februar und März) zeigten einen guten Verlauf und übertrafen alle vorherigen monatlichen Daten. Im April wurde die Anlage jedoch stillgelegt, da der einzige Käufer des Projekts, NV Energy, den Strombezugsvertrag wegen Nichtproduktion der vertraglich vereinbarten Energiemenge kündigte. Der gelieferte Strom kostete NV Energy etwa 135 US-Dollar pro Megawattstunde, verglichen mit weniger als 30 US-Dollar pro MWh, die in einem neuen Photovoltaik-Solarpark in Nevada angeboten werden. Der Solarstrom des Tonopah-Projekts ist jedoch [nach Bedarf] abrufbar, während der Photovoltaikstrom nur volatil zur Verfügung steht. Es ist unangemessen, Technologien mit intermittierender Stromerzeugung wie Wind und Sonne mit Technologien zur abrufbaren Stromerzeugung wie Kernkraft, Gas-Kombikraft und Kohle zu vergleichen. Das Crescent Dunes-Projekt ist eher auf die konventionelle Art der Stromerzeugung ausgerichtet. Der Unterschied zwischen den Niedrigtarifen am Mittag und  den Hochtarifen am Abend kann bis zu vier Größenordnungen betragen, wenn Bezugskosten für die Stromerzeugung zu Spitzenzeiten im Vertrag enthalten sind. ]]

Dank der klugen Energieverwalter in der Obama-Ära, haben die US-Steuerzahler damit 2,38 US-Dollar pro kWh Sonnenstrom bezahlt.

Von Crescent Dunes wurde eine Produktion von mehr als 500.000 MWh per anno über einen Zeitraum von 25 Jahren oder 12.500.000 MWh voll verfügbaren (gemeint war: nach Bedarf abrufbaren) Stroms zu einem Preis von 0,08 USD pro kWh versprochen.

Steuerzahler in anderen Ländern mit ähnlich erfahrenen Befürwortern von „Erneuerbaren Energien“, z.B. in Südafrika und Chile, wurden nur durch den Mangel an zusätzlichen Kapitalgebern, von diesem sinnlos verpulverten Investitionen verschont.

https://wattsupwiththat.com/2020/02/04/how-much-electricity-may-produce-a-1-billion-solar-plant-backed-by-the-obama-energy-department/

Zusammenstellung und Übersetzung durch Andreas Demmig

 

Interaktive Übersicht von Solarkraftwerken auf Webseite  des Verbands der Solarindustrie

https://www.seia.org/research-resources/major-solar-projects-list




SEID IHR ALLE EIN BISSCHEN GRETA?

Dinosaurier mit drei Flügeln

VW baut nicht nur Wagen fürs Volk. Der Bugatti Veyron, das exklusive Topmodell, ist in der Standardversion 400 km/h schnell. Falls Ihnen das nicht reicht, die Sportversion bringt’s auf 430. Dafür braucht der Wagen einen starken Motor: einen turbogeladenen 8 Liter 16 Zylinder, der 900 kW (1200 PS) auf die Kurbelwelle bringt. Das Auto wiegt 1,9 Tonnen, davon machen Motor plus Getriebe etwa ein Viertel aus. Es ist also möglich, eine Maschine zu bauen, die 900 kW Leistung abliefert und die nur eine halbe Tonne wiegt.

Eine größere Windturbine hat eine „installierte Leistung“ von 6 Megawatt = 6000 Kilowatt. Im Jahresdurchschnitt liefert sie 20 % davon, also 1200 kW; das ist, zugegeben, etwas mehr als der Bugatti Motor leistet, aber was wiegt sie?

Das Fundament aus 1400 Kubikmetern hochfestem Stahlbeton hat 3500 Tonnen. Der Turm besteht aus Schalen, von denen jeweils 3 einen Ring mit 50 m Umfang bilden. 35 solcher Ringe bauen den Turm auf: 130 m hoch und 2800 t schwer. Der Kasten oben drauf, genannt Maschinenhaus, ist 120 t schwer und beherbergt den Generator von 220 t, der durch einen 320 t schweren Rotor angetrieben wird. Gesamtgewicht der Anlage ist – rechnen Sie nach – rund 7000 Tonnen. http://bi-berken.de/resources/Dimensionen+Windkraftanlagen_.pdf

Die Röhre, auf der oben das Maschinenhaus sitzt, bedeckt am Boden eine Fläche von 200 Quadratmetern, darin hätte ein kleinerer Supermarkt Platz.

Dieser Gigant leistet im Durchschnitt nur wenig mehr, als ein Bugatti-Motor, der nur eine halbe Tonne auf die Waage bringt – nicht 7000. Der Bugatti braucht natürlich Sprit, der Vergleich soll nur aufzuzeigen, welches Verhältnis von Leistung zu Masse technologisch möglich ist.

Maschinen, die pro abgegebene Leistung so unglaublich schwer sind, wie das beschriebene Monster, können nicht wirtschaftlich sein. Aber weil sie durch astronomische Summen gefördert werden ist eine wahre Goldgräberstimmung entstanden, und die Ungetüme werden installiert auf Teufel komm raus. Der Goldregen könnte ja versiegen.

 

Von nichts kommt nichts

Warum eigentlich müssen Windturbinen so groß sein? Kann man sie mit moderner Technik vielleicht auf die Ausmaße eines Bugatti schrumpfen? Um zu erklären, warum das nicht geht, dazu brauchen wir etwas Physik.

Die mechanische Leistung, die eine Luftströmung pro Quadratmeter anbietet, ist gleich der Dichte der Luft multipliziert mit ihrer Geschwindigkeit hoch drei. Und das Ganze halbiert.

Hier ein Beispiel:

Falls Sie bei sanfter Fahrt, sagen wir gut 50 km/h, einen Hula-Hoop-Reifen (erinnern Sie sich?) im offenen Cabrio hoch halten, und zwar so, dass der Fahrtwind durch den Ring pustet, dann rauschen da so ungefähr 2 kW durch.

Damit kann man nicht viel anfangen. Nehmen wir den oben beschriebenen Riesen, der bei einem 50 km/h Wind 6000 kW bringen soll. Der muss dem Wind eine Fläche von 3000 Quadratmeter anbieten. Jedes der drei Rotorblätter muss dann ungefähr 30 m lang sein.

Leider können die Flügel aber nicht die gesamte Windenergie ernten, ihr Wirkungsgrad ist bestenfalls 40%. Statt einer Fläche von 3000 m2 brauchen wir also derer 7500 um bei 50 km/h Wind 6000 Kilowatt Strom zu produzieren.

Dafür brauchen wir Flügel, die 50 m lang sind. Zum Vergleich: Die Flügel eines Airbus A380 Superjumbo sind nur 40 m lang. Unsere Windräder müssen leider so groß sein, weil die Luft ein so verdammt dünnes Medium ist (der schwere Airbus wird trotzdem von der dünnen Luft getragen, aber erst ab 300 km/h – und seine vier Turbinen leisten dabei übrigens 330 Megawatt, so viel wie 55 unserer Windräder bei optimalem Wind).

Diese gigantischen Ausmaße werden einmal eine Herausforderung sein, wenn die Windräder nach ihrer nützlichen Lebensdauer von 10 oder 20 Jahren beseitigt werden müssen. 7000 Tonnen Stahl, Beton, Kunstsoff und Kohlefaser werden ein nie dagewesenes Entsorgungsproblem darstellen. Bei rund 30.000 solcher Monster – zwar nicht alle 7000t schwer – kommen da dennoch Hunderte Millionen Tonnen Schrott zusammen; das ist mehr als sämtliche Autos Deutschlands auf die Waage bringen würden! Und hohe Anteile sind Kohlefaser und Plastik. Da müssen wir viele Plastik-Strohhalme einsparen um das wett zu machen. Wie das gehen soll ist noch nicht ganz klar. Es gibt noch kein etabliertes Verfahren, um das Zeug sauber zu recyceln.

 

https://www.bloomberg.com/news/features/2020-02-05/wind-turbine-blades-can-t-be-recycled-so-they-re-piling-up-in-landfills

 

Zu viel oder zu wenig

Zurück zur Leistung der Monster. Das mit der dünnen Luft wäre halb so schlimm, wenn in unserer Formel nicht die Windgeschwindigkeit hoch drei stünde. Die gute Nachricht ist, dass wir bei doppelter Geschwindigkeit immerhin 2 hoch 3 = 8 mal so viel Leistung haben, die schlechte Nachricht ist, dass wir bei halber Geschwindigkeit nur ein Achtel bekommen.

Unser Monster bringt seine „installierte (d.h. maximale, theoretische) Leistung“ bei 50 km/h. Weht der Wind schneller, dann bringt sie auch nicht mehr, denn sie wird „abgeriegelt“, und weht es noch mehr, dann wird sie „abgeschaltet“, damit sie nicht kaputt geht. Das funktioniert leider nicht immer. https://www.youtube.com/watch?v=kjnXpOMu09I

Bei 15 km/h Wind aber, das ist immerhin noch flottes Radfahrerinnen-Tempo, bekämen wir nur noch 160 kW. Eine Maschine, größer als ein Super-Jumbo, bringt dann so viel oder so wenig Leistung wie der Motor eines VW Golf. Soweit jedenfalls die Theorie, in der Praxis würde das Ding vermutlich still stehen.

Falls Sie Segler sind, kennen Sie die Geschichte ja hinlänglich. Entweder dümpelt man tagelang dahin und verbringt die Zeit mit Seemannsgarn bei lauwarmem Bier, oder es kachelt dermaßen, dass man die Segel reffen muss und hoffen, dass unter Deck alle Schubladen dicht sind. Es ist nicht daran zu denken, dass man bei doppelter Windgeschwindigkeit einfach doppelt, geschweige denn achtmal so schnell wäre. Den stetigen Wind, bei dem das Schiff mit seiner Lieblingsgeschwindigkeit durchs Wasser pflügt, den hat man nur alle Jubeljahre.

Einfach ausgedrückt: „Windgeschwindigkeit hoch drei“ bedeutet für die Windgeneratoren, dass man entweder zu viel des Guten bekommt oder gar nichts. Wenn der Wind richtig weht, dann muss man den Strom zu Schleuderpreisen exportieren, manchmal sogar zu „negativen Preisen“. Oder aber es herrscht Schwachwind und man muss den ganzen Stroms aus den herkömmlichen Kraftwerken im In- und Ausland beziehen.

Aus dieser Situation können wir uns auch nicht retten, wenn wir noch mehr Rotoren aufstellen. Die werden bei starkem Wind noch mehr Überschuss produzieren und bei Flaute genauso wenig.

 

Die Kosten / Nutzen Bilanz

Wie viel Strom beschert uns die deutsche Windkraft nun tatsächlich? Da gibt es unterschiedliche Statistiken, und bekanntlich soll man nur derjenigen Glauben schenken, die man selbst gefälscht hat. Das wird schwierig. McKinsey kommt zu folgendem Resultat:

Erneuerbare Energien bedrohen die deutsche Wirtschaft und Energieversorgung.

… Deutschland erzeugt trotz großer Hektik immer noch nur 35% seines Stroms aus erneuerbaren Energien. Und wenn die Biomasse-Verbrennung, die häufig schmutziger ist als Kohle, nicht berücksichtigt wird, entfielen 2018 nur 27% der Stromerzeugung auf Wind-, Wasser- und Solarstrom in Deutschland.

https://www.forbes.com/sites/michaelshellenberger/2019/09/05/renewables-threaten-german-economy-energy-supply-mckinsey-warns-in-new-report/#6fa4222a8e48

Ziehen wir Solar und Wasser davon ab, dann bleiben maximal 20% aus Windkraft.

All die Anstrengungen der Energiewende wurden ja unternommen, um den CO2 Ausstoß zu reduzieren, um das „Klima zu retten“. Ist das gelungen? Keineswegs. Deutschland hat immer noch signifikant höhere pro Kopf Emissionen (11 Tonnen pro Jahr CO2) als Frankreich, England oder Italien (jeweils ca. 7 Tonnen) und liegt 3 Tonnen über dem EU Durchschnitt. https://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/3_abb_thg-emi-eu-vergleich-pro-kopf_2019-09-06.png

Dafür haben wir die höchsten Strompreise und bald die „Smart Meters“, welche dafür sorgen werden, dass wir den Strom nicht dann bekommen, wenn wir ihn brauchen, sondern dann, wenn es den Protagonisten der Energiewende in den Kram passt.

 

Kein Ziel vor Augen, dafür verdoppelte Anstrengung

Es ist verständlich, dass die in Wohlstand geborenen Generationen die deutsche Wirtschaft für „unkaputtbar“ halten. Die Verwundbarkeit der Natur aber wurde ihnen doch Jahrzehnte lang unmissverständlich eingetrichtert. Doch diese heiligen Kühe von damals werden jetzt herdenweise geschlachtet. Die einmalige Landschaft, der vom Tode bedrohte Wald, die Tier- und Pflanzenwelt, der Juchtenkäfer, der große Abendsegler und das braune Langohr, keiner hat mehr Anspruch auf Schutz. Sie alle sind jetzt zum Abschuss freigegeben. Sie werden dem einzigen, allerhöchsten Ziel geopfert, das es noch gibt.

Bei aller Aussichtslosigkeit wird dieser Weg beharrlich verfolgt, und die Tatsache, dass kein anderes Land in die gleiche Richtung geht, steigert nur die eigene Besessenheit. Eine Besessenheit, die keine Fragen zulässt, was der Nutzen ist, die keine Wahrnehmung hat für den Schaden, der angerichtet wird, und die dazu führt, dass man sich selbst und anderen viel Leid zufügt.

Ein einzelner Mensch mit solch einem Verhalten würde als psychologisch auffällig eingestuft. Die abnormale Intensität, mit der ein extrem enger Interessensbereich verfolgt wird und die Blindheit für die Auswirkungen auf das persönliche Wohl und das der anderen sind Merkmale einer krankhaften Entwicklungsstörung. Diese wurde 1944 erstmals von dem Wiener Kinderarzt Hans Asperger beschrieben und 2018 durch Greta Thunberg weltweit populär gemacht.

Betrachtet man die Begeisterung der mehrheitlich schwarz-rot-grünen deutschen Bevölkerung für die Energiewende, dann meine lieben Mitbürgerinnen und Mitbürger, dann drängt sich die Frage auf: seid Ihr vielleicht alle ein bisschen Greta?

 

Der Artikel erschien zuerst in www.think-again.orgund im Buch Grün und Dumm https://think-again.org/product/grun-und-dumm/

 

 

 

 




Die Bedeutungs­losigkeit des Eismassen-Verlustes in Grönland in fünf einfachen Graphiken…

Introduction

Es herrscht ein allgemeiner wissenschaftlicher Konsens, dass der grönländische Eisschild (GrIS) seit der Kleinen Eiszeit (LIA) an Eismasse eingebüßt hat. Dies sollte keine Überraschung sein, war doch die LIA höchstwahrscheinlich die kälteste Klima-Episode im Holozän. Obwohl es inzwischen so aussieht, als hätte der GrIS während der Krise der globalen Abkühlung zur Mitte des vorigen Jahrhunderts an Eismasse zugelegt.

Mouginot et al. (2019) zufolge wuchs der GrIS von 1972 bis 1980 um im Mittel 47 ± 21 Gigatonnen pro Jahr:

  • -51 ± 17 Gt/y von 1980–1990
  • -41 ± 17 Gt/y von 1990–2000
  • -187 ± 17 Gt/y von 2000–2010
  • -286 ± 20 Gt/y von 2010–2018

Der vermeintliche Eisverlust wurde getrieben durch

  • Eine starke Abnahme der Oberflächen-Massenbilanz von 1995 bis 2012
  • Eine Zunahme kalbender Eisberge und anderer Wechselwirkungen mit dem Ozean

Abbildung 1: D = Eisberge und andere Ozean-Wechselwirkungen, SMB = Oberflächen-Massenbilanz (Schnee-Akkumulation minus Abschmelzen), MB = Gesamt-Massenbilanz (Van den Broeke et al. (2017)

Der SMB war so hoch, dass er während der Jahre 2007 und 2012 negativ gewesen sein könnte. Der größte Teil des Eises geht in Gestalt abbrechender Eisberge verloren. Merkwürdig daran ist aber, dass abgesehen von einer Spitze der Eisberg-Aktivität während der 1990er Jahre diese derzeit nicht sehr viel anders aussieht als im Zeitraum 1900 bis 1950.

Internationale Eisberg Zählungen von 1900 bis 2011

Donald L.Murphy

Introduction

In jedem Jahr schätzt die International Ice Patrol (IIP) die Anzahl der Eisberge, die es bis südlich von 48°N schaffen, also bis zu der Breite, in welcher sie eine Bedrohung der Schifffahrt im Nordatlantik darstellen. Der Datensatz (Tabelle 1) beginnt im Jahre 1900, also 12 Jahre vor dem Sinken der Titanic, bis zur Gegenwart.

Aus verschiedenen Gründen sind diese Eisberg-Zählungen kein rigoroser wissenschaftlicher Datensatz und sollten mit großer Vorsicht interpretiert werden. Zum Beispiel konzentrieren sich die Operationen der IIP auf die Eisberge, welche transatlantischen Schifffahrtswegen am nächsten kommen. Nur selten wird aber eine umfassende Übersicht über das Gebiet südlich von 48°N durchgeführt. Außerdem haben sich die Beobachtungsverfahren über die Jahre radikal geändert, nämlich immer dann, wenn neue Technologien zur Erkennung und Verfolgung von Eisbergen verfügbar wurden. Die frühesten Daten zu Beginn des 20. Jahrhunderts stammen von Augenbeobachtungen von Segelschiffen aus, während die jüngsten Informationen durch visuelle und Radarbeobachtungen stammen, durchgeführt von modernen Schiffen, Flugzeugen und Satelliten.

(…)

Diskussion

In den 112 Jahre langen Zählungen der IIP zeigt sich eine erhebliche Variabilität (siehe die Abbildung unten und Tabelle 1 (PDF; öffnet in einem neuen Fenster) und zeigt die mittlere geschätzte Zahl von Eisbergen, die es bis südlich von 48°N geschafft haben. Die höchste Zahl (2202) war im Jahre 1984 aufgetreten, während zwei mal im betrachteten Zeitraum, nämlich 1966 und 2006, kein einziger Eisberg so weit nach Süden vorangekommen war. Fünf mal in der IIP-Historie schaffte es mindestens ein Eisberg so weit nach Süden: 1915, 1919 bis 1921 und 1985. April und Mai sind bei Weitem die Monate mit den meisten Eisbergen, die Schifffahrtsrouten beeinträchtigen.

US Coast Guard Navigation Center

Abbildung 2: Eisberge südlich von 48°N von 1911 bis 2011 (US-Küstenwache)

Es ist mir gelungen, detaillierte Daten zu Eisbergen auf der Website des Snow and Ice Data Center zu finden. Damit habe ich den Plot der Küstenwache bis zum Jahr 2019 verlängert.

Graphik Nummer Eins: Eisberge

Abbildung 3: Anzahl von Eisbergen südlich von 48°N (US-Küstenwache und NSIDC). International Ice Patrol. 1995, updated 2020. International Ice Patrol (IIP) Iceberg Sightings Database, Version 1. [G00807]. Boulder, Colorado USA. NSIDC: National Snow and Ice Data Center. doi: https://doi.org/10.7265/N56Q1V5R. [Accessed 2 Feb 2020].

Während es in den 1990er Jahren eine signifikante Zunahme beim über 5 Jahre gleitenden Mittel gab, ist die Anzahl danach vergleichbar mit dem Zeitraum 1900 bis 1950. Man sollte meinen, dass aus der Anzahl der Eisberge ersichtlich werden sollte, dass Grönland vielleicht wöchentlich Eisberge von der Größe Manhattans verliert und dass angeblich die Schmelzrate seit 1995 um 50% gestiegen ist.

Vielleicht ist es der „beispiellosen“ Erwärmung der Arktis geschuldet, dass die Eisberge schmelzen, bevor sie den 48. Breitengrad erreichen. Nun, in der Arktis gibt es nur wenige langzeitliche „Thermometer“ … Eisbohrkerne aus Grönland. Die Grönland-Temperaturrekonstruktion, oft zitiert von Skeptikern, stammt aus dem GISP2-Bohrkern (Alley 2000).

Abbildung 4: Temperaturrekonstruktion aus Zentral-Grönland (Alley 2000).

Hinsichtlich meines Beitrags zuvor war mir vorgeworfen worden, die Leute mit der darin enthaltenen Graphik in die Irre zu führen:

Zur ersten Graphik: so oft erleben wir, dass die GISP2-Daten falsch etikettiert werden, und das hier ist keine Ausnahme.

Die Datenreihe endet 1855 und NICHT 1950 wie angegeben.

Das wurde auf dieser Site schon so oft klargestellt, seit 2010, dass es kaum zu glauben ist, wenn man sie weiterhin anführt ohne den Hintergrund zu kennen.

Warum führt man die Menschen in die Irre, wenn unser Argument so stark ist?

TheFinalNail

Jedermann, der des Lesens mindestens von Klassenstufe 5 mächtig ist kann erkennen, dass die X-Achse bezeichnet ist mit „Jahre vor heute (1950 AD)“. Jeder mit einem auch nur geringen Wissen um radiometrische Datierung weiß, dass das P in BP das Jahr 1950 ist. Das ist gleichzeitig der Standard für die meisten paläoklimatischen Rekonstruktionen. Solange in einer Studie nicht explizit spezifiziert wird, dass „Gegenwart“ nicht das Jahr 1950 ist, muss man annehmen, dass jenes Jahr gemeint ist. Das früheste Jahr in der Alley-Zeitreihe ist 95 BP oder 1855.

Natürlich lag jenes Jahr im Bereich der LIA, lange bevor Al Gore seine Gorebal Warming erfunden hatte. Glücklicherweise jedoch gibt es ein paar GISP2-Temperatur-Rekonstruktionen, welche bis zum Jahr 1993 reichen (Kobashi et al., 2008, Kobashi et al., 2011 und Kobashi et al., 2017). Anders als Alley, der sich auf den δ18O-Abbau als Paläo-Thermometer stützte, zogen Kobashi et al. „hoch-präzise Analysen von δ15N and δ40Ar in im Eis eingeschlossenen Luftbläschen“ heran …

Die geschätzte mittlere Schnee-Temperatur in Grönland während der letzten 4000 Jahre betrug -30,7°C mit einer Standardabweichung von 1,0°C. Sie weist einen langzeitlichen Rückgang von grob 1,5°C auf, was konsistent ist mit früheren Studien. Die gegenwärtige dekadische Mitteltemperatur (2001 bis 2010) am GISP2-Messpunkt beträgt -29,9°C.

Kobashi et al. (2011)

Der GISP2-Eisbohrkern wurde an der gleichen Stelle gezogen wie die Summit Station in Grönland.

Abbildung 5: Ort von Summit Station und Punkte von Grönland-Eisbohrkernen (Yau et al. 2016)

Kobashi zufolge lag die mittlere Temperatur an der Summit Station während der letzten 4000 Jahre bei -30,7°C. Die mittlere Temperatur seit 2008 lag um -30°C.

Abbildung 6: Stündliche Temperaturen an der Summit Station seit 2008 (NOAA/ESRL).

Graphik Nummer zwei: GISP2-Eisbohrkern

Ich habe die Klima-Rekonstruktion von Kobashi et al. (2017) von der NOAA heruntergeladen und geplottet, um den Zusammenhang mit der jüngsten Klimaänderung im zentralen Grönland zu evaluieren. Technisch könnte dies mit drei Graphiken dargestellt werden … Aber – wer zählt das?

Abbildung 7a: Temperatur-Rekonstruktion nach GISP2 seit dem glazialen Zustand im Younger Dryas

Abbildung 7b: GISP2-Temperatur-Rekonstruktion seit 4000 v. Chr. Klimatische und historische Perioden nach Grosjean et al. (2007)

Abbildung 7c: GISP2-Temperatur-Rekonstruktion seit dem Jahr 1900. Markiert sind die Vorgänge RMS Titanic, Glacier Girl, The Ice Age Cometh? Sowie die Temperaturen an der Summit Station, um die Größenordnung zu erkennen.

Die unausweichliche Schlussfolgerung lautet, dass falls es jemals eine Klima-„Krise“ gegeben hat, diese während der Kleinen Eiszeit aufgetreten war … und es war KNACKIG kalt damals!

Was war das? Das zentrale Grönland ist nicht die Arktis? Na sowas!

Graphik Nummer drei: die Arktis

Also betrachten wir doch einmal die Temperatur-Rekonstruktion der Arktis von McKay & Kaufman (2014).

Abbildung 8a: Klima-Rekonstruktion der Arktis seit dem Jahr 1 (McKay & Kaufman, 2014).

Abbildung 8a: Klima-Rekonstruktion der Arktis seit dem Jahr 1 (McKay & Kaufman, 2014).

Die unausweichliche Schlussfolgerung lautet, dass falls es jemals eine Klima-„Krise“ gegeben hat, diese während der Kleinen Eiszeit aufgetreten war … und es war eisig KALT damals! Und dann noch einmal während der 1970er Jahre!

Aber, aber – was ist mit all den von Satelliten gemessenen Eisverlusten?

Ja – was ist damit?

Drei Jahrzehnte der Änderungen des grönländischen Eisschildes

Gepostet am 14. Juni 2019 von der ESA Greenland Ice Sheet Climate Change Initiative.

In dieser Woche war es zu einem signifikanten Abschmelzen in einem großen Gebiet des grönländischen Eisschildes gekommen. Zum zweiten Mal in diesem Jahr war die Temperatur am höchsten Punkt des Eisschildes auf einer Seehöhe von 3285 Metern über den Gefrierpunkt gestiegen. Dort befindet sich die vom DMI [= der dänische Wetterdienst, Anm. d. Übers.] betriebene Summit Station.

Die hohen Schmelzraten waren wärmeren Luftmassen geschuldet, welche über den Eisschild wehten, und in Kombination mit nur geringen Schneefällen im voran gegangenen Winter kann in diesem Jahr erwartet werden dass ziemlich große Mengen Eises abschmelzen. Ein so großes Schmelz-Ereignis so früh im Jahr ist ungewöhnlich, aber nicht beispiellos, war es doch u. A. im Jahre 2012 zu einem ähnlichen Ereignis gekommen.

Einzel-Schmelzereignisse dieser Art werden gesteuert von lokalen Wetterbedingungen im Nordatlantik, aber wenn man diese über viele Jahre hinweg mittelt, erhält man das lokale Hintergrund-Klima. Wissenschaftler aus ganz Europa haben eine gemeinsame Studie erstellt, in welche Satellitendaten bis zurück zum Jahr 1990 Eingang gefunden hatten. Damit sollte ein vollständiges Bild gegeben werden, wie Klimaänderungen in Grönland sich auf den Eisschild ausgewirkt haben.

Wir zeigen zum Beispiel, dass der Eisschild seit Anfang der 2000er Jahre fast überall dünner geworden ist. Für einen Eisschild im Gleichgewicht mit dem lokalen Klima erwarten wir, in der Mitte eine geringe Zunahme der Höhe der Oberfläche Jahr für Jahr zu sehen sowie eine Abnahme an den Rändern, da in höher gelegenen Regionen mehr Schnee fällt als wieder abschmilzt und es in tieferen Schichten umgekehrt ist. Allerdings zeigen die Wissenschaftler hier, dass der Eisschild inzwischen fast überall dünner wird (blaue Gebiete in der oberen Reihe). „Es ist ziemlich bemerkenswert, derartige Änderungen während der letzten Jahre zu sehen im Vergleich zu Anfang der 1990er Jahre“, sagte Sebastian Simonsen vom DTU.

Polar Portal

Die Leute beim Polar Portal waren so nett, dieses Bild vorzustellen:

Abbildung 9: „Die obere Reihe zeigt Änderungen der Seehöhe des grönländischen Eisschildes, gemessen mit Radar über drei verschiedene Zeitperioden. Danach zogen wir Computermodelle heran, um zu verstehen, was hinter den von uns erkannten Änderungen steckt. Die mittlere Reihe zeigt die Änderungen der Seehöhe, die man einfach aus dem Massen-Budget an der Oberfläche erwarten kann über die gleichen drei Zeiträume (der Unterschied zwischen Schneefall und -schmelze, wie es modelliert vom regionalen Klimamodell HIRHAM5). Die untere Reihe zeigt Änderungen der Seehöhe, berechnet mittels eines Eisschild-Modells (PISM) und daher einschließlich Änderungen der Höhe des Eisschildes durch Eisfluss und Änderungen des Oberflächen-Massenbudgets. Während die Modelle die großmaßstäblichen Änderungen abbilden können, ist dies an einigen Stellen nicht der Fall, darunter auch in den Gebieten mit den größten Änderungen“.

Ich konzentrierte mich auf die obere reihe, also die mit den Änderungen der Seehöhe, weil ich diese Änderungen in einem geologischen Zusammenhang betrachten kann.

Wie verhält sich der jüngste Schmelzvorgang relativ zum übrigen Holozän? Kurze Antwort: „Genauso wie immer!“ Vinther et al. (2009) rekonstruierten die Höhe von vier Stellen über das Holozän, an denen Eisbohrkerne gezogen worden waren. Es gab kaum Höhen-Änderungen an den Stellen im Inneren (NGRIP und GRIP), während an den beiden äußeren Stellen (Camp Century und DYE3) jeweils 546 bzw. 342 m Höhe eingebüßt haben.

Abbildung 10: Das meiste Eis ist seit Beginn des Holozäns an den äußeren Rändern abgeschmolzen sowie an den niedriger gelegenen Teilen des Eisschildes (GrIS) – genauso wie immer. Die X-Achse zeigt die Kalenderjahre. Höhen-Rekonstruktion nach Vinther et al. (2009). Graphik von Weißbach et al. (2015).

Vinthers Höhen-Rekonstruktion überdeckt den Zeitraum von vor 11.700 bis vor 40 Jahren vor dem Jahr 2000. Das letzte Jahr ist also das Jahr 1960.

Auf der Grundlage der Schätzungen der Massenbilanz von Mouginot zeigten sich sehr geringe Gesamtänderungen von 1960 bis 1995, dem Anfangsjahr der Höhenänderungskarten des Polar Portals. Ich habe die Höhenänderungskarten vergrößert und die Stellen der Eisbohrkerne eingetragen.

Abbildung 11a: Höhenänderung von Grönland 1995 bis 1999 sowie 2001 bis 2005 (Polar Portal).

Abbildung 11b: Höhenänderung von Grönland 2007 bis 2011 sowie 2013 bis 2017 (Polar Portal).

Die Skaleneinheiten sind Meter pro Jahr. Man beachte, dass an diesen Stellen kaum Änderungen aufgetreten waren. Nach meinem Augenmaß schätzte ich die jährlichen Höhenänderungen von 1995 bis 2017:

Mittels der 2009 von Vinther gemessenen Höhen berechnete ich die Höhen der vier Stellen von vor 11.700 Jahren bis 2017.

Graphik Nummer vier: „Das Gleiche wie immer…“

Abbildung 12a: Seehöhe von vier Stellen, an denen Eisbohrkerne gezogen worden waren von vor 11.700 Jahren bis zum Jahr 2017

Abbildung 12b: Wie Abb. 12, aber von 1900 bis 2017.

video

„Das Gleiche wie immer…“

Aber, aber, der grönländische Eisschild schrumpft noch immer! Wenn er vollständig schmilzt, wird der Meeresspiegel um 7 Meter steigen!!!

Graphik Nummer fünf: die Isopachen-Graphik*

[*Isopache ist in den Geowissenschaften eine Linie (Isolinie) gleicher Mächtigkeit einer geologischen Schicht in der Kartendarstellung einer Isopachenkarte {Quelle}. Anm. d. Übers.]

Wir Erdöl-Geologen sind besessen von der Berechnung der Volumina von Öl- und Gas-Reservoiren, und wir bringen viel Zeit damit zu, Dinge zu erstellen wie „Isopachenkarten“ und gleitende „Volumetrics“. Zum Glück für mich erstellte Eric Gaba als Wikimedia Commons user: Sting eine Isopachenkarte des grönländischen Eisschildes:

Abbildung 13: Isopachenkarte des grönländischen Eisschildes von Eric Gaba – Wikimedia Commons user: Sting (links) und Höhenänderungskarte des Polar Portals (rechts).

Fast die gesamte derzeitige Verdünnung erfolgt an den äußeren Rändern des Eisschildes („genauso wie es schon immer war“). Ich habe eine hoch aufgelöste Kopie der Isopachenkarte heruntergeladen und die Höhenlinien digitalisiert mittels einer NeuraMap volumetric analysis software. Gebiet und Volumen der Isopachenkarte standen auf einer Linie mit den Schätzungen in der USGS Professional Paper 1386–A, Tabelle 2, Seite A77:

Gebiet: 1.736.095 km²

● Volumen: 2.600.000 km³

Ich definierte die 10-m-Höhenlinie als die Null-Höhenlinie. Das Gebiet der Null-Höhenlinie lag sehr nahe dem USGS-Gebiet.

Das Volumen war etwas größer als die USGS-Schätzung, lag aber immer noch deutlich innerhalb anderer Schätzungen aus jüngerer Zeit. USGS verweist auf eine Referenz aus dem Jahr 1954 für diese Zahl und auch auf Bamber et al. (2011), wo man das Volumen mit 2.900.000 km³ angab. Danach hat Bamber seine Schätzung auf 2.960.000 km³ präzisiert.

Wie man sieht, variieren die Schätzungen des Volumens des grönländischen Eisschildes erheblich, und die Verfahren der volumetrischen Berechnung führt zu einer ziemlich breiten Palette von Ergebnissen … Und trotzdem können moderne Klima-„Wissenschaftler“ jährliche Änderungen der Eismasse von 0,015% ausmachen…

Wer’s glaubt…

Wenn ich die 1000-m-Höhenlinie um 10 m absenke, passiert das hier:

99,93% des grönländischen Eisschildes schmelzen nicht und/oder kalben in den Ozean. Die USGS-Studie stellt fest, dass falls der gesamte Eisschild schmelzen würde, der Meeresspiegel um 6,5 Meter steigen würde. In dem oben beschriebenen und höchst unwahrscheinlichen Szenario würde der Meeresspiegel um atemberaubende 4,8 mm steigen.

6,5 m * 0,07% = 0,00478 m

Was passiert, wenn ich die 1000-m-Höhenlinie um 100 m absenke?

● 6,5 m * 0,18% = 0,0531 m

Das sind etwas über 5 cm Anstieg des Meeresspiegels.

Da haben wir es … Die Bedeutungslosigkeit des Verlustes der grönländischen Eismasse in fünf einfachen Graphiken … und vielen nicht so einfachen Graphiken und Tabellen.

References

Alley, R.B. 2000. “The Younger Dryas cold interval as viewed from central Greenland”. Quaternary Science Reviews 19:213-226.

Alley, R.B.. 2004. “GISP2 Ice Core Temperature and Accumulation Data”.
IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Bamber, J. L., J. A. Griggs, R. T. W. L. Hurkmans, J. A. Dowdeswell, S. P. Gogineni, I. Howat, J. Mouginot, J. Paden, S. Palmer, E. Rignot, and D. Steinhag. “A new bed elevation dataset for Greenland”. The Cryosphere, 7, 499–510, 2013 www.the-cryosphere.net/7/499/2013/ doi:10.5194/tc-7-499-2013.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kobashi, T., J. P. Severinghaus, and K. Kawamura (2008a). “Argon and nitrogen isotopes of trapped air in the GISP2 ice core during the Holocene epoch (0–11,600 B.P.): Methodology and implications for gas loss processes”. Geochim. Cosmochim. Acta. 72, 4675– 4686, doi:10.1016/j.gca.2008.07.006.

Kobashi, T., Kawamura, K., Severinghaus, J. P., Barnola, J.‐M., Nakaegawa, T., Vinther, B. M., Johnsen, S. J., and Box, J. E. (2011). “High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core”. Geophysical Research Letters. 38, L21501, doi:10.1029/2011GL049444.

Kobashi, T., Menviel, L., Jeltsch-Thömmes, A. et al. “Volcanic influence on centennial to millennial Holocene Greenland temperature change”. Scientific Reports 7, 1441 (2017). https://doi.org/10.1038/s41598-017-01451-7

McKay, N., Kaufman, D. “An extended Arctic proxy temperature database for the past 2,000 years”. Scientific Data 1. 140026 (2014). https://doi.org/10.1038/sdata.2014.26

Mouginot, Jeremie, E. Rignot, Anders Bjørk, Michiel Van den Broeke, Romain Millan, Mathieu Morlighem, Brice Noël, Bernd Scheuchl & Michael Wood. (2019). “Forty-six years of Greenland Ice Sheet mass balance from 1972 to 2018”. Proceedings of the National Academy of Sciences. 116. 10.1073/pnas.1904242116.

Van den Broeke, M., Box, J., Fettweis, X. et al. “Greenland Ice Sheet Surface Mass Loss: Recent Developments in Observation and Modeling”. Current Climate Change Reports. (2017) 3: 345. https://doi.org/10.1007/s40641-017-0084-8

Vinther, B.M., S.L. Buchardt, H.B. Clausen, D. Dahl-Jensen, S.J. Johnsen, D.A. Fisher, R.M. Koerner, D. Raynaud, V. Lipenkov, K.K. Andersen, T. Blunier, S.O. Rasmussen, J.P. Steffensen, and A.M. Svensson. (2009). “Holocene thinning of the Greenland ice sheet”. Nature. 461. 385-8. 10.1038/nature08355.

Weißbach, S., A. Wegner, T. Opel, H. Oerter, B. M. Vinther and S. Kipfstuhl. “Spatial and temporal oxygen isotope variability in northern Greenland – implications for a new climate record over the past millennium”. Climate of the Past. 12, 171–188, 2016 www.clim-past.net/12/171/2016/ doi:10.5194/cp-12-171-2016.

Williams, R.S., Jr., and Ferrigno, J.G., eds., 2012. “State of the Earth’s cryosphere at the beginning of the 21st century–Glaciers, global snow cover, floating ice, and permafrost and periglacial environments: U.S. Geological Survey Professional Paper 1386–A”. 546 p. (Also available at https://pubs.usgs.gov/pp/p1386a.) Glaciers.

Yau, Audrey M., Michael L. Bender, Alexander Robinson, Edward J. Brook. “Last interglacial in the GISP2 Greenland ice core”. Proceedings of the National Academy of Sciences. Aug 2016, 113 (35) 9710-9715; DOI: 10.1073/pnas.1524766113

Exhuming the Glacier Girl

RMS Titanic

Link: https://wattsupwiththat.com/2020/02/05/the-irrelevance-of-greenlands-ice-mass-loss-in-five-easy-charts/

Übersetzt von Chris Frey EIKE

 




Bei den Tagesthemen wird der Klimawandel erfühlt: Klima-Wahnsinn sucht nun Antarktis heim

Die “Erderwärmung”, so fabuliert Caren Miosga, sei in der Antarktis “ein mit allen Sinnen wahrnehmbarer Fakt”. Wie man es, bei einer Jahresdurchschnittstemperatur von -16 Grad Celsius schafft, die “Erderwärmung” wahrzunehmen, ist indes kein Geheimnis von Miosga, es ist schlicht und einfach BS (Bullshit, für die des Englischen nicht mächtigen).

Und jetzt freut es uns, dass wir an dieser Stelle einmal nicht selbst tätig werden müssen, um den Unsinn, der Konsumenten der Tagesthemen von den Klimawandlern in die Sinne gehauen wird, zu entkräften. Nein, wir freuen uns einen Text unverändert abdrucken zu können, den uns ein Leser geschickt hat, der sich seinen Frust ob des öffentlich-rechtlichen Bären, der im in naiv-dreister Dummheit aufgebunden werden sollte, von der Seele geschrieben hat.

Hier ist das Ergebnis:

Haltungsjournalismus im öffentlich-rechtlichen Rundfunk: Wie wir belogen werden, wenn’s der vermeintlich guten Sache dient.

Neumayer III Station

Am 10. Dezember 2019 brachten die ”Tagesthemen” in der ARD einen kurzen Bericht über die Arbeit der Forscher in der Neumayer-Station III des Alfred-Wegener-Instituts in der Antarktis.

Die Überschrift lautet ”Neumayer-Station in Antarktis: Deutsche Klimaforschung auf brüchigem Eis” und soll wohl suggerieren, dass das Eis dort schwindet.

Das Gegenteil ist richtig. Auf dem Titelbild ist die Station abgebildet, sie steht auf hydraulischen Stelzen. Auf der Homepage des Instituts erfährt man, damit solle verhindert werden, dass die Station mit der Zeit von der ansteigenden Schnee-Eis-Masse geflutet wird, wie schon ihre beiden Vorgängerstationen.

In der Anmoderation behauptete Caren Miosga, in der Antarktis sei wahrnehmbar, dass die Erderwärmung keine wissenschaftliche Theorie, sondern Fakt sei und der Berichterstatter sich dort auf’s dünner werdende Eis begeben habe. Das ist eine komplette Verdrehung der Tatsachen. Die Station steht mit ihren Stelzen nicht auf dünner, sondern auf dicker werdendem Eis. Auch für die gesamte Antarktis hat die NASA eine Zunahme des Eisvolumens auf der Grundlage von Satellitendaten dokumentiert.

Völlig grotesk wird die Angelegenheit, wenn die Moderatorin behauptet, die Erderwärmung sei ”in der Antarktis ein mit allen Sinnen wahrnehmbarer Fakt”, und dabei auf die Neumayer-Station im Bild hinter ihr deutet. Die Originaldaten der Temperaturaufzeichnungen der drei Neumayer Stationen seit 1981 zeigen dort nämlich eine Abkühlung:
Quelle

Das entspricht auch der Temperaturveränderung in der Gesamt-Antarktis seit Beginn der Satellitenaufzeichnungen im Jahr 1979 (60. bis 85. Breitengrad Süd):

Quelle

Auch hier eine leichte, jedoch statistisch nicht signifikante Abkühlung, jedenfalls alles andere als ein Beweis für eine Erwärmung, die dort angeblich Fakt sei. Sogar das Ozeanwasser rund um die Antarktis kühlt sich leicht ab:

In der Einleitung zu dem Bericht werden über die grotesk fehlerhafte Einführung hinaus noch Erkenntnisse der Neumayer-Forscher angekündigt, die das Faktum des Klimawandels und der dort ”mit allen Sinnen wahrnehmbaren Erderwärmung” angeblich stützen. Danach kommt jedoch nichts dergleichen, es wird lediglich ein Forscher zitiert, der eine Erhöhung des CO2-Gehalts der Atmosphäre auch in der Antarktis gemessen hat. Das ist lächerlich. Konnte man bisher vielleicht davon ausgehen, dass dies dort nicht der Fall sei? Ansonsten bringen die Forscher Zukunftsbedenken vor, aber keinerlei Erkenntnisse, die diese Bedenken etwa anhand der Zustände vor Ort stützen.

Alles in allem erreicht das Filmchen eine neue Stufe der Desinformation durch den Haltungsjournalismus in den öffentlich-rechtlichen Medien. In der Einleitung werden Behauptungen aufgestellt, die in dem nachfolgenden Bericht gar nicht wieder aufgegriffen, geschweige denn belegt werden und sie lassen sich überdies mit ein paar Klicks im Internet bei der Originalquelle widerlegen.

Diese ”fake news” waren leicht zu enttarnen. Man fragt sich, wo wir sonst womöglich noch auf die Irreführungen der Haltungsjournalisten hereinfallen, wenn die Aufdeckung nicht so einfach ist. Gut zu wissen, dass es noch Journalisten gibt, die recherchieren, wenn z.B. Spiegel online in der Rubrik „Wissenschaft“ wieder einmal Unsinn verbreitet. Wie hier aufgegriffen von Alexander Wendt in seinem Online-Magazin „Publico“, ebenfalls am Beispiel Klimawandel.

Wir haben schon des öfteren darauf hingewiesen, dass die Qualität der Beiträge in öffentlich-rechtlichen Anstalten natürlich eine Funktion der Kompetenz derer ist, die an den Beiträgen herumgewurschtelt haben. Dass Journalisten-Darsteller, die die “Erwärmung der Erde” an genau einem Punkt der Erde mit “allen Sinnen” wahrnehmen können wollen (fast so gut wie CO2 sehen), ist ein eindeutiger Indikator dafür, dass das Niveau der Kompetenz in öffentlich-rechtlichen Anstalten doch tatsächlich noch weiter sinken konnte als wir es für möglich gehalten haben. Müssten Journalisten-Darsteller wie Miosga auf einem freien Markt ihre Dienste feilbieten, sie wären vorhersehbar auf Almosen angewiesen. Die Zwangsgebühren retten eine große Anzahl von Inkompetenten davor, Hartz IV beantragen zu müssen.

Der Beitrag erschien zuerst bei ScienceFiles hier

Das der Wahnsinn mit der Antarktis Methode hat und weitergetrieben wird, zeigt auch schon der nächste Beitrag, der wieder bei der ARD erschien.

„Antarktis schmilzt, Wahnsinn grassiert bei der Tagesschau – Fakten gegen Hysterie“






CLINTEL-Manifest wendet sich gegen Klima-Angstmache

CLINTEL ist eine rapide wachsende internationale Gruppe, geführt von prominenten Wissenschaftlern, welche die auf Lügen basierenden Versuche verurteilen, die Menschen zu überhasteten klimapolitischen Maßnahmen zu treiben. Sie wenden sich auch gegen die Terrorisierung von Kindern als Teil des falschen Klima-Alarms. CLINTEL hat kürzlich eine World Climate Declaration veröffentlicht, in welcher die Angstmache verurteilt wird, und dieses Manifest bietet detailliertes wissenschaftliches Hintergrundwissen für eine breite Öffentlichkeit. Autor des Manifestes ist Prof. Guus Berkhout, der Präsident von CLINTEL.

Der Schwerpunkt im Berkhout-Manifest liegt auf der Klima-bezogenen Modellierung, von der es sagt, dass sie „nicht zielführend“ [unfit for purpose] ist. Das Ziel in diesem Zusammenhang ist die Prognose des zukünftigen Klimawandels. Die Modellierung dominiert die Klimawissenschaft und liefert auch die ängstigenden Szenarien, welche ungemein teure und überaus schädliche politische Klimanotstands-Maßnahmen treibt. Dass die Modelle falsch sind ist ein sehr bedeutsames Ergebnis.

Das Manifest führt mindestens vier triftige Gründe an, warum die heutigen Modelle nichts taugen:

Erstens, die Modellierer haben nicht angemessen die vielen Faktoren eingehen lassen, von denen man weiß, dass sie tragende Rollen spielen, allen voran die natürliche Variabilität. Im Wesentlichen gehen alle Modelle schlicht und ergreifend davon aus, dass (fast) der gesamte Klimawandel menschlichen Aktivitäten geschuldet ist – eine völlig unbewiesene Hypothese.

Zweitens, die Prophezeiungen sind bis heute dramatisch zu warm im Vergleich zu tatsächlichen Satellitenmessungen. Es gab während der letzten 20 Jahre kaum eine Erwärmung, und diese scheint auch noch durchweg natürliche Ursachen zu haben. Die Modelle hingegen haben eine dramatische Erwärmung simuliert, die nie eingetreten ist. Nicht das Klima, sondern die Klima-Modellierer sind Quelle und Ursache der Panik.

Drittens, die Modelle berücksichtigen in keiner Weise historische Klimadaten. Es gibt eine immer umfangreicher werdende Liste von Studien, die zu dem Ergebnis kommen, dass die globale Temperatur nicht einmal ansatzweise so sensitiv auf vom Menschen erzeugtes CO2 reagiert wie die Modelle annehmen. Ironischerweise zeigen die jüngsten Modelle eine noch größere Sensitivität als ihre Vorgänger und entfernen sich damit noch weiter von den Beobachtungen. Die Modelle werden immer schlechter, nicht besser.

Auch können diese Modelle Perioden mit Erwärmung bzw. Abkühlung der Vergangenheit nicht erklären, wie etwa die Mittelalterliche Warmzeit MWP und die gerade erst zu Ende gegangene Kleine Eiszeit LIA. Falls wir Klimaänderungen der Vergangenheit nicht erklären können, die ausschließlich durch natürliche Sachen ausgelöst worden waren, können wir auch die Gegenwart nicht verstehen und schon gar nicht in die Zukunft schauen. Hierzu werden noch sehr viel mehr Daten und Forschungen benötigt. Unser Verständnis hinsichtlich der komplexen Natur von Klimawandel ist einfach viel zu unzureichend. Die Klimawissenschaft ist alles andere als settled.

Alle diese krassen Probleme mit den Modellen werden im Berkhout-Manifest gut und umfassend erklärt. Daraus geht hervor, dass man den gegenwärtigen Modellprojektionen einer gefährlichen zukünftigen Erwärmung und daraus resultierenden Naturkatastrophen nicht trauen kann. Sie sollten definitiv nicht als Grundlage dienen für eine viel Schaden anrichtende Klimapolitik in der Welt. Das Manifest bringt es kurz und knapp auf den Punkt: „Hört auf, irreführende Computermodelle heranzuziehen!“

CLINTEL konzentriert sich auch auf Kinder, welche durch den Klima-Alarmismus demoralisiert sind. Junge Menschen sind leicht durch Aktivisten zu beeinflussen, weil sie einfach nicht genug wissen, um sich dagegen wehren zu können. Außerdem werden Klimawandel und Umweltverschmutzung auf hoffnungslose Weise durcheinander geworfen. Um zu erklären, warum es KEINEN Klimanotstand gibt, schließt das Manifest mit einer „Botschaft an unsere Enkelkinder“. Der Kern dieser Botschaft lautet:

„Benehmt euch nicht wie Papageien! Seid kritisch gegen die vielen falschen Propheten, welche versuchen, euch zu missbrauchen und dass ihr euch gegen eure Eltern wendet! Was jene euch sagen ist einseitig und irreführend. Bitte, vertieft euer Wissen um Klima! Wenn ihr das macht, werdet ihr schnell erkennen, dass es KEINERLEI empirische Beweise gibt, die in irgendeiner Form auf eine Klimakrise hindeuten“.

Die Welt-Klima-Deklaration sagt im Grunde, dass die Klimapolitik, durchgeführt im Namen eines falschen Notstandes, nicht nur das globale Wirtschaftssystem auf gefährliche Weise unterminiert, sondern auch das Leben in Ländern gefährdet wird, denen man den Zugang zu zuverlässigem und bezahlbarem Strom verwehrt. Dieses CLINTEL-Manifest bietet die Wissenschaft, die zeigt, dass es keinen solchen Notstand gibt.

CLINTEL sandte jüngst einen Protestbrief an den Weltwirtschaftsgipfel in Davos. Darin findet sich die glasklare Botschaft: „Trotz hitziger politischer Rhetorik drängen wir alle Führer der Welt, die Realität zu akzeptieren, dass es keinen Klimanotstand gibt. Man hat noch viel Zeit, wissenschaftliche Fortschritte zu erreichen und damit unser Verständnis bzgl. Klimawandel weiter zu verbessern. Inzwischen sollten wir uns auf ANPASSUNG konzentrieren – die funktioniert immer, egal bei welchen Anlässen“.

Mehr: https://clintel.org und hier sowie auf diesem Video:

CLINTEL – Declaration to WEF

Autor: David Wojick , Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/01/29/clintel-manifesto-blasts-climate-scaremongering/

Übersetzt von Chris Frey EIKE




Die Pilze von Tschernobyl

Wer etwas nachdenkt, kann diesen Unsinn sofort erkennen: Wurden doch allein zig Tonnen Plutonium bei den Kernwaffentests in die Atmosphäre freigesetzt. Aber dieser Irrglaube hält bis heute an. So ist doch inzwischen das Hauptargument gegen die Kernenergie der böse „Atommüll“, vor dem die Menschheit für Millionen Jahre geschützt werden muß. Genau dieses Scheinargument wird aus der Halbwertszeit von Plutonium – ganz nebenbei, ein willkommener Energiespender, viel zu schade zum verbuddeln – hergeleitet.

Es gibt aber noch einen weiteren Einwand gegen eine übertriebene Strahlenangst. Wäre die Natur so empfindlich, gäbe es uns gar nicht. Radioaktiver Zerfall geht immer nur in eine Richtung. Mit jedem Zerfall, bei dem Strahlung ausgesendet wird, ist dieses Atom unwiederbringlich verschwunden. Deshalb war in grauer Vorzeit die Strahlenbelastung wesentlich höher als heute (z. B. der Anteil an U235 im Natururan und seine Zerfallsketten). Das Leben auf der Erde mußte deshalb von Anbeginn an „Selbstheilungsstrategien“ entwickeln, um sich überhaupt auf eine höhere Stufe entwickeln zu können. Erdgeschichtlich standen am Anfang die Pilze (sie sind weder Pflanzen noch Tiere), die das noch völlig karge Land vor Milliarden Jahren eroberten. Sie konnten lebenswichtige Mineralien gewinnen. Eine Eigenschaft, die sie bis heute auszeichnet. Allerdings wurden dadurch auch radioaktive Stoffe aufgenommen, mit denen sie umgehen mußten.

Pilze und Bakterien

Insofern ist es nicht verwunderlich, daß schon 2008 in dem Trümmerfeld des Reaktors von Tschernobyl Pilze gefunden wurden. Sie siedelten teilweise auf den mit Brennstoffresten verschmutzen Graphitblöcken. Wohlgemerkt, mitten im Atommüll. Man hat schon lange den Verdacht, daß Pilze enorm widerstandsfähig gegenüber ionisierender Strahlung sind. So findet man in den Schichten der frühen Kreidezeit viele melaninhaltige Pilzsporen. In einer erdgeschichtlichen Periode, in der viele Pflanzen- und Tierarten schlagartig verschwunden sind. Man führt dies auf starke kosmische Strahlung durch ein astronomisches Ereignis bzw. einen Nulldurchgang des Erdmagnetfeldes zurück. Es gab auch Überlegungen, Pilze zur Renaturierung stark verseuchter Gebiete einzusetzen, da sie auch radioaktive Stoffe begierig aufnehmen und aus ihrer Umgebung herauslösen.

In einer Studie von Dadachova und Casadevall ergibt sich noch ein ganz anderer Effekt: Alles deutet darauf hin, daß manche Pilze durch ihr Melanin ionisierende Strahlung zur Energieumwandlung nutzen können, analog dem Chlorophyll bei Pflanzen. Die Studien gehen auf Untersuchungen über den Pilz Aspergillus Niger aus dem ≫Evolution Canyon≪ in Israel zurück. Dort hat man auf der Südseite eine 200%-800% höhere Sonneneinstrahlung als auf dessen Nordseite. Folglich ist der Melaningehalt bei den Pilzen auf der Südseite entsprechend höher. Diese Pilze wuchsen bei intensiver UV-Bestrahlung wesentlich besser. Wenn man diese Pilze einer Strahlung aus einer Co60 – Quelle von bis zu 4000 Gy aussetzte, wuchsen sie ebenfalls schneller. Dies deutet daraufhin, daß sie nicht nur nicht geschädigt werden durch so hohe Strahlung, sondern viel mehr diese Strahlungsenergie nutzbringend über ihr Melanin umwandeln können. Inzwischen hat man nicht nur Bakterien und Pilze in der Reaktorruine in Tschernobyl gefunden, sondern auch im Kühlwasser von Reaktoren. Dort sind sie ebenfalls extremer Strahlung ausgesetzt. Bisheriger Spitzenreiter bei den Bakterien ist Deinococcus radiodurans mit einer Todesrate von 10% (letale Dosis, LD10) erst bei einer Dosis von 15000 Gy. Zum Glück ist dies bei Bakterien eine Ausnahme. Üblicherweise setzt man zur Haltbarmachung von Lebensmitteln γ-Strahlen mit einer Dosis von 1000 Gy ein. Escherichia coli Bakterien haben beispielsweise eine LD10 schon bei 700 Gy. Ganz anders sieht es bei melaninhaltigen Pilzen aus. Viele dieser Hefe- oder Schimmelpilze haben eine LD10 erst bei 5000 Gy.

Mit den „Tschernobyl-Pilzen“ wurden weitere, verblüffende Experimente durchgeführt. Sie wurden unterschiedlichen ionisierenden Strahlen durch Quellen aus P32 und Cd109ausgesetzt. Bei all diesen Experimenten konnte festgestellt werden, daß sie bei gerichteten Quellen zumeist bevorzugt in diese Richtungen wuchsen – ähnlich wie Pflanzen, die sich nach dem Licht ausrichten. Harte Strahler (Cs137) wirkten positiver als weiche (Sn121). Pilze, die aus einer stark strahlenden Umgebung stammen, reagierten stärker als Pilze aus unbelasteten Regionen. Man kann also von einer Gewöhnung an die Strahlung ausgehen (“radioadaptive response”).

In und auf der internationalen Raumstation (ISS) gibt es zahlreiche eingeschleppte Pilze. Die kosmische Strahlung ist dort natürlich sehr viel geringer (etwa 0,04 Gy pro Jahr), aber gleichwohl sind Pilze mit höherem Melaningehalt überproportional vertreten. Keinesfalls jedoch, sind sie durch die jahrelange kosmische Strahlung abgetötet worden.

Nutzung durch Melanin

Eine Hypothese geht davon aus, daß das Melanin selbst auf ionisierende Strahlung reagiert und sich anpaßt. Dies würde auch den „Lerneffekt“ durch längere Bestrahlung erklären. Es sind jedenfalls eindeutige Veränderungen nach der Bestrahlung in den ESR (electron spin resonance signal) und HPLC (high performance liquid chromatographie) Meßwerten feststellbar. Dies betrifft z. B. vierfach höhere Werte an NADH (Nicotinamid-Adenin-Dinukleotid-Hydrogen), einem besonders starken Antioxidationsmittel. Ohne hier weiter auf Details einzugehen, kann man festhalten, daß bei einer 500-fachen Strahlendosis gegenüber der Hintergrundstrahlung, bei verschiedenen Pilzen ein wesentlich schnelleres Wachstum mit mehr Kolonien und größerer Trockenmasse eintrat. Stark vereinfacht gesagt, scheint das Melanin ionisierende Strahlung zu nutzen, um CO2 in Biomasse zu verwandeln. Ferner schützt das Melanin die anderen Bauteile einer Zelle vor Strahlenschäden.

Der Kampf mit den Einheiten

Diese Untersuchungen und Erkenntnisse sind für einen Kerntechniker eher ein Randgebiet. Sie sind mit Sicherheit wichtiger für Biologen und Strahlenmediziner. Allerdings kann man sich damit eine gewisse Skepsis gegenüber dem Zahlenkrieg von „Atomkraftgegnern“ bezüglich „Atommüll“ etc. erhalten. Abschließend deshalb noch ein paar Worte zu den Einheiten und den Größenordnungen. Die Einheit Gray [Gy] beschreibt die pro Masse absorbierte Energie. 1 Gy entspricht einem Joule pro kg in SI-Einheiten. Früher verwendete man die Einheit [rad]. Wobei 100 rad einem Gy entsprechen. Eine sehr geringe Menge Energie. Sind doch rund 4200 J nötig, um 1kg Wasser um 1°C zu erwärmen. Will man die biologische Wirksamkeit unterschiedlicher Strahlung erfassen (z. B. Alphateilchen werden mit einem Strahlungs-Wichtungsfaktor von 20 multipliziert), geht man auf die Einheit Sievert [Sv] über. Die Energie von 1J/kg bleibt bei beiden Einheiten gleich. Nun zu einigen Eckwerten: Eine Ganzkörperdosis von 5 Sv führt bei 50% der Menschen innerhalb von 30 Tagen zum Tod (ohne medizinische Versorgung). Beruflich strahlenexponierte Menschen dürfen einer jährliche Dosis von 0,020 Sv ausgesetzt sein. Maximal in einem einzelnen Jahr von 0,050 Sv. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 0,0021 Sv pro Jahr.

In diesem Artikel wurden bewußt alle Ziffern einmal ausgeschrieben und auf die üblichen Dezimalvorsätze verzichtet. Damit soll die in der Natur vorkommende Bandbreite von „Strahlengefahr“ deutlich gemacht werden. Möge dies ein Hinweis sein, warum es in Tschernobyl nicht „Millionen Tote“, ausgestorbene Wälder und eine „Mutanten-Show“ gibt. Ganz im Gegenteil: Die Natur erobert sich bereits sogar die Reaktortrümmer zurück. Die reale Welt hat halt wenig mit der Phantasie – oder sollte man besser dem Wunschdenken sagen – von „Atomkraftgegnern“ gemein.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




„Nukleare Renaissance“ durch neuartige Mini-Reaktoren ?*

Während in Deutschland Ende 2022 die Stromerzeugung durch Kernkraft auslaufen soll, ist trotz der Katastrophe von Fukushima immer öfter von einer „nuklearen Renaissance“ die Rede. Als Hoffnungsträger gilt insbesondere die Generation neuartiger Mini-Reaktoren.

Niedrigere Investitionskosten

Bereits bis Ende dieses Jahrzehnts will der britische Konzern Rolls-Royce plc mit der Auslieferung und dem Betrieb von Mini-Kernkraftwerken beginnen. Der aus dem bekannten Hersteller von Luxuslimousinen hervorgegangene Triebwerkshersteller setzt dabei auf kleine, modular aufgebaute Kraftwerke. Diese sollen in einem Werk produziert und dann per Lastkraftwagen transportiert und vor Ort installiert werden. In einem BBC-Interview erklärte Paul Stein, der Technik-Chef von Rolls-Royce, das Unternehmen habe bereits ein Konsortium zum Bau und zur Installation von Mini-Reaktoren gegründet. Schon bis zum Jahr 2029 sollen in Großbritannien bis zu 15 solcher „Small Nuclear Reactor“-Anlagen an das Netz gehen. Als erste Standorte hat das Unternehmen offenbar ehemalige Nuklearstandorte in Großbritannien im Auge, an denen die notwendige Infrastruktur bereits vorhanden ist. Gegenüber der BBC bezifferte Stein den Weltmarkt für Mini-Kernkraftwerke auf 250 Milliarden Pfund, rund 300 Milliarden Euro.

Kürzere Bauzeit

Zwar bringen es viele der Kernkraftwerke, die in den letzten Jahren gebaut wurden, auf 1300 und mehr Megawatt. Doch nicht nur der britische Technologie-Konzern sieht viel Potenzial in Mini-Atomkraftwerken im Leistungsbereich bis zu 300 Megawatt. Weltweit forschen neben etablierten Nuklearkonzernen wie GE Hitachi Nuclear Energy (GEH) oder Toshiba auch zahlreiche Startup-Unternehmen an modularen Kleinreaktoren. Der Software-Milliardär Bill Gates ist beispielsweise ein Hauptinvestor des Unternehmens TerraPower, das an verschiedenen Varianten von neuartigen Reaktoren forscht. Ziemlich weit ist die russische Staatsholding Rosatom.

Serienherstellung wie am Fließband

Bereits vergangenes Jahr haben die Russen das schwimmende Kernkraftwerk „Akademik Lomonossow“ in Betrieb genommen, das die Stadt Pewek am Nordpolarmeer mit Energie versorgt. Die Grundkonzepte für die Technik der Mini-Reaktoren reichen zum Teil bis in die 1950er Jahre zurück. Auf Wunsch des

US-Militärs wurde damals bereits an miniaturisierten Reaktoren geforscht, die beispielsweise Flugzeuge antreiben sollten. Auch das heutige Russland profitiert von den jahrzehntelangen Erfahrungen, die beim Bau der sowjetischen Atom-U-Boote gewonnen wurden.

Weniger Zerfallswärme

Für die sogenannten Reaktoren der vierten Generation sprechen gleich mehrere Faktoren: Die Investitionskosten für Großkraftwerke liegen im Milliardenbereich, zudem zieht sich der Bau neuer Kernkraftwerke oft über lange Zeiträume hin. Weltweit wird derzeit an rund 50 Reaktorblöcken gebaut. Für einige dieser Anlagen wurde bereits in den 1980er Jahren der Grundstein gelegt. Die neueste Generation der transportablen Minikraftwerke soll dagegen kostengünstig wie am Fließband in Fabriken vorgefertigt werden. Im Unterschied zu den bisherigen Großreaktoren sollen die kleinen Anlagen auch mit viel weniger Personal auskommen. Mit diesen Kostenvorteilen könnte die neue Generation von Kernkraftanlagen insbesondere für Entwicklungs- und Schwellenländer interessant sein.

Lösung des Atommüll-Problems

Die Befürworter der neuen Technik weisen zudem auch auf wichtige technische Vorteile hin. In den Mini-Reaktoren entsteht sehr viel weniger Zerfallswärme als in den herkömmlichen Druckwasser-Reaktoren. Dadurch können störungsarme Passiv-Kühlsysteme eingesetzt werden. Ein Konzept für einen Small Secure Transportable Autonomous Reactor (SSTAR), das im Lawrence Livermore National Laboratory in Kalifornien entwickelt wurde, sieht sogar flüssiges Blei als Kühlmittel vor. Als Kraftwerksstandorte kommen damit auch Wüsten in Frage.

Insbesondere die neuartigen Flüssigsalz- und Laufwellenreaktoren werden inzwischen immer öfter als eine Lösung für das ungelöste Problem der Endlagerung von Atommüll genannt. Diese Reaktoren lassen sich statt mit angereichertem spaltbaren Material nämlich mit Thorium und Atommüll als Brennstoff betreiben. Als Abfallstoffe bleiben relativ kurzlebige Spaltprodukte übrig, die nur noch Hunderte Jahre, aber nicht mehr Jahrtausende gelagert werden müssen. Nach Angaben des US-Unternehmens Terrapower sollen die weltweit gelagerten Bestände an abgereichertem Uran ausreichen, um als Brennstoff in Reaktoren der neuen Generation 80 Prozent der Weltbevölkerung über ein Jahrtausend mit Energie zu versorgen. Zu Grunde gelegt wurde dabei sogar der hohe Energieverbrauch der US-Bürger.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  7. Februar 2020, S.7; EIKE dankt der PAZ-Redaktion sowie dem Autor  Norman Hanert  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.




Die NASA gibt zu, daß der Klimawandel natürlich ist und von der Sonne verursacht wird

www.naturalnews.com/2019-08-30-nasa-admits-climate-change-not-cause

Es war das Jahr 1958, um genau zu sein, als die NASA zum ersten Mal beobachtete, dass Änderungen der Sonnenbahn der Erde und Änderungen der Erdneigung für das verantwortlich sind, was die Klimawissenschaftler heute als „Erwärmung“ (oder „Abkühlung“, je nach ihrer Agenda) bezeichnen. In keiner Weise erwärmt oder kühlt der Mensch den Planeten durch das Fahren von Geländewagen oder das Essen von Rindfleisch, mit anderen Worten.

Im Jahr 2.000 veröffentlichte die NASA auf ihrer Website des Earth Observatory Informationen über die Milankowitsch-Klimatheorie, die zeigen, dass sich der Planet tatsächlich durch äußere Faktoren verändert, die absolut nichts mit menschlichen Aktivitäten zu tun haben. Aber auch diese Informationen sind nach 19 Jahren noch nicht in den Mainstream eingeflossen, weshalb „Klimaschützer“ jetzt behaupten, dass wir wirklich nur noch 18 Monate, oder zwölf Jahre, oder auch 13 Jahre hätten, bevor der Planet an einem Überschuss an Kohlendioxid (CO2) stirbt.

Die Wahrheit entspricht jedoch viel mehr dem, was der serbische Astrophysiker Milutin Milankowitsch, nach dem die Milankowitsch-Klimatheorie benannt ist, darüber vorgeschlagen hat, wie die jahreszeitlichen und breitenmäßigen Schwankungen der Sonnenstrahlung, die die Erde auf unterschiedliche Weise und zu unterschiedlichen Zeiten trifft, den größten Einfluss auf die sich ändernden Klimamuster der Erde haben.

Die folgenden zwei Bilder (von Robert Simmon, NASA GSFC) helfen, dies zu veranschaulichen, wobei das erste Bild die Erde auf einer Umlaufbahn von fast 0 (Exzentrizität*) und das zweite Bild die Erde auf einer Umlaufbahn von 0,07 zeigt. Diese Bahnveränderung wird durch die exzentrische, ovale Form im zweiten Bild dargestellt, die absichtlich übertrieben wurde, um die massive Veränderung des Abstands zwischen Erde und Sonne zu zeigen, je nachdem, ob sie sich im Perihel* oder im Aphel* befindet.

 

 

„Selbst die maximale Exzentrizität der Erdumlaufbahn – 0,07 – wäre bei der Auflösung einer Webseite nicht darstellbar“,

bemerkt die Hal Turner Radio Show.

„Trotzdem ist die Erde bei der aktuellen Exzentrizität von 0,017 im Perihel fünf Millionen Kilometer näher an der Sonne als im Aphel.“

Für weitere verwandte Nachrichten über den Klimawandel und die globale Erwärmung aus einer unabhängigen, nicht etablierten Perspektive, sollten Sie sich unbedingt ClimateScienceNews.com ansehen.

 

Der größte Faktor, der das Erdklima beeinflußt, ist die SONNE.

Was die Schräglage der Erde bzw. die Änderung ihrer axialen Neigung betrifft, so zeigen die beiden folgenden Bilder (Robert Simmon, NASA GSFC), wie stark sich die Erde sowohl um ihre Achse als auch um ihre Rotationsorientierung verschieben kann. Bei den höheren Neigungen werden die Jahreszeiten der Erde viel extremer, während sie bei niedrigeren Neigungen viel milder werden. Ähnlich verhält es sich mit der Erddrehachse, die je nachdem, welche Halbkugel im Perihel auf die Sonne ausgerichtet ist, die jahreszeitlichen Extreme zwischen den beiden Hemisphären stark beeinflussen kann.

Dazu sei erwähnt, daß „Klima“ auf deutsch „Neigung“ bedeutet. Das Wort wurde gewählt, weil die gesamte Tagseite der Erde gleichermaßen von der Sonne bestrahlt wird, die Erwärmung aber ausschließlich vom Eintreff-Winkel, der Neigung der Strahlen in bezug auf die Erdoberfläche, abhängt. Am heißen Äquator ist der Winkel etwa 90%; an den kalten Polen ist er deutlich flacher.

Aus diesen verschiedenen Variablen konnte Milankowitsch ein umfassendes mathematisches Modell entwickeln, das die Oberflächentemperaturen auf der Erde weit in der Zeit zurückrechnen kann, und die Schlussfolgerung ist einfach: Das Klima der Erde hat sich schon immer verändert und befindet sich ohne unser Zutun als Mensch in einem ständigen Wandel.

Als Milankowitsch sein Modell erstmals vorstellte, wurde es fast ein halbes Jahrhundert lang ignoriert. Dann, 1976, bestätigte eine in der Zeitschrift Science veröffentlichte Studie, dass Milankowitschs Theorie in der Tat richtig ist und dass sie verschiedenen Perioden des Klimawandels entspricht, die im Laufe der Geschichte stattgefunden haben.

1982, sechs Jahre nach der Veröffentlichung dieser Studie, nahm der National Research Council der U.S. National Academy of Sciences die Theorie von Milankowitsch als real an und erklärte sie für wahr:

„… orbitale Variationen bleiben der am gründlichsten untersuchte Mechanismus der Klimaveränderung auf Zeitskalen von Zehntausenden von Jahren und sind bei weitem der klarste Fall eines direkten Effekts der wechselnden Sonneneinstrahlung auf die untere Erdatmosphäre.“

Wenn wir das Ganze in einem einfachen Satz zusammenfassen müssten, wäre es so: Der größte Faktor, der das Wetter und die Klimamuster auf der Erde, beeinflusst ist die Sonne, beziehungsweise die Periode der Sonne. Abhängig von der Position der Erde zum Zentralgestirn zu einem bestimmten Zeitpunkt werden die Klimabedingungen dramatisch variieren und sogar drastische Anomalien hervorrufen, die alles, was die Menschen über die Funktionsweise der Erde zu wissen glaubten, herausfordern.

Aber anstatt diese Tatsache zu akzeptieren, bestehen die heutigen Klima-„Wissenschaftler“, zusammen mit linken, und zunehmend auch rechten Politikern, und natürlich den Massenmedien darauf, dass nicht wiederverwendbare Einkaufstüten im Supermarkt und kein Elektrofahrzeug den Planeten so schnell zerstören, dass wir unbedingt globale Klimasteuern als Lösung einführen müssen.

„Die Klimadebatte ist nicht über die Wissenschaft. Es ist ein Versuch, der Bevölkerung politische und wirtschaftliche Kontrollen durch die Elite aufzuzwingen“,

schrieb ein Kommentator bei der Hal Turner Radio Show.

„Und es ist ein anderer Weg, die Bevölkerung gegen sich selbst zu spalten, mit einigen, die an die menschengemachte globale Erwärmung glauben und anderen, die nicht daran glauben, d.h. teilen und erobern.“

Sie können den vollständigen Bericht der Hal Turner Radio Show unter diesem Link lesen.

Der Vollständigkeit halber: Die Gegendarstellung von Correctiv.

*Exzentrizität: von ex-zentern, vom Mittelpunkt abweichend

*Perihel, Aphel: Perihel bezeichnet den sonnennächsten und Aphel (gesprochen Ap’hel) den sonnenfernsten Bahnpunkt.

 

 




Wird die Menschheit jemals eine CO2-Verdoppelung erreichen? Wahrscheinlich nicht

Introduction

Ich habe immer angenommen, dass wir uns auf dem Weg zu einer Verdoppelung der atmosphärischen CO2-Konzentration („2 X CO2“) befinden, wenn nicht sogar zu 3 X CO2 oder 4 X CO2. Schließlich steigen die CO2-Emissionen der Menschheit immer weiter, und selbst wenn diese Zunahme beendet ist, würde dann der atmosphärische CO2-Gehalt nicht noch weiter steigen?

Es stellt sich heraus, dass die Antwort „nein“ lautet.

Die Rate, mit welcher die Natur CO2 aus der Atmosphäre entfernt und was diese Rate steuert, das ist der ganze Unterschied.

Selbst wenn wir genau wüssten, welche zukünftigen CO2-Emissionen die Menschheit freisetzt, wird selten darüber diskutiert oder hinterfragt, wie viel davon Mutter Natur aus der Atmosphäre entfernt. Dies ist die Domäne von Modellen des globalen Kohlenstoff-Kreislaufes, von denen wir kaum einmal etwas hören. Wir hören von der Unwahrscheinlichkeit des RCP8.5-Szenarios (welches sich entwickelt hat von „Business as Usual“ über Worst Case zu unmöglich), wenig dagegen über die Art und Weise, wie jene CO2-Konzentrationen aus den CO2-Emissionsdaten abgeleitet werden können.

Also wollte ich mich dieser Frage annehmen. Welches ist das Best Estimate atmosphärischer CO2-Konzentrationen bis zum Ende dieses Jahrhunderts auf der Grundlage der jüngsten Schätzungen zukünftiger CO2-Emissionen unter Berücksichtigung der Größe des Anteils, welchen die Natur aus der Atmosphäre entfernt?

Da wir immer mehr CO2 freisetzen, steigt auch die Menge des CO2-Entzugs aus der Atmosphäre durch verschiedene biologische und geophysikalische Prozesse. Die Historie der Best Estimates der jährlichen anthropogenen CO2-Emissionen in Kombination mit dem beobachteten CO2-Anstieg am Mauna Loa sagt uns viel darüber, wie schnell die Natur sich an einen gestiegenen CO2-Gehalt anpasst.

Wie wir sehen werden, ist es sehr wahrscheinlich, dass selbst wenn wir weiterhin in großem Umfang CO2 emittieren sich das CO2-Niveau in der Atmosphäre stabilisieren kann.

Die Projektion der EIA einer Zunahme der Energie-basierten CO2-Emissionen um 0,6% pro Jahr nehme ich als Grundlage der Projektion des zukünftigen atmosphärischen CO2-Gehaltes. Ich werde zeigen, wie sich dieses Emissions-Szenario mittels eines einfachen atmosphärischen CO2-Budget-Modells, kalibriert mit den Mauna Loa-Daten auf den Gehalt in der Atmosphäre übertragen lässt. Und wir werden sehen dass die verbleibende Menge von CO2 in der Atmosphäre überraschend gering ist.

Eine Bewertung des CO2-Budget-Modells

Ich habe kürzlich ein einfaches, zeitabhängiges CO2-Budget-Modell der globalen CO2-Konzentration vorgestellt, in welches 1) jährliche anthropogene CO2-Emissionen und 2) die zentrale Annahme (gestützt durch die Mauna Loa-Daten) eingehen, dass die Natur selbst CO2 aus der Atmosphäre entfernt mit einer Rate im direkten Verhältnis dazu, wie hoch der atmosphärische CO2-Gehalt über einem bestimmten natürlichen Niveau liegt, an das sich das System anzupassen versucht.

Wie in meinem früheren Beitrag beschrieben, führte ich auch einen empirischen El Nino/La Nina-Term ein, da El Nino assoziiert ist mit einer höheren CO2-Konzentration und umgekehrt bei La Nina. Dies berücksichtigt die geringen Fluktuationen von Jahr zu Jahr aufgrund der ENSO-Aktivität, hat aber keinen Einfluss auf das langzeitliche Verhalten des Modells.

Das Modell wird initialisiert im Jahre 1750 aufgrund der Schätzungen von Boden et al. (2017) der jährlichen anthropogenenCO2-Emissionen und passt exzellent zu den Mauna Loa-Daten unter der Annahme eines Hintergrund-CO2-Niveaus von 295 ppm und einer natürlichen Rate der Entfernung von 2,33% pro Jahr des atmosphärischen Überschusses jenseits dieser Grundlinie.

Hier folgt das resultierende Fit des Modells zu den Mauna Loa-Daten mit allgemein ausgezeichneten Ergebnissen. (Man glaubt, dass die Reduktion des atmosphärischen CO2-Gehaltes nach dem Pinatubo-Ausbruch einer gesteigerten Photosynthese geschuldet ist infolge einer zunehmenden Diffusion des in Wälder einfallenden Sonnenlichtes wegen der vulkanischen Aerosole):

Abbildung 1: Kalibriertes CO2-Budget-Modell im Vergleich zu den CO2-Messungen am Mauna Loa. Das Modell läuft mit den Schätzungen von Boden et al. (2017) der jährlichen anthropogenen CO2-Emissionen und entfernt den Überschuss des CO2-Gehaltes über einem Grundwert.

Das Modell berücksichtigt sogar den allmählich zunehmenden Trend der offensichtlich jährlichen fraktionalen Entfernung von CO2.

Abbildung 2: Jährlicher Anteil anthropogener Emissionen, der von der Natur offensichtlich aus der Atmosphäre entfernt wird. Rot: Mauna Loa-Messungen, blau: Modellergebnisse.

Modellprojektionen des zukünftigen atmosphärischen CO2-Gehaltes

Ich ließ das Modell mit den folgenden Beiden Annahmen zukünftiger Szenarien laufen:

1) Die EIA-Projektion einer Zunahme der Emissionen um 0,6% pro Jahr bis zum Jahr 2050 und

2) konstante Emissionen nach dem Jahr 2050.

Die resultierende CO2-Konzentration zeigt Abbildung 3 zusammen mit den CO2-Konzentrations-Szenarien RCP2.6, RCP4.5, RCP6.0 und RCP8.5, welche in die CMIP5-Klimamodelle eingehen:

Abbildung 3: CO2-Modellprojektion des atmosphärischen CO2-Gehaltes aufgrund der EIA-Schätzungen der Zunahme von CO2-Emissionen bis zum Jahr 2050, gefolgt von konstanten Emissionen danach.

Interessanterweise kommt das Modell mit diesen ziemlich sinnvollen Annahmen von CO2-Emissionen nicht einmal in die Nähe einer CO2-Verdoppelung in der Luft. Es simuliert eine Gleichgewichts-CO2-Konzentration von 541 ppm im Jahre 2240.

Diskussion

Meiner Erfahrung nach wird der Haupt-Kritikpunkt dieses Modells sein, dass es „zu einfach“ und daher möglicherweise unrichtig ist. Aber ich möchte die Leserschaft auffordern, selbst darüber zu befinden, wie gut das einfache Modell 60 Jahre von CO2-Messungen abbildet (Abbildungen 1 & 2).

Auch möchte ich die falschen Prophezeiungen von vor vielen Jahren in Erinnerung rufen seitens der Modellierer des globalen Kohlenstoff-Kreislaufes, wonach das System Erde mit so viel CO2 in der Luft nicht fertig werden kann und dass der Anteil, der mit der Zeit wieder entfernt wird, abzunehmen beginnt. Wie Abbildung 2 oben zeigt, war das nicht der Fall. Vielleicht, wenn es um Photosynthese geht, erzeugt mehr Leben immer noch mehr Leben, was zu einer allmählich zunehmenden Fähigkeit der Biosphäre führt, überschüssiges CO2 aus der Atmosphäre zu entfernen.

Angesichts der großen Unsicherheiten, wie der globale Kohlenstoff-Kreislauf auf mehr CO2 in der Atmosphäre reagiert, ist es absolut sinnvoll zu hypothetisieren, dass die Rate, mit welcher Ozean und Festland CO2 aus der Atmosphäre entfernen, einfach proportional zur atmosphärischen Konzentration über einer bestimmten Grundlinie ist. Diese einfache Hypothese impliziert nicht notwendigerweise, dass die Prozesse der Kontrolle von CO2-Quellen und -Senken ebenfalls einfach sind, sondern nur, dass die globale Gesamtrate der Entfernung atmosphärischen CO2 in sehr einfacher Form parametrisiert werden kann.

Die Mauna Loa-Daten stützen diese Hypothese eindeutig (Abbildungen 1 & 2). Und das Ergebnis ist, dass auf der Grundlage der jüngsten zukünftigen CO2-Projektionen die zukünftigen Konzentrationen nicht nur deutlich unter dem RCP8.5-Szenario liegen, sondern auch noch unter dem RCP4.5-Szenario, wobei die atmosphärische CO2-Konzentration nicht einmal eine Verdoppelung (560 ppm) des vorindustriellen Niveaus (280 ppm) erreichen wird. Dieses Ergebnis zeigt sich sogar ohne zukünftige Reduktionen von CO2-Emssionen, was möglich ist, wenn neue Technologien verfügbar werden.

Ich denke, dass dies einer Diskussion genauso würdig ist wie die Unmöglichkeit des RCP8.5-Szenarios. Und es erhebt sich die Frage, wie gut die Kohlenstoff-Kreislauf-Modelle wirklich sind.

Link: https://wattsupwiththat.com/2020/02/02/will-humanity-ever-reach-2xco2-possibly-not/

Übersetzt von Chris Frey EIKE




The Solution To Dissolution

Sie beginnt so:

Der steigende Säuregehalt des Pazifiks führt dazu, dass sich die Schalen des Pazifischen Taschenkrebses [Dungeness crab] auflösen.

Die Versauerung macht die Schalen der Larven dieser Krebse verwundbarer gegenüber Raubtieren und limitiert die Effektivität zum Wachstum der Muskeln.

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Sieht aus, als wäre das Ende der Zeiten gekommen, oder? Also möchte ich gleich zu Beginn ein simples Faktum nennen: Der Ozean ist NICHT sauer! Und das wird er auch nie werden, außer vielleicht an ein paar isolierten Stellen. Er ist alkalisch. Das Niveau von sauer/alkalisch wird mit der pH-Skala ausgedrückt. Auf dieser ist 7.0 neutral, 7 bis 14 alkalisch und 0 bis 7 sauer. [Siehe Abbildung 1 ganz oben! Hier noch einmal, weil sie oben nicht vollständig gezeigt wird:]

Aus der Graphik geht ein pH-Wert um 8 der Ozeane hervor (allerdings, wie wir sehen werden, verdeckt das erhebliche Variationen).

Und dem zufolge, was ich in der High School in Chemie über chemische Analyseverfahren gelernt habe weiß ich, dass wenn man einer basischen Lösung etwas Säure hinzufügt – oder auch umgekehrt – das aus einem einfachen Grund „Neutralisierung“ genannt wird, bewegt sich doch die Lösung in Richtung neutral.

Wenn sich Kohlendioxid im Regen- oder Ozeanwasser löst, entsteht eine schwache Säure. Fügt man diese schwache Säure dem Ozean hinzu, wird dieser leicht etwas neutralisiert. Um wie viel? Nun, falls man den Modellen Glauben schenken will, bewegt sich der pH-Wert der Ozeane bis zum Jahr 2100 von derzeit 8 auf etwa 7,92. Mit anderen Worten, eine schwache Neutralisierung.

Warum aber ist dann andauernd von „Ozean-Versauerung“ die Rede und nicht von „Ozean-Neutralisierung“? Traurige Antwort: weil „Versauerung“ viel beängstigender klingt. Das kann man in obigen Ausführungen erkennen, wo es heißt:

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nun, nein! Das kann falscher nicht sein. Der Ozean ist nicht im Geringsten sauer. Er ist lediglich etwas weniger alkalisch. Die Verwendung des Terminus‘ „Versauerung“ anstatt „Neutralisierung“ soll uns davon überzeugen, dass das Unmögliche passiert. Man stelle sich einmal vor, die Aussage oben würde lauten

Der Pazifische Ozean wird so neutralisiert, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nanu? Der Pazifische Ozean wird so neutral, dass sich Dinge aufzulösen beginnen? Wie bitte?

Der Alarmismus dreht durch.

Und noch etwas ist wichtig hinsichtlich des pH-Wertes. Lebewesen kommen mit sauren Substanzen wesentlich besser zurecht als es bei uns mit alkalischen Substanzen der Fall ist. Man betrachte noch einmal Abbildung 1 oben. Wir konsumieren regelmäßig ziemlich saure Sachen. Weintrauben und Orangensaft hat einen pH-Wert von etwa 3. Zitronensaft hat einen pH-Wert von zwei, sehr sauer, fünf pH-Einheiten unter neutral. Und bei sechs Einheiten unter neutral mit einem pH-Wert von nur eins – ist unsere eigene Magensäure.

Aber wir essen nicht viel, das alkalischer ist als ein pH-Wert von etwa 10, wie Kohl, Brokkoli und Artischocken. Und während unsere Mägen einen pH-Wert von 1 mühelos tolerieren, werden wir übel verätzt durch Bleiche am entgegen gesetzten Ende der pH-Skala.

Und jetzt zum erforderlichen Vorbehalt (Disclaimer). Für dieses Thema habe ich ein persönliches Interesse und eine persönliche Leidenschaft. Ich lebe an der Westküste der USA in genau dem Gebiet, um das es hier geht, und ich habe in diesen Gewässern seit Jahren kommerziell geangelt. Daher weiß ich Einiges über lokale ozeanische Ökosysteme.

Damit als Prolog nun zurück zu der Panikmache im Guardian-Artikel. Dieser basiert auf einer wissenschaftlichen Studie mit dem Titel [von Google übersetzt] „Exoskelett-Auflösung mit Mechanorezeptor-Schäden bei der Larve der Dungeness-Krabbe im Zusammenhang mit dem Schweregrad der heutigen vertikalen Gradienten der Ozeanversauerung“ [Link zum Original hier] … die „Ozean-Versauerung“ (OA) schlägt wieder zu. Auszug aus dem Abstract:

Die Ozean-Versauerung (OA) entlang der US-Ostküste intensiviert sich schneller als im globalen Ozean beobachtet. Dies gilt vor allem in küstennahen Regionen (<200 m), die eine geringere Puffer-Kapazität aufweisen und gleichzeitig wichtige Lebensräume für ökologisch und wirtschaftlich bedeutende Arten bieten.

Nun kann ich nirgendwo in der Studie irgendeine Referenz für den Gedanken entdecken, dass die US-Westküste irgendwie schneller versauert als der globale Ozean. Tatsächlich haben wir kaum pH-Daten aus dem globalen Ozean.

Aber ein paar Daten haben wir doch. Eine höchst informative Graphik zeigt einen Ausschnitt des Ozeans von der Oberfläche bis zum Grund und von Hawaii bis nach Alaska. Im Verlauf von 15 Jahren sind Wissenschaftler immer wieder diese Route entlang gefahren, wobei sie periodisch den pH-Wert von der Oberfläche bis zum Grund maßen. Dazu habe ich in meinem Beitrag mit dem Titel „The Electric Oceanic Acid Test“ schon etwas geschrieben. Hier folgt dieser Ozean-Querschnitt mit dessen Original-Bildinschrift:

Abbildung 2. Der Einschub links unten zeigt das Untersuchungsgebiet. Quelle

Nun gibt es hinsichtlich dieser Graphik mehrere faszinierende Phänomene. Das erste ist die große Bandbreite der pH-Werte im Ozean. Wir neigen zu der Annahme, dass der pH-Wert überall in etwa gleich ist, aber nichts könnte weiter von der Wahrheit entfernt sein. Um Hawaii (in der Graphik oben links) beträgt der pH-Wert 8,5. Aber ein paar hundert Meter unter der Oberfläche vor der Küste Alaskas (oben rechts) beträgt dieser Wert 7,25. Dieser pH ist das, was hysterische Wissenschaftler und der Guardian als „SEHR VIEL SAURER“ bezeichnen, aber die richtige Beschreibung wäre „neutraler“.

Und weiter – wo befinden sich die meisten Lebewesen in dieser Graphik? Nun, genau vor der Küste Alaskas, in meinen alten Fischgründen, die angefüllt sind mit Plankton, Heringen, Lachsen, Flundern, Walen und allen Arten maritimer Lebensformen überhaupt. Sie alle florieren in jenen „SEHR VIEL SAUREREN“, d.h. „neutraleren“ Ozeanwassern.

Und schließlich gedeiht Meeresleben unter allen pH-Werten in der Graphik. Es gibt Fische und andere Meereslebewesen bei jedem pH-Niveau und in jedem von der Graphik abgedeckten Gebiet, von oben bis unten und von Hawaii bis nach Alaska. Sie sind nicht gefesselt an einen schmalen Bereich, wo sie sterben werden, wenn sich der pH-Wert auch nur um eine Zehnteleinheit im Verlauf von einhundert Jahren ändert.

Also bitte – können wir uns jetzt nicht einmal von diesem Gedanken verabschieden, wonach eine geringe, allmähliche Neutralisierung jede arme Kreatur im Ozean töten würde? Alkalinität ist ein Problem für Lebewesen im Meer, nicht Versauerung. Darum sind so viele dieser Lebewesen überzogen von einer Schleimschicht – um sich nämlich vor dem alkalischen Seewasser zu schützen.

Aber weiter. Ich habe schon zuvor etwas über pH-Messungen geschrieben, und zwar am Einsaugloch des Rohres zum Monterey Bay Aquarium in einem Beitrag mit dem Titel „A Neutral View of Oceanic pH“. In jenem Beitrag wurde offensichtlich, dass der langfristige pH-Trend an jener Stelle geringer war als an der Tiefwasserstelle vor Hawaii. Hier die Graphik aus jenem Beitrag, welche die Differenz zeigt:

Abbildung 3: Oberfächen-pH-Messungen im offenen Ozean (HOT) und an der Küste der Monterey Bay. Die Hawaii-Daten zeigen sowohl gemessene pH-Werte (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöst in anorganischem Kohlenstoff (DIC), totaler Alkalinität und Salinität. Man erkennt die höheren pH-Werte um Hawaii, die schon in der vorigen Abbildung hervortraten.

Traurigerweise ist die Website mit dem pH-Datensatz aus der Monterey Bay zu irgendeiner unbekannten japanischen Website geworden. Glücklicherweise habe ich die Daten aber gespeichert. Und ich vermochte sogar weitere pH-Daten aufzufinden in eine Zeitreihe direkt nach dem Ende meiner alten Daten. Allerdings scheint die Kalibrierung der pH-Messfühler in dem neuen Datensatz etwas verändert. Ich habe beide Datensätze in einer Graphik erfasst mit separaten linearen Trendverläufen in beiden Datensätzen:

Abbildung 4: 25 Jahre monatlicher mittlerer pH-Messungen an der Einsaugpumpe, wo 9,5 Millionen Liter Meerwasser pro Tag in das Monterey Bay Aquarium strömen. Zwei separate Datensätze wurden betrachtet. Der Einsaugstutzen befindet sich 15 Meter unter der Wasseroberfläche. Die Größenordnung des projizierten pH-Rückgangs bis zum Jahr 2100 unter dem RCP6.0-Szenario ist dargestellt durch die senkrechten Striche in weiß oben rechts.

Der neutrale pH-Wert von 7,0 findet sich unten, unter den Daten. Man beachte, dass der langzeitliche Trend des mittleren pH-Wertes des Wassers in beiden Datensätzen in etwa gleich ist und dass der Trend ziemlich gering ist im Vergleich zu der projizierten leichten Neutralisierung bis zum Jahr 2100.

Und noch wesentlicher: jene projizierte pH-Abnahme von 0,08 pH-Einheiten bis zum Jahr 2100 wird marginalisiert durch den Tagesgang der pH-Werte. Die Standardabweichung der täglichen pH-Änderung beträgt 0,6 Einheiten, diejenige der monatlichen Änderung 0,1 Einheiten.

Warum ändert sich der pH-Wert an der US-Westküste so rasch? Das hat alles zu tun mit aufwallendem Wasser vor der Küste. Wechselnde Winde entlang der Küste sorgen dafür, dass kaltes, CO2-reiches und neutraleres Tiefenwasser in unterschiedlicher Menge an die Oberfläche gelangt, was den pH-Wert buchstäblich sich über Nacht ändern lässt.

Abbildung 5: Die mechanische Auswirkung der Nordwinde entlang der US-Westküste sorgt für aufwallendes Tiefenwasser, reich an CO2-Gehalt und neutraler. Quelle: NOAA

Und dieser sich fortwährend ändernde pH-Wert ist es, der diese Behauptungen über ozeanische Lebewesen, die so furchtbar unter trivial geringen Änderungen des pH-Wertes leiden, total unglaubwürdig erscheinen lässt. Jedes Lebewesen im Ozean entlang dieser Küste erlebt Tag für Tag viel stärkere pH-Änderungen als sie im Verlauf des Jahrhunderts erleben werden.

Es gibt noch einen weiteren Datensatz, den ich hierzu noch hinzufügen muss, bevor ich auf die Studie selbst eingehe. Die Studie selbst befasst sich mit einem Gebiet nahe Seattle. Wie also verhält sich der ozeanische pH-Wert ebendort?

Es stellt sich heraus, dass es sehr schwierig ist, langzeitliche pH-Messungen aus jenem Gebiet zu finden. Die besten, die ich finden konnte, war eine unterbrochene Reihe von Messungen einer Boje vor der Küste von Washington State nahe einer Meerenge – ein wunderschönes Fleckchen unseres Planeten, das ich vor einiger Zeit besucht hatte. Die La Push buoy befindet sich hier:

Abbildung 6: Das gelbe Quadrat kennzeichnet die Stelle der „La Push-Boje. Die Meerenge ist der blaue, landeinwärts gerichtete Kanal. Die Städte Seattle und Tacoma befinden sich am inneren Ende der Meerenge. Vancouver Island in Kanada liegt nördlich derselben.

Es sieht so aus, dass die Boje geborgen wird, wenn das Wetter sehr rauh ist, weil weil es in jedem Winter eine Datenlücke gibt. Hier sind die Daten dieser Boje dargestellt, und zwar mit der gleichen Skala wie die Monterey-Daten oben:

Abbildung 7: Tägliche Aufzeichnungen von der Wasseroberfläche der La Push-Boje vor der Küste von Washington State. Im Hintergrund sieht man eine Insel nahe der Boje.

Und wieder erkennt man die gleiche Situation. Die pH-Änderungen sind viel größer als die projizierte Änderung von heute bis zum Jahr 2100. Und während ich die Trendlinie wegen der vielen Datenlücken nicht überbewerten möchte, ist es gut möglich, dass der Trend tatsächlich etwas alkalischer wird.

Wie kann das sein? Man erinnere sich, die pH-Schwingungen entlang dieser Küste und der mittlere pH-Wert selbst sind keine direkten Funktionen des CO2-Niveaus. Stattdessen werden sie gesteuert durch die unbeständige und mittlere Windstärke. Ist es windiger, wallt mehr neutraleres Tiefenwasser auf und erniedrigen den Oberflächen-pH – und umgekehrt.

Und falls jemand denkt, dass derartige pH-Schwingungen auf diese Küste beschränkt sind, der betrachte einige Daten aus der ganzen Welt:

Abbildung 8: pH-Werte nebst deren Variationen in verschiedenen ozeanische Ökosystemen. Horizontale Strecken (schwarz) zeigen die Bandbreite der pH-Werte. Das Ausmaß der erwarteten leichten Neutralisierung bis zum Jahr 2100 nach dem RCP6.0-Szenario repräsentieren die roten Strecken oben. Die Ischia South Zone, wo die niedrigsten pH-Werte auftreten, liegt neben einem Vulkan, in dessen Umfeld ständig CO2 aus dem Ozeanboden ausgast. Datenquelle

Schließen möchte ich mit einem Blick auf die Studie selbst, zumindest solange ich es ertragen kann. Ich möchte einige Zitate hervorheben. In der ersten Zeile ihrer „Höhepunkte“ liest man:

Küstennahe Habitate mit den steilsten vertikalen Gradienten der Ozean-Versauerung sind dem Zustand der Krebslarven absolut abträglich.

Nun gibt es so etwas wie einen „vertikalen Gradienten der Ozean-Versauerung“ nicht. Es gibt einen vertikalen pH-Gradienten, wie man es auch erwarten kann mit dem Aufwallen von CO2-reichem Tiefenwasser, welches das alkalischere Oberflächenwasser mit weniger CO2 erreicht. Aber dies ist ein natürlicher Umstand, wie er schon immer vorhanden war und nichts mit Ozean-Versauerung OA zu tun hat. Und es werden auch keinerlei Beweise geliefert, welche zeigen, dass sich der Gradient in Zukunft markant ändern wird.

In ihren Conclusions schreiben sie:

Wie die Auflösung bei Pteropoden ist das bei der Dungeness-Krabbe beobachtete Larvensterben ein klarer Beweis dafür, dass wirbellose Meerestiere in ihrer natürlichen Umgebung durch eine längere Exposition gegenüber starken, heutigen OA-bezogenen vertikalen Gradienten geschädigt werden.

[Ausnahmsweise übersetzt mit Linguee-Translator. Anm. d. Übers.]

Allerdings bringen sie auch hier keine Beweise dafür, dass eine „OA“ oder eine milde ozeanische Neutralisierung in der Vergangenheit irgendwelche Auswirkungen auf die „vertikalen Gradienten in der natürlichen Umgebung“ hatten. Die vertikalen pH-Gradienten vor der Küste sind eine Funktion des Aufwallens, was wiederum eine Funktion des Windes ist, der sich permanent ändert. Sie haben keine langzeitlichen Daten für den vertikalen pH-Gradienten. Stattdessen begaben sie sich auf eine zweimonatige Reise, nahmen einige Wasserproben und extrapolierten bis zum Anschlag. Wir wissen nicht einmal, ob sie die genau gleiche „Auflösung“ [dissolution] vor 100, 50 oder 25 Jahren gefunden haben. Oder vielleicht war die Auflösung besonders schlecht während dieses speziellen Zeitraumes von zwei Monaten in diesem speziellen kleinen Gebiet. Das sollte uns nicht überraschen. Ein Grund, warum so viele maritime Lebewesen Hunderttausende Larven hervorbringen ist, dass viele, vielleicht die meisten davon, in feindliche Umgebungen treiben und aus irgendwelchen Gründen sterben – die Liste dieser Gründe ist lang: Probleme mit dem Salzgehalt, Trübung, pH-Wert, Raubtiere, Wassertemperatur und andere.

Und schließlich belegt diese Studie eines – dass nämlich Neptun, der einen Dreizack schwingende Meergott, definitiv einen Sinn für Humor hat. Die ultimative Ironie ist Folgende:

Sie konnten die Teile der Krebslarve gar nicht sehen, welche sie untersuchen wollten, weil jene Teile der Larven von einer Schale umgeben sind. Also mussten sie zunächst diese Schale auflösen, um Zugang zu ihrem Studienobjekt zu erlangen. Sie beschreiben dieses Problem und dessen Lösung so:

Die Schuppen der Schale, welche normalerweise über der kristallinen Schicht liegen und Beobachtungen der Auflösung unmöglich machen, wurden vor der Analyse von jeder Larve entfernt, und zwar mittels Chlorbleichlauge [sodium hypochlorite], welches die Schalen effektiv beseitige, nicht aber die kristallinen Schichten darunter, auch nicht bei hohen Konzentrationen.

Dreimal darf geraten werden, welche Auswirkung die 6%-Lösung der Chlorbleichlauge auf den pH-Wert hat, die sie angewendet haben.

Es hat einen pH-Wert von 11 oder mehr und liegt damit fast ganz oben der Skala in Abbildung 1, ist also sehr stark alkalisch.

Kein Wunder also, dass Neptun in Gelächter ausbricht – sie sind in höchster Alarmbereitschaft hinsichtlich „Versauerung“ und Auswirkungen derselben auf die Auflösung der Larvenschalen … aber sie gebrauchen eine alkalische Lösung, um die Larvenschalen tatsächlich aufzulösen.

Ist Wissenschaft nicht etwas Wunderbares?

Link: https://wattsupwiththat.com/2020/01/31/the-solution-to-dissolution/

Übersetzt von Chris Frey EIKE




Wissenschaftler geteilter Meinung bzgl. der Auswirkungen des solaren Minimums auf die Temperatur

Die Kältewellen – verursacht durch das Eintreten der Sonne in einen natürlichen „Ruhezustand“ – drohen Nahrungsmittel verknappen zu lassen, wenn die Temperaturen weltweit sinken, sagen Experten.

Die Erde steht vor einem solaren Minimum: also vor einer ruhigen Phase, in welcher die Sonne weniger Energie – oder Wärme – auf unseren Planeten abstrahlt als normal. Der NASA zufolge wird die Sonne im Jahre 2020 ihre geringste Aktivität seit 200 Jahren aufweisen.

Dies könnte zu einem Rückgang der mittleren Temperatur um bis zu 1°C führen während einer 12 Monate anhaltenden Kältewelle. Das sagt die Expertin Valentina Zharkova von der Northumbria University. Das mag nach nicht viel klingen, aber ein ganzes Grad ist sehr signifikant hinsichtlich der mittleren globalen Temperatur.

„Die Sonne nähert sich einer Periode des Ruhezustands“, sagte Prof. Zharkova, die schon viele Studien zu solaren Minima veröffentlicht hat. „Weniger Sonnenflecken bilden sich auf der Sonnenoberfläche, und weniger Energie und Strahlung wird Richtung Planeten und die Erde emittiert“.

Solare Minima sind Teil des natürlichen Lebenszyklus‘ der Sonne und kommen alle 11 Jahre vor. Allerdings verspricht das Minimum 2020 ein besonders tiefes zu werden, markiert es doch den Beginn eines seltenen Ereignisses, das bekannt ist unter der Bezeichnung Grand Solar Minimum. Dabei wird noch weniger Energie zur Erde emittiert als sonst. Dazu kommt es nur etwa alle 400 Jahre oder so. Die meisten Auswirkungen werden harmlos sein.

Allerdings, so warnt Prof. Zharkova, könnten Kältewellen und nasse Sommer andauern, bis die Sonnenaktivität ab dem Jahr 2053 allgemein wieder zunimmt. Sie verwies auf jüngste Kältewellen in Kanada und Island als Beleg, dass das GSM bereits erste Auswirkungen zeigt.

„Der Temperaturrückgang wird zu kaltem Wetter auf der Erde führen – nasse und kühle Sommer, kalte und nasse Winter. Wir werden vermutlich Frostperioden des Ausmaßes wie derzeit schon in Kanada erleben, wo die Temperatur bereits jetzt wiederholt bis -50°C gesunken ist. Aber das ist nur der Beginn eines GSM, und während der nächsten 33 Jahre kommt da noch mehr“.

Das letzte GSM mit Auswirkungen auf die Erde war das Maunder-Minimum von 1645 bis 1715. Während dieser Periode sank die Helligkeit der Sonne, und die Temperaturen sanken auf der ganzen Erde, wie die NASA schreibt.

Die NASA-Beobachtungen der Sonnenaktivität zeigen, dass sich unser Planet bis zum Jahr 2025 in den Fängen ähnlicher Kältewellen befinden könnte. Prof. Zharkova: „Wir können nur hoffen, dass die Mini-Eiszeit nicht so schlimm wird wie während des Maunder-Minimums. Dies würde nämlich die Ernteerträge in den Mittleren Breiten dramatisch verringern, weil Gemüse und Obst nicht genug Zeit bleiben könnte, um richtig zu reifen.

Damit kann es zu einem Nahrungsmittel-Defizit für Menschen und Tiere kommen, so wie es während der vergangenen Jahre schon der Fall war, als Schnee in Spanien und Griechenland im April und Mai die Gemüsefelder heimsuchte und es in UK zu einer Verknappung von Gemüse und Obst gekommen war“. Soweit Prof. Zharkova.

Abbildung: Es wird erwartet, dass immer weniger [oder gar keine] Sonnenflecken auf der Oberfläche unseres Sterns erscheinen. Bild: SDO/HMI www.spaceweather.com

Glücklicherweise ist aber nicht alles doom and gloom. Andere Experten glauben, dass GSMs sich kaum auf unser Klima auswirken. Kältewellen wie während des Maunder-Minimums wurden wahrscheinlich durch verschiedene Faktoren ausgelöst, darunter Aschewolken einer Reihe von gewaltigen Vulkanausbrüchen.

„Wir erwarten außerdem, dass die globale Erwärmung die Temperaturen während der kommenden Jahrzehnte steigen lässt. Es ist daher unwahrscheinlich, dass das bevorstehende GSM irgendwelche Auswirkungen auf die globalen Temperaturen hat“, sagt Prof. Owens von der Reading University. „Folglich wird es möglicherweise keine wahrnehmbare Auswirkung auf das globale Klima geben“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/scientists-divided-over-impact-of-solar-minimum-on-global-temperatures/

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers: Der letzte Satz ist recht erhellend. Da CO2 nachgewiesenermaßen überhaupt keinen Einfluss auf das Wetter (Klima) hat oder sogar abkühlend wirkt, kann man die Gegenmeinung also getrost in die Tonne treten. Und was bleibt dann übrig?




Erwärmung = Vergangen­heit kälter machen als sie war

Die re-modellierten Reihen werden dann der Universität und den CSIRO-Klimawissenschaftlern zugeleitet, welche den größten Teil ihrer Klimaforschung auf die Grundlage dieser Statistiken aus ,zweiter Hand‘ stellen.

Wenn also Michael Mann und Konsorten verkünden, dass es immer wärmer wird, dann ist das deren Interpretation der Statistiken von Blair Trewin und nicht eine Interpretation der tatsächlichen Daten. Und wenn ich sage, dass mehr Sorgfalt darauf verwendet werden muss zu betrachten, was Blair mit den tatsächlichen Messungen macht, dann stelle ich einfach eine entsprechende Forderung auf.

Andrew Bolt erklärt in einem Beitrag mit dem Titel „On the deceit of Paul Barry“ [etwa: Über den Betrug von Paul Barry]:

Marohasy sagt nicht, dass das Bureau „Teil einer riesigen Verschwörung“ ist. Vielmehr sagt sie etwas Unbestreitbares: Das Bureau hat wiederholt Daten adjustiert dergestalt, dass die Vergangenheit kälter ausschaut und folglich die nachfolgende Erwärmung stärker.

Der einzige Streitpunkt ist, ob das Bureau dies korrekt getan hat, um die Daten genauer zu machen. Es sagt jawohl, aber Marohasy sagt: keineswegs.

Welche Beweise präsentiert Barry, dass sie unrecht hat? Überhaupt keine. Kein Interesse. Alles, was er hat, ist Spott und ein Appell an seinen Mob.

Danke, Andrew, dass die Lage so kurz und prägnant erklärt wird. Tatsächlich wird keine einzige Adjustierung von Blair in dem Bureau geleugnet.

Um erklären zu helfen, was Blair tatsächlich getan hat, erstellte mein Kollege Jaco Vlok eine Tabelle mit einem Drop-Down-Menü für jede der 112 Wetterstationen, deren Daten re-modelliert worden waren.

Die Adjustierung wird hier offengelegt und erklärt:

Man probiere es einmal aus.

Beispiel: Falls man den Link anklickt und hinunter rollt (112 Stationen sind alphabetisch gelistet) bis nach Wagga und dann zur Spalte Tmax geht, findet man eine Graphik, welche die Rohdaten und daneben die Rekonstruktionen von Blair Trewin zeigt für die betreffende Wetterstation, welche herangezogen wird, um nationale Mittelwerte und die globale Erwärmung zu berechnen.

Eine der Graphiken aus der Drop-Down-Tabelle, erstellt von meinem Freund und Kollegen Jaco Vlok.

Zunächst erzeugte Blair ACORN V1, und zwar schon im Jahre 2011.

ACORN V2 sind die erneut überarbeiteten Daten, um die Rate der Erwärmung weiter zu steigern.

Und jetzt schaue jedermann selbst. Es ist keine Verschwörung und auch keine Trickserei. Aber es kann dauern, bis man es versteht, vor allem dann, wenn es nicht das ist, was man von Angestellten des Bureau erwartet hinsichtlich ihrer Arbeit bzgl. historischer Temperaturdaten.

Link: https://wattsupwiththat.com/2020/02/06/cooling-the-past-made-easy-for-paul-barry/

Übersetzt von Chris Frey EIKE