1

Es gibt kein katastrophales Risiko durch eine vom Menschen verursachte globale Erwärmung. Punkt!

Um richtige politische Maßnahmen zu etablieren, müssen die folgenden Punkte zu menschlichen CO2-Emissionen beachtet werden:

● Der Treibhauseffekt ist für alles Leben auf der Erde unabdingbar. Ohne den Erwärmungseffekt von ~33°C wäre der Planet wirklich ein sehr kalter und unbewohnbarer Ort.

● Der allergrößte Teil des Treibhauseffektes (über 90% bis 95%) wird durch Wasserdampf und Wolken in der Atmosphäre bewirkt.

● Atmosphärisches CO2 ist kein Verschmutzer. Stattdessen ist es die ultimative Voraussetzung für das Leben.

● Die Welt braucht atmosphärisches CO2 für das Überleben und die Düngung der Pflanzen. Daher ist CO2 essentiell für alles Leben auf der Erde.

Bei einer halb so großen atmosphärischen CO2-Konzentration wie derzeit stellen die Pflanzen die Photosynthese ein, und die Welt wird rasch aussterben. Im Vergleich zur geologischen Vergangenheit befindet sich die Welt derzeit in einer Periode der CO2-Verknappung, weil der größte Teil dieses Gases, einst mit einem Vielfachen in der Atmosphäre vertreten zu der Zeit, als die Pflanzen sich zu entwickeln begannen, seitdem in den Ozeanen als Kalkstein abgelagert worden ist.

Die CO2-Konzentration erreichte während der letzten Eiszeit von vor 120.000 bis 11.000 Jahren ein katastrophal niedriges Niveau. Das gefährlich niedrige CO2-Niveau könnte sehr gut in einer kommenden Eiszeit unterschritten werden. Kältere Ozeane absorbieren mehr CO2, und das ozeanische Leben fällt dieses mittels Bildung zu Kalkstein aus. Das ist die Art und Weise, mit der die Welt vielleicht in einer zukünftigen glazialen Periode an CO2-Mangel zugrunde geht.

Höhere CO2-Konzentrationen beflügeln das Pflanzenwachstum auf dem gesamten Planeten und reduzieren den Wasserbedarf der Pflanzen. Der NASA zufolge können etwa 15% der Ergrünung des Planeten schon jetzt der relativ jungen Zunahme der CO2-Konzentration zugeordnet werden.

Die Menschheit als Ganzes trägt nur zu einem Bruchteil zum CO2 im Kohlenstoff-Zyklus bei (etwa 3% pro Jahr), und jedwedes zusätzliche CO2 in der Luft wird sofort von den Ozeanen und der Biosphäre absorbiert (mit einer Halbwertszeit von etwa 5 Jahren).

Falls zusätzliches CO2 einen geringen Erwärmungseffekt hätte, wäre das nur gut. Daher kann atmosphärisches CO2 – sei es nun menschlichen oder natürlichen Ursprungs – unmöglich als ein Verschmutzer gesehen werden. Zur Bedeutung von CO2 siehe auch hier.

Es ist bekannt, dass die Effektivität von CO2 als wärmendes Treibhausgas rapide logarithmisch mit zunehmender Konzentration abnimmt:

Eine Konzentration von atmosphärischem CO2 unter 200 ppmv, äquivalent zu etwa 77% der CO2-Treibhaus-Effektivität, ist absolut und unabdingbar notwendig, um die Pflanzen und damit das Leben auf der Erde zu erhalten. Bei etwa 150 ppmv stirbt das Pflanzenleben aus. Und beim gegenwärtigen Niveau von rund 400 ppmv sind 87% der Effektivität von CO2 als Treibhausgas bereits ausgeschöpft:

Bei einer so geringen Effektivität von CO2 als Treibhausgas gibt es keinerlei Spielraum, dass jemals ein so gefürchteter Temperaturanstieg um 2°C oder darüber überhaupt möglich ist, was unverdrossen aber seitens der Alarmisten prophezeit wird und ausschließlich den menschlichen CO2-Emissionen geschuldet sein soll.

Die Alarmisten betrachten eine Erwärmung um 2°C als katastrophal und haben traurigerweise davon viele Politiker der westlichen Welt überzeugt. Ökonomisch ist das nicht so, und eine Erwärmung bis zu 2°C, so es dazu überhaupt kommt, wäre von Vorteil.

Zunehmende CO2-Konzentrationen in der Atmosphäre können höchstens zu einer sehr begrenzten weiteren Erwärmung führen und mit Sicherheit nicht zu einer katastrophalen oder irgendwie gefährlichen Erwärmung. Die Hypothesen hinter jener Behauptung werden in zwei unterschiedlichen Berechnungen widerlegt:

Unter Annahme einfacher Proportionalität:

● Wasser als Wasserdampf oder als Wolken in der Atmosphäre trägt zu 90 bis 95% zum Treibhauseffekt bei.

● Andere Treibhausgase sind marginal und brauchen nicht berücksichtigt zu werden.

● Der jüngste, den Menschen geschuldete Anstieg auf 300 bis 400 ppmv kann höchstens zwischen 0,41°C und 0,21°C liegen.

Unter der Annahme einer logarithmischen Abnahme:

● 77% des CO2-Treibhauseffektes 0 bis 200 ppmv sind unabdingbar zur Erhaltung des Lebens auf der Erde.

● Unter der Annahme, dass die gesamte Zunahme von 300 ppmv auf 400 ppmv den Menschen geschuldet ist, was 4,2% des Treibhauseffektes ausmacht, ergibt sich eine Erwärmung um 0,14°C bis 0,07°C.

● Der mögliche zukünftige Anstieg der Konzentration von 400 ppmv auf 500 ppmv würde folglich eine Erwärmung zwischen 0,11°C und 0,05°C zur Folge haben.

● Der spätere Anstieg der Konzentration von 500 ppmv auf 1000 ppmv kann höchstens zu einer Erwärmung von 0.33°C bis 0,17°C führen.

● Dies ignoriert die IPCC-Feststellung, wonach nur 50% der CO2-Zunahme auf das Konto der Menschen gehen, was diese Zahlen noch kleiner machen würde.

● Es ignoriert auch die Hypothese in den Klimamodellen, dass es eine massive positive Rückkopplung durch weiter zunehmende CO2-Emissionen geben würde: selbst wenn man das akzeptiert wäre eine weitergehende Erwärmung durch CO2-Emissionen marginal.

Es ist also jetzt sehr wahrscheinlich, dass die Auswirkung steigender CO2-Konzentrationen auf die globale Temperatur selbst bei der höchsten angenommenen Effektivität marginal unbedeutend ist hinsichtlich Erwärmung, aber sehr vorteilhaft in jeder anderen Hinsicht.

Die Versuche der Menschheit, die globale Temperatur zu kontrollieren mittels Begrenzung von CO2-Emissionen als Folge der Verbrennung fossiler Treibstoffe kann höchstens marginale oder unmessbare weitere Auswirkungen haben (hier).

Daher sind sämtliche Bemühungen der Menschheit in der westlichen Welt zur Dekarbonisierung fehlgeleitet, irrelevant und höchst unvernünftig.

——————————————

Dieser Beitrag ist eine per E-Mail eingegangene Zusammenfassung einer umfangreicheren Studie hier.

Übersetzt von Chris Frey EIKE




Noch ein ketzerischer Klima-Artikel: Patrick Frank aus Stanford stellt grundsätzlich Klimamodelle infrage

Und spätestens an dieser Stelle wird man feststellen müssen, dass auch Klimawissenschaftler nur Menschen sind und zutiefst menschlich reagieren. Mit Ablehnung, Verdrängung, Empörung und sogar mit Gegenangriffen. Sie holen ihre „großen Brüder“ zu Hilfe, versuchen sich Mehrheiten zusammenzutrommeln und schrecken manchmal sogar vor Tricksereien, Verleumdung und Betrug nicht zurück.

Dazu kommt das Problem einer sehr knappen Ressource, die im Wissenschaftsbetrieb als Währung gilt und bei der Frage nach Reputation oder Förderung eine immense Rolle spielt: die Veröffentlichung. Dabei handelt es sich aber nicht um Bücher oder Maischberger-Auftritte, sondern um Artikel in anerkannten wissenschaftlichen Journalen, wo man nur dann publizieren kann, wenn die Arbeit einer mehr oder weniger anonymen mehrstufigen Prüfung durch andere Experten auf eben diesem Gebiet standhält. Das hält zwar sicher einigen Unsinn aus den Blättern heraus und hilft, Fehler zu finden, kann sich aber als fast unüberwindbare Hürde erweisen, wenn man davon ausgehen kann, dass ein „Konsens“, gegen den man anschreibt, für ausreichend Vorurteile und Ignoranz sorgt. Stellen Sie sich einfach vor, liebe Leser, Galileo Galilei hätte sein „Paper“ im Vatikan zur Begutachtung vorlegen müssen und fragen Sie sich, ob sich dort eine demokratische Mehrheit von Gelehrten für eine Veröffentlichung ausgesprochen hätte. Die Sonne würde sich wohl immer noch um die Erde drehen.

Video des Vortrages von EIKE Vize Michael Limburg zur großen Unsicherheit die auch Zeitreihen aus historischen Temperaturdaten begleiten müssen. (Mehr Details dazu hier) zur Behandlung seiner Dissertation zum Thema durch die Universität Leipzig hier

Zunächst noch ein paar Worte zu den Wissenschaftsjournalen, die zwar große Namen haben, aber natürlich auch nicht frei sind von wirtschaftlichen Erwägungen und Trends. Gerade, wenn diese politisch verstärkt werden. Wer der scheinbar übermächtigen Einheitsmeinung nur ein paar weitere Krümel Gewissheit hinzufügt, ihr aber insgesamt nicht schadet und dem Trend folgt, hat es leichter. Falls Sie, sagen wir, die verheerende Wirkung von Brausepulver auf das Erdklima untersuchen wollen oder ein weiteres Treibhausgas auf die Anklagebank bringen möchten… das wird sich sicher machen lassen. Rechnen Sie aber nicht mit wohlwollenden Reviews, wenn sie die heiligen Knochen ausbuddeln, die das Fundament eines verfestigten Konsenses sind, um sie auf ihren Calciumgehalt zu prüfen. Man muss sich durch viel Beton durchkämpfen, bis man am Ziel ist und darf bei denjenigen, die sich behagliche Häuser auf dem Fundament gebaut haben, nicht auf große Liebe hoffen.

„Mehr vom Selben” statt „Probier was Neues”

Große Schwierigkeiten bekommt man zum Beispiel, wenn man eine der Säulen des Klimaalarmismus als Baugutachter unter die Lupe nimmt. Also die Rolle von CO2, die Qualität der Klimamodelle, welche als Werkzeuge der Vorhersage und als Alarmglocken dienen oder die Paläo-Messreihen, die aus Eisbohrkernen oder anderen Bohrungen indirekt auf Temperaturen der Vergangenheit schließen. Letzteres führte beispielsweise zu den Auseinandersetzungen rund um Manns Hockeystick-Kurve, von denen ich berichtete.

Warum das so ist, kann man leicht erraten. Denn seit Politiker vor etwas mehr als 100 Jahren begannen, bei Gesundheitsprogrammen auf die Expertise von Medizinern zu vertrauen, hatte noch nie eine so kleine Gruppe von Wissenschaftlern so große Macht über die Politik wie die Klimaforscher heute. Sogar ein bei der UN angesiedeltes Wächtergremium mit enger Agenda haben sie sich geschaffen. Der Weltklimarat, das IPCC, muss man wissen, hat nicht die Aufgabe, den Klimawandel zu untersuchen und Maßnahmen vorzuschlagen – das wäre ja ein Segen. Nein, das IPCC hat die Aufgabe, den menschengemachten Klimawandel zu untersuchen und Maßnahmen vorzuschlagen. Das sperrige Adjektiv macht den Unterschied und gibt die einzige Richtung vor, in die der Blick gehen darf. Raten Sie, was man herausfindet: Der Klimawandel ist menschengemacht. Und zwar ausschließlich! Damit konnte natürlich niemand rechnen…

Flankiert von mit Parolen ausgestatteten Aktivisten, die häufig nicht einmal die elementarsten Zusammenhänge verstehen, exekutiert die Politik die ausgesprochenen Empfehlungen: ruft in Städten den Klimanotstand aus, denkt laut über Klimasteuern nach und bereitet Verbote vor, gibt großzügig Forschungsgelder… Kurz: Man hängt auch als Wissenschaftler tief drin im Aktionismus und dem Umbau der Gesellschaft und ist Stichwortgeber bei einem gigantischen Gesellschaftsexperiment, das nach Meinung aller Ökonomen auch und nach Meinung vieler nur schief gehen kann. Es steht für einen Wissenschaftler also mehr auf dem Spiel als ein paar Drittmittel. Aber Geld schafft Begehrlichkeit, wenn es auf den Tisch gelegt wird und das Paris-Abkommen allein (bei dem jedes teilnehmende Land völlig verschiedene Verpflichtungen auf je einen Zettel schrieb, welche dann zusammengebunden und als Abkommen proklamiert wurden) sorgt dafür, dass es um hunderte Milliarden Dollar und Euro geht.

Die westliche Gesellschaft (und nur diese) hat sich hineinziehen lassen in eine offene wissenschaftliche Debatte und sich dort binnen kurzer Zeit auf jene Seite geschlagen, die ihr den meisten Aktionismus und die umfassendste politische Einflussnahme versprach. Dabei sind die Protagonisten und die Argumente im Wesentlichen dieselben wie vor 30 Jahren, wie man in dieser sehenswerten Channel4-Doku aus dem Jahr 1990 sehen kann. Aber die Zeit lässt sich nicht zurückdrehen, und man kann denjenigen, die schon vor 30 Jahren zu Sachlichkeit und Vernunft rieten, kaum vorwerfen, dass sie nicht deutlich genug vor dem Gedanken-Kollektivismus warnten, in den wir uns heute freiwillig begeben.

Gleichschaltung, Hysterie, Faktenfreiheit

Als ich neulich über einen Zivilprozess wegen Verleumdung berichtete, den einer der bekanntesten Vertreter der Klimaalarmisten gegen einen seiner Kritiker angestrengt hatte und der nun eingestellt wurde, erhielt mein Artikel viel Aufmerksamkeit. Sowohl Skeptiker als auch Alarmisten sahen sich bestätigt und spannen einen Faden weiter, der so im Artikel überhaupt nicht zu finden war. Dr. Mann sei verurteilt worden, das Gericht hätte dem Klimaschwindel ein Ende bereitet, war vielerorts zu lesen.

Nichts davon habe ich geschrieben, weil nichts davon passiert war. Selbst der sonst so besonnene Boris Palmer – sicherlich genervt, weil er von verschiedener Seite meinen Artikel zugeschickt bekam – konnte nicht an sich halten und unterstellte mir Aussagen, die ich nie geschrieben hatte. Auf der anderen Seite schlugen die reflexhaften Verteidiger von Manns Hockeystick-Kurve Purzelbäume, weil sie sich veranlasst sahen, ein Paper aus dem Jahr 1998 zu verteidigen, von dem viele glaubten, es sei nach jahrelangen Kontroversen endlich in Vergessenheit geraten. Nun wurde es wieder ans Licht gezerrt, und die Verteidiger stellten sich schützend vor einen Leichnam, bei dessen Beerdigung sie wohl noch zur Schule gingen.

Da waren Aussagen zu lesen wie „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“, was nochmal einen Zacken mehr falscher Gewissheit enthält als die üblichen Eröffnungszüge solcher Debatten, bei denen man als erstes etwas von 97 Prozent oder 99 Prozent zu hören bekommt – ganz so, als sei die Dimension von DDR-Wahlergebnissen jemals Beleg für Wahrhaftigkeit gewesen.

Wie dem auch sei, den voreiligen Skeptikern sei gesagt, dass die Theorie Manns in Kanada nicht vor Gericht stand, sondern sein Kontrahent Ball in Person und dass Gerichte generell nicht über wissenschaftliche Theorien entscheiden. Noch nicht. Auch wenn wir aktuell nur noch ein Augenzwinkern davon entfernt zu sein scheinen, „Klimaleugnung“ als Straftatbestand zu betrachten. Doch was Gerichte noch unterlassen, exekutieren längst die Aktivisten. In der deutschen Wikipedia werden bereits fleißig Markierungen angebracht, um gute von bösen Wissenschaftlern und Publizisten zu unterscheiden. Weitere mentale Infektionen sind also zu erwarten.

Die menschengemachte Klimawissenschaft

„Sobald der Menschenseele ein neues Dogma eingepflanzt ist, inspiriert es die Institutionen, die Künste und das Verhalten der Menge. Die von ihm über die Seelen geübte Herrschaft ist dann eine absolute. Die Männer der Tat denken nur an dessen Verwirklichung, die Gesetzgeber nur an dessen Anwendung, die Philosophen, Künstler, Schriftsteller beschäftigen sich nur mit dessen Umsetzung in verschiedene Formen.”

(Gustave Le Bon, „Psychologie der Massen”, 1895)

Dass es sich beim „Menschengemachten Klimawandel“ um ein Dogma handelt, wie es Le Bon beschrieb, zeigte sich wieder einmal in Gesprächen, Kommentaren und e‑Mails, die mich nach dem Artikel erreichten. Ich unterschlage hier die Beschimpfungen und „guten Reisewünsche“ und bringe nur dieses, leicht eingedampfte Beispiel:

A: 97% der Wissenschaftler sind sich einig: Der Klimawandel ist menschengemacht. Es muss also stimmen!

Ich: Die Zahl 97% ist ein Mythos, die zugrundeliegende Metastudie von Cook et al. klammerte viele jener Studien aus, die sich nicht festlegten, ob oder ob nicht und wenn ja, wieviel Einfluss der Mensch hat.

A: Ob nun 97 Prozent, 50 Prozent oder 20 Prozent – das ist dem menschengemachten Klimawandel doch egal!

Das heißt, eine unbewiesene Hypothese ist längst ins Fundament eingesickert und dort fest geworden. Unerhört, diese noch infrage zu stellen – man würde den Aktivisten ja ihre liebsten Satzanfänge wegnehmen. Deshalb auch die absolutistische Verteidigung der Mann’schen Hockeystick-Kurve, die sehr wohl im Feuer der Kritik stand und bis heute steht.

Die Sache mit der Genauigkeit

Ich möchte an dieser Stelle nur den Beweis führen, dass die Aussage „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“ schlicht falsch ist, ohne die Diskussion wieder auf das juristische Geplänkel zwischen Mann und Ball zu lenken. Zu nennen ist hier insbesondere die Arbeit von Stephen McIntyre und Ross McKitrick von 2005, in der sie, vereinfacht gesagt, besonders die Temperatur-Messreihen Manns in Zweifel ziehen, die dieser aus den Baumringen amerikanischer Borstenkiefern herleitete und nach Meinung von McIntyre und McKitrick (M&M) die historischen Temperaturwerte als zu niedrig angab. (Wer übrigens wissen möchte, was man mit historischen Messreihen so alles machen kann, dem empfehle ich dieses Video.)

Der Vorwurf von M&M zielte mitten ins Herz der Klimaalarmisten, weil er sich mit einem Feld befasst, dem schon so manche schöne Theorie zum Verhängnis wurde: mangelhaftes Fehlerbewusstsein und Fehlerdiskussion. Die Debatte über die von M&M gefundenen Ungereimtheiten ist hochinteressant und gleicht eher einem spannenden Krimi als der bloßen Kollision zweier wissenschaftlicher Interpretationen. Und sie ist keinesfalls entschieden oder abgeschlossen, auch wenn es heute etwas ruhiger ist an dieser Front, weil sich das Feuer längst auf andere Schauplätze verlagert hat. Die vorlaute Verteidigung, Manns Kurve hätte einhellige Zustimmung erfahren und sei allgemein unumstritten, darf jedoch als widerlegt betrachtet werden.

Während Mann sich auf der Seite der Messreihen in einem alten Krieg befindet, gibt es andere Wissenschaftler, die eher die prognostische Seite der IPCC-gesteuerten Klimaforschung in Zweifel ziehen: die Klimamodelle. Richtige Panik kann nämlich erst aufkommen, wenn man der Menschheit mit schrecklichen Graphen droht, die für die Zukunft nichts Gutes prophezeien. Auch alle politischen Ziele wie die Begrenzung des CO2-Ausstoßes oder das 1,5°-Ziel von Paris gehen aus diesen Prognosewerkzeugen hervor. Vereinfacht gesagt, füttert man die Modelle – und es gibt Dutzende davon – mit Werten für Temperatur und CO2 und ändert die Werte solange, bis die gewünschte Kurve dabei herauskommt. Die Werte erhält die Politik und übersetzt diese in Verbote und Steuern. Wie gesagt, etwas komplizierter ist es schon, aber die zweite (Was soll ich tun?) und dritte (Was darf ich hoffen?) Grundfrage der Vernunft, wie sie Kant formulierte, beantwortet die Klimawissenschaft mit diesen Werkzeugen. Handeln und Glaube sind gesetzt, doch sollten wir die erste Frage „Was kann ich wissen?“ nicht aus dem Auge verlieren. Womit wir wieder bei der Genauigkeit wären und der Frage, was die Klimamodelle wirklich taugen, aus deren Orakeln die Politik Handlungsanweisungen ableitet.

Die Klimawissenschaft als „nackter Kaiser“?

„Nach dem gegenwärtigen Stand der Theorie wird sich ein AGW-Signal (siehe 1., Roger Letsch), falls vorhanden, niemals aus dem Klima-Rauschen hervorheben, egal wie lange die Beobachtungsaufzeichnung dauert, da die Unsicherheitsbreite notwendigerweise viel schneller zunimmt als ein projizierter Trend der Lufttemperatur. Jegliche Auswirkung von Treibhausgasen geht immer innerhalb des Unsicherheitsintervalls verloren. Selbst fortgeschrittene Klimamodelle weisen eine schlechte Energieauflösung und sehr große Projektionsunsicherheiten auf. Die unvermeidliche Schlussfolgerung ist, dass ein Temperatursignal von anthropogenen CO2-Emissionen (falls vorhanden) nicht in Klima-Observablen nachgewiesen werden konnte oder kann.“

Da stellt jemand grundlegend infrage, ob die Klimamodelle – und zwar alle – überhaupt in der Lage seien, die Einflüsse von Treibhausgasen auf das Klima zu zeigen, weil die Mess- oder Regelgröße vollständig im Fehlerrauschen untergehe. Wer ist dieser „Klimaleugner“, dieser Ketzer, der da so frech die Offenbarung der Orakel-Modelle stört?

Sein Name ist Dr. Patrick Frank vom SLAC National Accelerator Laboratory der Stanford University, Menlo Park, Kalifornien und er hat sein Paper „Fehlerausbreitung und Zuverlässigkeit globaler Lufttemperaturprojektionen  gerade eben im Journal „frontiers in Earth Science“ veröffentlicht.

Hier kommentiert er den langen Weg bis zur Veröffentlichung in einem angesehenen Journal – es dauerte sechs Jahre – und legt auch die kompletten Schriftwechsel (ZIP-Datei), Einwände und seltsamen Schummeleien offen, (ich verwende das Wort, ohne hier inkriminieren zu wollen, mir fällt dazu einfach nichts passenderes ein) welche die Veröffentlichung so lange behinderten. Die Einwände waren zum Teil hanebüchen, weil die Reviewer wohl teilweise Franks Mathematik nicht verstanden oder die angefragten Journale sein Paper ausgerechnet an jene zur Durchsicht gaben, die von der Entwicklung der angegriffenen Klimamodelle leben. Diese „peers“ sollten nun also den Daumen über Franks Arbeit heben oder senken. Der Spruch vom Bock und dem Gärtner ist das einzige, was mir zu solchen Possen einfallen will.

„Physikalisch bedeutungslos“

Ich möchte Dr. Frank hier aber nicht zum Galileo Galilei hochschreiben, auch seine Arbeit muss sich Kritikern stellen und das tut sie bereits (logisch, angesichts ihrer Brisanz). Aber das Vorspiel zur Veröffentlichung zeigt, dass eine zum Konsens neigende, voreingenommene wissenschaftliche Community, die alle wesentlichen Forschungen für abgeschlossen und in Stein gemeißelt hält, Gift für die Klimawissenschaft sein kann. Die Frage nach der Erkenntnisfähigkeit in Bezug auf das Klima von übermorgen beantwortet Frank so:

„Meine Arbeit zeigt, dass fortschrittliche Klimamodelle die Lufttemperatur lediglich als lineare Extrapolation des Treibhausgaseffekts projizieren. […] Eine einfache Gleichung, deren Forcierung linear ist, emuliert erfolgreich die Lufttemperaturprojektionen von praktisch jedem Klimamodell. Willis Eschenbach (siehe 2., Roger Letsch) hat das auch vor einiger Zeit ebenfalls untersucht.

Kurz gesagt, Klimamodelle können zukünftige globale Lufttemperaturen nicht vorhersagen. Nicht für ein Jahr und nicht für 100 Jahre. Klimamodell-Lufttemperaturprojektionen sind physikalisch bedeutungslos. Sie sagen überhaupt nichts über die Auswirkungen von CO₂-Emissionen auf die globalen Lufttemperaturen aus.

Die Unsicherheit allein aufgrund des jährlichen durchschnittlichen Modellfehlers beim Wolken-Anteil (siehe 3., Roger Letsch) (± 4 Wm⁻²) ist ungefähr ± 114-mal größer als der jährliche durchschnittliche Anteil des CO₂ (ungefähr 0,035 Wm⁻²). Eine vollständige Bestandsaufnahme von Modellfehlern würde eine enorm größere Unsicherheit erzeugen. Klimamodelle sind somit völlig unfähig, Auswirkungen der geringen Störung durch Treibhausgasemissionen aufzulösen. Die unvermeidliche Schlussfolgerung lautet, dass die Auswirkungen von CO₂-Emissionen auf das Klima in der Vergangenheit oder heute nicht gefunden werden können. Es scheint, dass Exxon (siehe 4., Roger Letsch) „es“ doch nicht wusste. Exxon hätte es nicht wissen können. Auch sonst niemand.“

Einige Panikattacken weiter

Es ist also möglicherweise nicht viel, was wir über das künftige Klima wissen können. Die Ergebnisse, mit denen die Klimamodelle unsere Politiker füttern, enthalten nach Franks Annahme Fehler, die um den Faktor 114 größer sein können als die Resultate. Wenn man aber erklärt, „1“ gemessen zu haben und dabei verschweigt, dass das statistische Rauschen um den Faktor 114 höher war als der Messwert – was genau hat man dann eigentlich „gemessen”? Die Fehlerdiskussion erweist sich also nicht nur bei den Paläo-Messreihen Manns, sondern auch bei den Forecast-Szenarien der Klimamodelle als Achillesferse. Der aktuelle Alarmismus steht also möglicherweise auf sehr dürftigen Argumenten.

Es bleibt also spannend, wenn man die Augen offenhält und vorurteilsfrei die Forschung beobachtet. Aber um ehrlich zu sein, ich erwarte nicht, dass sich die Hysterie legen wird. Nicht wegen einem Gallieo Dr. Frank! Die Zweifler und Häretiker kommen schnell unter die Räder des Zugs mit der Aufschrift „Klimakatastrophe“ oder sind wie A. von weiter oben komplett borniert und ideologisiert. Aber vielleicht kann ja wenigstens jemand Greta sagen, dass sie ruhig mit dem Flieger nach Europa zurückkehren kann? Denn das Klima „kippt“ nicht um und geht auch in zehn Jahren nicht so kaputt, dass es für sie unbenutzbar wird.

Das letzte Wort möchte ich diesmal einem Journalisten überlassen, der über das Dilemma spricht, in dem sich Klimawissenschaft und Politik befinden. Sie werden kaum glauben, aus welcher Zeitschrift das Zitat stammt:

Experten sind demnach im Dilemma: Sie haben kaum eine Chance, den richtigen Rat zu geben. Bleibt die Warnung aus, wird ihnen mangelndes Pflichtbewusstsein vorgeworfen. Eine alarmistische Vorhersage wird jedoch kritisiert, sofern sich nicht wenig später entsprechende Veränderungen zeigen. Die Unsicherheiten der Forschungsergebnisse bleiben in der Klimaforschung wohl auch bei weiterem Fortschritt bestehen. Nun sei die Frage, ob Wissenschaftler und Gesellschaft damit umzugehen lernen […]. Vor allem Politiker müssten lernen, dass es keine einfachen Resultate gibt. Auf Wissenschaftler, die simple Antworten versprechen, sollten Politiker nicht mehr hören.“

Quelle: Spiegel

Ja, sie haben richtig gelesen. Aber der Artikel ist ja auch noch aus dem Jahr 2010, also aus dem Jahr 8 v. H. (vor Hysterie). Heute ist man auch beim Spiegel bereits einige Panikattacken weiter.

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt und auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.

Anmerkungen

1. AGW = Anthropogen Global Warming. Die Abkürzung finden sie in Fachjournalen überall

2. Eschenbach untersuchte das GISSE-Klimamodell wie eine Blackbox, von der man wissen möchte, wie sie funktioniert. Es gilt nämlich das Prinzip der Ergebnisgleichheit. Das heißt, zwei Blackboxen sind gleichwertig, wenn sie bei identischen Eingaben identische Ergebnisse produzieren, ganz gleich, welcher Hokuspokus im Inneren vollführt wird. Eine y=x*8/4 Blackbox ist gleichwertig mit einer y=2x Blackbox. Eschenbach zeigte nun, dass das GISSE-Modell auf simpelsten linearen Gleichungen basiert. Er glaube nicht, dass das Klima so funktioniere, meint Eschenbach.

3. Im Original: „cloud forcing” error, womit im weitesten Sinne die Wirkung von Wolken bei der Reflektion von Infrarotstrahlung bei Ein- und Rückstrahlung gemeint ist. Die Tatsache, dass sich die Wolkenbildung ab-so-lut nicht vorhersagen lässt und deshalb nur als extrem unsichere statistische Größe in jedes Klimamodell eingeht, ist Franks Ansatzpunkt für seine oben erwähnte Arbeit.

4. Gemeint ist eine Untersuchung der Firma Exxon, in der schon 1977 vom Klimawandel und der vermeintlichen Ursache CO2 die Rede war. Diese Studie wird gern als der ultimative Beweis für den anthropogenen Klimawandel und dessen Auslöser CO2 betrachtet, weil er „von der anderen Seite“, also von den Bösen kam. Dass die Studie „geheim gehalten” wurde, bestreitet Exxon (heute Exxon-Mobile).




Über das Vertrauen der Deutschen in ihre Kenntnisse vom Klimawandel

Bevor hier näher darauf eingegangen wird, folgt hier zunächst die Übersetzung des Abstract:

Genauigkeits-Vertrauen – also das Vertrauen, welches die Genauigkeit des Wissens reflektiert – kann bei Entscheidungen in Bereichen mit hohen Unsicherheiten relevant sein. Genauigkeit des Vertrauens ist von besonderer Bedeutung im Bereich Klimawandel, wo wissenschaftlich korrekte Informationen, aber gleichzeitig auch Falschinformationen in Öffentlichkeit und Medien zu finden sind. Hier betrachten wir die Genauigkeit des Vertrauens in das Wissen vom Klimawandel in einer nationalen Stichprobe in Deutschland (n = 509). Die Genauigkeit des Vertrauens der Bürger hinsichtlich ihres Wissens über Klimawandel war nur halb so hoch wie es hätte sein können auf der Grundlage der Genauigkeit ihres Wissens. Außerdem war die Genauigkeit ihres Vertrauens in die Genauigkeit ihres Wissens beim Thema Klimawandel geringer als im Vergleich zu zwei anderen grundlegenden Bereichen: allgemeine wissenschaftliche Kenntnisse in einer anderen Stichprobe unter Deutschen (n = 588) und Wissen um Klimawandel in einer aus Wissenschaftlern bestehenden Stichprobe (n = 207). Obwohl diese Ergebnisse nicht auf die Bevölkerung verallgemeinert werden können, wenn es um alle Indikatoren des Wissens um Klimawandel geht, zeigen diese Ergebnisse, dass das Vertrauen der Bürger in ihr Wissen über Klimawandel unnötig verschwommen ist angesichts ihres tatsächlichen Wissens.

Ende Übersetzung des Abstract.

Oha! Da waren ordentliche Wortkünstler am Werk. Wie wir gleich sehen werden, könnte man die Überschrift ganz anders formulieren: Wie stark hat die Dauer-Propaganda seitens Medien und Politik bereits bei den Deutschen verfangen? Zu diesem Schluss muss man unweigerlich kommen, wenn man sich die gestellten Fragen ansieht, wobei die „richtigen“ Antworten bei der Auswertung gleich mitgeliefert werden. Mit „richtigen“ Antworten sind hier ausschließlich jene gemeint, welche der Propaganda folgen. Die folgende Tabelle aus dem PDF zeigt dies:

Man erspare mir die Übersetzung des Inhalts dieser Tabelle. Ich kann auch nicht sagen, ob die Prozentzahl der „richtigen“, d. h. der Propaganda folgenden Antworten beruhigend oder beunruhigend ist. Nirgendwo in dem gesamten PDF wird auch gesagt, nach welchen Kriterien die Personen in den Stichproben ausgewählt wurden – weder die „Citizens“ noch die „Scientists“. Was für Bürger waren das, wie alt waren sie, aus welchen Bildungsschichten kamen sie, usw. usf. Und aus welchen Fachbereichen kommen die Wissenschaftler?

Vielleicht spielt das auch keine Rolle. Zumindest die Antwort auf einige Fragen ist jedoch in ihrer Masse beunruhigend. Nehmen wir zum Beispiel die Aussage (8): Climate change is mainly caused by a natural variation in sunbeam and volcanic eruption. (False). [Übersetzung der Verdeutlichung halber: Klimawandel wird hauptsächlich verursacht durch natürliche Variationen der Sonnenstrahlung und Vulkanausbrüche (falsch)]. 80% der Bürger und sogar 97% der „Wissenschaftler“ sollen die „richtige“ Antwort „falsch“ gegeben haben. (Mit „sollen gegeben haben“ will ich zum Ausdruck bringen, dass auch diese Zahlen vielleicht getürkt sind – vielleicht aber auch nicht). Folglich kann man die oben gestellte Frage nur so beantworten: Die Propaganda hat sich zu einem erschreckend hohen, wenngleich auch nicht überraschend hohen Ausmaß in den Köpfen der Befragten festgesetzt.

Da es im PDF des Originals ausschließlich um diese „richtigen“ Antworten und nicht um den Wahrheitsgehalt der Aussagen als solche geht, kann man alles weitere darin getrost ignorieren. Das Ganze wird hier auch nur erwähnt, um zu unterstreichen, einen wie weiten Weg die Klima-Realisten noch vor sich haben. Da kann man nur hoffen, dass die immer zahlreicher auftauchenden Studien des Inhalts, dass die Erde auf eine Kaltzeit zusteuert, sich als richtig erweisen.

Hier noch einmal der Link zum PDF in Nature Climate Change: https://doi.org/10.1038/s41558-019-0563-0




Deutschland auf dem Weg zur Blackout Nation: Mit Wind & Solar in das dunkle Mittelalter

Wenn die Erfahrung jedoch Teil des täglichen Lebens wird und / oder die Perioden ohne Strom beginnen, die Arbeit, die Gesundheit und die Sicherheit der Menschen zu beeinträchtigen, bleibt von guter Laune nichts mehr übrig. Der Verlust von Telefondiensten in Notsituationen verschärft diese Situation und bringt mehr Leben in Lebensgefahr. [Das gute alte analog Telefon gibt es zumindest in meiner Gegend nicht mehr. Ohne Router, ohne Strom kein Internet und damit auch kein Voice-over-IPP (telefonieren übers Internet, früher Telefon-Netzknoten mit Ortsbatterie) – der Übersetzer]

Der Verlust von Straßenbeleuchtung und Ampeln macht den abendlichen Pendelverkehr zu einem riskanten Spiel. Dies sind jedoch nur die offensichtlichsten Folgen eines Stromausfalls in einer Stadt, einem Bundesstaat oder einem Land.

Angesichts des raschen Anstiegs der chaotisch zugeführten Wind- und Sonneneinstrahlung wurden die Deutschen gewarnt, dass es immer häufiger zu Stromausfällen kommen wird. In der Tat läutet die deutsche RE-Besessenheit ein neues dunkles Zeitalter ein.

Die Deutschen beschäftigen sich bereits seit einem Jahrzehnt mit dem Chaos, das durch intermittierende Wind- und Sonneneinstrahlung verursacht wird. Daher ist es nicht verwunderlich, dass sie sich bereits genau angesehen haben, was passiert, wenn der Strom ausfällt: Blackout Blueprint: Deutsche Studie enthüllt, was wirklich passiert Wenn die Stromnetze ausfallen

 

Deutsche Agentur für Katastrophenvorsorge ruft die Bürger dazu auf, „für weitreichende Stromausfälle gerüstet zu sein“.
No Tricks Zone, Pierre Gosselin, 7. August 2019

Der Präsident des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (kurz BKK) fordert Bürger, Behörden und Unternehmen auf, sich auf weitreichende Stromausfälle vorzubereiten.

In einem Interview mit der deutschen Tageszeitung Die Welt warnte BBK-Präsident Christoph Unger, dass Deutschland künftig mit höheren Wahrscheinlichkeiten für Naturkatastrophen aufgrund des Klimawandels wie Dürren, Hitzewellen und Überschwemmungen konfrontiert sei. Seine größte Sorge sei jedoch ein Stromausfall.

Nach 24 Stunden ohne Strom hätten wir katastrophale Bedingungen„, sagte Unger zu Die Welt.

Er war besonders besorgt darüber, das die Stromversorgung durch einen Cyberangriff abgeschaltet werden könnte [Welt Beitrag: Verdacht in der Ukraine]. „Wir müssen uns auf ein solches Szenario vorbereiten und uns darauf vorbereiten“.

Instabiles Netz, häufigere Eingriffe

Zwar sei die deutsche Stromversorgung im weltweiten Vergleich relativ stabil und sicher, die Bundesnetzagentur müsse jedoch immer häufiger eingreifen, um Netzschwankungen auszugleichen.

Im Laufe der Jahre hat Deutschland die Einspeisung von Wind- und Solarenergie in sein Stromnetz zunehmend volatiler gestaltet. Dies hat es zunehmend schwieriger gemacht, die Frequenz – bzw. die Einspeisung innerhalb des erforderlichen Bereichs zu halten.

„Angesichts mehrerer Zusammenbrüche“

Zum Beispiel berichtete Radio deutsche Welle, dass im Juni dieses Jahres „das europäische Stromnetz mehrfach zusammengebrochen war“ und wie die Netzfrequenz in Deutschland „mehrfach so stark eingebrochen war, dass das gesamte europäische Stromnetz gefährdet war“. Einige Aluminiumwerke mussten offline genommen werden.

Halten Sie Kerzen und Streichhölzer bereit

Um sich auf Stromausfälle vorzubereiten, erklärte Unger gegenüber Der Welt, dass die Bürger „Kerzen und Streichhölzer“ aufbewahren und immer ein „batteriebetriebenes Radio zur Hand haben sollten, um Nachrichten auch bei Stromausfall empfangen zu können. Auch sollte jeder Haushalt sich mit Lebensmitteln und Trinkwasser [auf Vorrat] versorgen. “

Diesel-Notstromaggregate zur Rettung

Ironischerweise meinte Unger zu Die Welt, dass Regierungsstellen und Unternehmen sich fragen sollten: „Ist genug Dieselkraftstoff vorhanden, um einen Notstromaggregat anzutreiben? Woher kommt der Diesel, wenn der Strom nach zwei Tagen noch nicht zurückgekehrt ist, die Notstromaggregate aber weiterlaufen müssen und Diesel nur mit Elektropumpen aus den Tanklagern gepumpt werden kann?

Ist das die Zukunft der europäischen Stromversorgung? Bürger, die Streichhölzer, Kerzen und batteriebetriebene Funkgeräte verwenden, um Stromausfälle zu überbrücken, und Unternehmen und Regierungsbehörden, die auf Notstrom-Dieselgeneratoren angewiesen sind? Klingt nach den 1950ern.

No Tricks Zone

Gefunden über Stopthesethings vom 06.09.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/09/06/new-dark-ages-obsession-with-intermittent-wind-solar-renders-germany-the-blackout-nation/




Google diskriminiert Konservative und Klima-Skeptiker

Die Algorithmen bevorzugen eindeutig linke Inhalte, wenn Suchergebnisse gezeigt werden. Allgemein gesagt, ordnen und präsentieren sie Suchergebnisse auf der Grundlage so genannter „autoritativer Quellen“. Das Problem dabei ist, dass diese Quellen zumeist „Mainstream“-Medien sind, welche fast ausschließlich links stehen.

Die Algorithmus-Definition von „autoritativ“ seitens Google macht Linke zur Stimme der Kompetenz. Größer ist besser, und die Linken haben nun einmal die meisten und größten Nachrichten-Portale. Die Algorithmen sind sehr komplex, aber der zugrunde liegende Gedanke ist, je mehr Websites gezeigt werden, umso größer die Kompetenz.

Das ist so, als ob man sagt, eine Zeitung mit mehr Abonnenten ist vertrauenswürdiger als eine solche mit weniger Abonnenten. Das ist tatsächlich ohne Sinn, aber so behandelt Google Nachrichten und andere Domains. Popularität ist nicht Kompetenz, aber der Algorithmus ist so programmiert, dass er es auf diese Weise sieht.

Dies erklärt, warum die erste Seite mit Suchergebnissen nach Eilmeldungen fast immer Links von linken Portalen zeigt. Es gibt absolut kein Gleichgewicht mit konservativen Nachrichten-Quellen. Angesichts des Umstands, dass etwa die Hälfte aller Amerikaner Konservative sind, ist der Nachrichten-Bias von Google wahrhaft verwerflich.

Im politischen Bereich, der unsere Energieversorgung, die Wirtschaft, Arbeitsplätze, die nationale Sicherheit, Lebensstandards und andere entscheidende Dinge beeinflusst, ist die Unterdrückung alternativer oder skeptischer Stimmen, Beweise und Perspektiven sehr gefährlich für die USA und die ganze Welt.

Im vorigen Jahr dokumentierte ich einen extremen Fall dieses Bias‘ in der Arena des Alarmismus‘ bzgl. der „gefährlichen, vom Menschen verursachten globalen Erwärmung“. Meine individuellen Nachforschungen zu prominenten Skeptikern alarmistischer Behauptungen enthüllten, dass die „autoritative Quelle“ von Google eine obskure Website mit der Bezeichnung DeSmogBlog war. Diese Website ist berühmt dafür, hässliche negative Dossiers über Skeptiker anzulegen, darunter über mich selbst sowie über viele meiner Kollegen (link).

Bei jeder Suchanfrage passieren sofort mehrere Dinge gleichzeitig. Erstens zeigt Google sofort den Link zu dem Dossier über den entsprechenden Skeptiker auf dem DeSmogBlog, obwohl dieses vielleicht schon Jahrzehnte alt und/oder höchst ungenau ist. Tatsächlich war dies mehr als einmal das erste Suchergebnis. Zweitens, etwa die Hälfte aller Ergebnisse waren negative Attacken – was nicht überraschend kommt, attackiert doch die linke Presse oftmals uns Skeptiker.

Drittens, Skeptiker werden oft als „von Big Oil finanziert“ gebrandmarkt, während die Finanzierung der Alarmisten durch eigensüchtige Regierungs-Agenturen, Unternehmen erneuerbarer Energie, linksextreme Stiftungen oder Tom Steyer (welcher mit der Finanzierung von Kohleminen in Asien zum Milliardär geworden ist) allgemein ignoriert wird.

In krassem Gegensatz dazu ergibt die Suche nach Informationen über prominente Klima-Alarmisten nichts als Lobhudeleien. Auch das ist keine Überraschung, lieben doch die linken „autoritativen“ Quellen die Alarmisten.

Dieser Algorithmus-Bias gegen Skeptiker ist Atem beraubend – und er wirkt bis in die Debatte um den Klimawandel selbst hinein. Suchergebnisse zu fast allen Themen bzgl. Klima sind von alarmistischen Inhalten dominiert.

Tatsächlich scheint dem Klimawandel besondere algorithmische Aufmerksamkeit zuteil zu werden. Die Sonder-Kategorie von Klima-Websites bei Google, hyperbolisch „Ihr Geld oder Ihr Leben“ genannt, erfordert sogar noch stärkere „autoritative“ Kontrollen der Suchen. Egal wie gut sie begründet sind – Artikel,welche die Dominanz menschlicher Faktoren bzgl. des Klimawandels, die fast apokalyptischen Auswirkungen des prophezeiten Klimawandels oder den Wert und die Validität von Klimamodellen in Frage stellen, werden fortwährend von den Google-Algorithmen ignoriert.

Die Algorithmen ignorieren auch die Tatsache, dass unsere Arbeitsplätze, die Wirtschaft, unser finanzielles Wohlergehen, unser Lebensstandard und die Reisefreiheit sowie die Freiheit, unsere Wohnungen zu heizen oder zu kühlen, ernsthaft und negativ beeinträchtigt werden durch Energie-Gesetzgebungen, die im Namen der Verhinderung eines kataklysmischen, vom Menschen verursachten Klimawandels gerechtfertigt werden. Der monumentale Bedarf an Bergbau und Rohstoffen für Windturbinen, Solarpaneele, Biotreibstoffe und Batterien findet kaum Erwähnung bei der Google-Suche. Gleiches gilt für die extensiven Auswirkungen dieser vermeintlich „sauberen, grünen, erneuerbaren, nachhaltigen“ Technologien auf die Landschaft, auf Habitate und die Tierwelt.

Man kann mit Fug und Recht sagen, dass Klimawandel derzeit das größte Einzelthema in der Politik ist. Und doch degradiert und „ächtet“ Google folglich jedwede Website, welche „nachweislich ungenaue Inhalte oder widerlegte konspirative Theorien“ enthält. Genau das ist die Definition des Skeptizismus bzgl. jeden Klima-Alarms oder Behauptungen bzgl. erneuerbarer Energie. Google erklärt nicht, wie dessen Algorithmen diese spezifisch subjektiven Einschätzungen vornehmen, ob ein Beitrag genau, autoritativ und folglich gepostet wird – oder falsch, fragwürdig und damit der Vergessenheit anheim fällt.

Googles authority-based Such-Algorithmen sind auch darauf getrimmt, linke Inhalte fast allen konservativen Inhalten vorzuziehen; das gilt besonders für Beiträge zu den Themen Klima und Energie. Dieser zutiefst linke Bias ist fundamental falsch und unamerikanisch, wenn man bedenkt, welche zentrale Rolle Google in unserem Leben spielt.

Die Betreiber von Google werden immer wohlhabender durch die Kontrolle des Zugangs zu Informationen – und folglich der Kontrolle des Denkens, der Debatte, politischer Entscheidungen und unserer Zukunft – indem ein öffentliches Internet-System benutzt wird, welches von Verteidigungs- und anderen Regierungs-Agenturen ins Leben gerufen worden war. Ziel war die Sicherstellung des freien Informationsflusses und der offenen, robusten Diskussion vitaler politischer Dinge. Niemals war beabsichtigt, links-progressive-linksextreme Restriktionen nach Art eines Polizeistaates einzuführen und Entscheidungen zu fällen, wer gehört werden darf und wer nicht.

Dem Weißbuch „wie wir gegen Falschinformation vorgehen“ von Google zufolge ist die separate Sparte der Nachrichten-Suche Gegenstand besonderer algorithmischer Behandlung – das heißt, dass fast alle Links auf der ersten Seite zu linken Nachrichten-Quellen weisen. Dieser eklatante Bias ragt wie ein Fanal in multiplen Tests hervor. In keinem Fall fand ich unter den ersten zehn Links mehr als einen Link zu einer konservativen Nachrichten-Quelle. Manchmal sogar überhaupt keinen.

Beispiel: mein Suchbegriff „Biden 2020“ ergab die folgenden zehn Suchergebnisse, in dieser Reihenfolge: CNN, the New York Times, Vice, Politico, noch einmal CNN, Fortune, Fox News, The Hill und och einmal Politico. Die einzige konservative Quelle war Fox News an achter Stelle.

Natürlich würden konservative Inhalte nicht nett zu Mr. Biden sein. Aber falls Google an prominenter Stelle Skeptiker und Konservative angreifen kann/darf – warum kann es dann nicht auch Demokraten angreifen?

Der größte Gehalt an konservativen Links, die ich fand, war einer von acht Links oder 12%. Etwa ein Drittel meiner Stichproben wiesen überhaupt keine konservativen Quellen auf. Das Mittel von etwa 7% belegt den dramatischen Bias von Google hin zu linken Quellen, die dessen Dominanz von 92,2% eindrücklich unterstreicht.

Die wenigen konservativen Quellen sind tatsächlich mehr in der politischen Mitte angesiedelt, wie Fox News und der Washington Examiner. Google fand niemals wahrhaft konservative Quellen (welche es „rechts“ nennt) wie Breitbart, Townhall oder der Daily Caller. Es kommt einfach nicht vor, und der Algorithmus weiß das ganz genau – wie auch Google. Gleiches gilt für andere Informationen und Websites sozialer Medien.

Natürlich stehe ich nicht allein mit dieser Erkenntnis einer eklatanten Diskriminierung bestimmter Standpunkte.

Koppelt man diesen Sachverhalt mit dem Umstand, dass er fast vollständig übernommen worden ist von den UN, vom IPCC und anderen globalen Regierungs-Institutionen durch umweltaktivistische und sozialistische Kräfte – nebst deren totaler Aussonderung von Skeptikern eines menschengemachten Klima-Chaos‘, an freien Märkten orientierter Ökonomen und jedermann, welcher die Rolle oder die Auswirkungen erneuerbarer Energie in Frage stellt – sind die Auswirkungen auf Diskussionen und Debatten, auf Bildung und Entscheidungen diktatorisch und verheerend.

Keine freie, blühende, moderne Gesellschaft kann unter diesen Bedingungen und Restriktionen überleben. Es ist an der Zeit für Bürger, Gesetzgeber und Richter einzugreifen und dieses imperiale Monopol aufzubrechen.

David Wojick is an independent analyst specializing in science, logic and human rights in public policy, and author of numerous articles on these topics.

——————————————–

Paul Driessen hat zu diesem Beitrag den folgenden treffenden Kommentar geschrieben:

Für ein vermeintliches Medium bzgl. Forschung und Bildung, welches fast 92,2% aller Suchanfragen steuert, ist dieser Sachverhalt nicht einfach nur verwerflich. Er ist regelrecht gefährlich für eine freie, funktionierende, moderne demokratische Gesellschaft und die Welt. Besonders inakzeptabel ist, dass diese „Suchmaschine“ sich eines öffentlichen Internet-Systems bedient, welches von Regierungs-Agenturen mit den Dollars der Steuerzahler erschaffen worden ist – mit dem Ziel der Sicherstellung des freien Meinungsaustausches.

Link: http://icecap.us/index.php/go/political-climate vom 31. August 2019

Ein PDF dazu gibt es hier: Google discriminates against conservatives and climate skeptics

Übersetzt von Chris Frey EIKE




Hallo Alexandria – Lass uns Deinen ‘New Green Deal’ besser vergessen

In der Zwischenzeit schauen wir uns auf der Erde an, wo dies enden könnte und was es kosten könnte, falls die Wahnsinnigen jemals die Schlüssel bekommen, um aus dem Irrenhausauszubrechen. Lesen Sie hier von Alex Epstein, der Alexandria & Co erklärt, warum es kein Geschäft mit ihrem New Green Deal geben sollte.

Hinweis zum Aufmacherbild: https://eike.institute/2019/02/27/der-green-new-deal-wuerde-fast-alles-toeten-warnt-greenpeace-mitbegruender/

Was ist der Deal mit dem Green New Deal?
Prager Universität
Alex Epstein, 29. Juli 2019

Über The Green New Deal [Vorschlag von Alexandria Ocasio-Corte, Demokratische Partei, USA] wurde viel geredet. Was bedeutet es wirklich, jenseits der Schlagzeilen? Ist es angesichts unseres Energiebedarfs praktisch? Können wir eine Fülle von Energie und einen sauberen Planeten haben? Alex Epstein, der Autor von The Moral Case for Fossil Fuels, betrachtet diese Fragen und hat zum Nachdenken anregende Antworten.

Transcript

Wir sind einer existenziellen Bedrohung ausgesetzt. Das Leben, wie wir es kennen, steht auf dem Spiel. Wir haben 12 kurze Jahre Zeit, um alles zu ändern oder das Spiel ist vorbei.

Dies ist das schreckliche Szenario, das von vielen führenden Politikern verwendet wird, um einen „Green New Deal“ zu rechtfertigen: eine beispiellose Zunahme der Regierungsmacht, die sich auf die Energiewirtschaft konzentriert.

Die Grundidee eines Green New Deal ist, dass die Regierung die Nutzung fossiler Brennstoffe schnell verbietet und „100% erneuerbare Energie“, hauptsächlich Sonnen- und Windkraft, einführt.

Das mag ansprechend klingen, aber überlegen Sie, was es bedeuten würde.

Heute kommen 80% der Energie, die Amerikaner zum Heizen ihrer Häuser, zum Bewirtschaften ihres Landes, zum Betreiben ihrer Fabriken und zum Fahren ihrer Autos verwenden von fossilen Brennstoffe: Kohle, Öl und Erdgas. Nur 3,4% stammen aus Sonne und Wind – trotz jahrzehntelanger staatlicher Subventionen und Mandate zur Förderung ihrer Nutzung.

Der Grund, warum wir nicht viel mehr Energie aus Sonnenlicht und Wind verwenden [können], ist, dass es sich um unzuverlässige Kraftstoffe handelt, die nur funktionieren, wenn die Sonne scheint und der Wind weht. Trotz großer Bemühungen und Kosten, hat keine Stadt oder ein Land jemals 100% – oder gar 50% – Energieversorgung aus Sonne und Wind erreicht.

Und doch sagen die Befürworter des Green New Deal, dass sie das Unmögliche tun können – wenn wir nur der Regierung die Kontrolle über die Energiewirtschaft und die Kontrolle über wichtige Energieverbraucher wie die Transportindustrie, das verarbeitende Gewerbe und die Landwirtschaft übertragen.

All dies ist durch die Notwendigkeit gerechtfertigt, etwas gegen die „existenzielle Bedrohung“ durch steigende CO2-Werte zu unternehmen. Täglich wird uns mitgeteilt, dass angesehene Organisationen wie die Vereinten Nationen Massenhafte Zerstörung und Tod vorhergesagt haben, wenn wir nicht aus fossilen Brennstoffen aussteigen. Was uns  nicht  gesagt wird, ist, dass solche Vorhersagen eine bereits jahrzehntelange falsch erzählte Geschichte haben – und mit falsch meine ich, dass die Realität eine völlig andere ist.

Zum Beispiel berichtete Associated Press 1989 von einer Prognose der Vereinten Nationen, dass „ganze Nationen durch den Anstieg des Meeresspiegels vom Erdboden getilgt werden könnten, wenn sich der globale Erwärmungstrend nicht bis zum Jahr 2000 umkehrt.“ Wir sind jetzt fast 20 Jahre weiter als 2000 und noch immer werden keine Nationen vermisst und die Menschen leben länger, gesünder und wohlhabender als je zuvor.

Aber wird es nicht noch schlimmer? Haben Wissenschaftler nicht festgestellt, dass CO2 ein Treibhausgas mit wärmendem Einfluss auf den Planeten ist? Ja, aber das ist nur ein kleiner Teil des Gesamtbildes.

Obwohl CO2 eine gewisse Erwärmung verursacht [verursachen könnte], ist es viel weniger bedeutend, als uns gesagt wurde. Seit wir Mitte des 19. Jahrhunderts erhebliche Mengen fossiler Brennstoffe einsetzen, ist der Anteil an CO2 in der Atmosphäre von 0,03% auf 0,04% erhöht, [wobei es keine Beweise gibt, dass die Menschen mehr als <4% dazu getan haben]. Nach Beendigung der „kleinen Eiszeit“ sind die Temperaturen gestiegen, die Schätzungen liegen zwischen 0,5 bis 1,0 Grad Celsius.].  Dies korreliert auch mit einer signifikanten globalen Ökologisierung, da CO2 pflanzliche Nahrung ist.

All dies ist weit entfernt von einem noch nie dagewesenen Zustand unseres Planeten, der mit mindestens dem Zehnfachen des heutigen CO2-Gehalts und einer um 25 Grad wärmeren Durchschnittstemperatur existiert hat.

Wirklich beispiellos ist jedoch, wie sicher wir vor dem Klima sind. Die International Disaster Database, eine überparteiliche Organisation, die Todesfälle aufgrund von klimabedingten Ursachen wie extremer Hitze, Überschwemmungen, Stürmen und Dürre aufspürt, zeigt, dass diese Todesfälle mit zunehmendem CO2-Ausstoß stark zurückgegangen sind.

Wie ist das möglich? Aufgrund der Energie aus fossilen Brennstoffen, die das CO2 emittiert, sind wir in der Lage, unsere Umwelt mit Heizung, Klimaanlage, robusten Gebäuden, Massenbewässerung und Wetterwarnsystemen klimaschonend zu gestalten.

Energie aus fossilen Brennstoffen hat kein natürliches Klima beeinflusst und es unnatürlich gefährlich gemacht. Es hat unsere Hilflosigkeit gegenüber den Unbilden des Klimas [-> des Wetters] verbessert und das Leben sicherer gemacht. Fossile Brennstoffe sind keine existenzielle Bedrohung. Sie sind eine existenzielle Ressource, weil sie etwas viel Wichtigeres als die Menge an CO2 in der Atmosphäre erhöhen: die Menge an menschlichen Handlungsfähigkeiten. Erhöhte Lebenserwartung, Einkommen, Gesundheit, Freizeit und Bildung hängen eng mit der verbesserten Nutzung fossiler Brennstoffe zusammen.

Bedeutet dies, dass wir nicht nach Alternativen für kohlenstoffärmere Energien suchen sollten? Natürlich nicht. Aber die Alternativen sollten uns zu einer reichlicheren, zuverlässigeren Energiezukunft führen, nicht zu einer schlechteren.

Die vielversprechendste Form alternativer Energie ist nicht unzuverlässige Sonnen- und Windkraft, sondern zuverlässige, kohlenstofffreie Kernenergie. Schweden bezieht 40% seines Stroms aus Atomkraftwerken. Frankreich, über 70%. Die Kernenergie wird zwar als unsicher eingestuft, doch es wurde durch Untersuchungen nachgewiesen, dass sie die sicherste Energieform ist, die jemals genutzt wurde.

Und doch lehnen die Befürworter des Green New Deal – die prophezeien , dass wir nur noch 12 Jahre Zeit haben, um den Planeten vor steigenden CO2-Werten zu bewahren – den Einsatz von Kernbrennstoffen – zusätzlich zu allen fossilen Brennstoffen – energisch ab.

Der Green New Deal widersetzt sich jeder erschwinglichen, reichlich vorhandenen und zuverlässigen Energieform und schützt uns nicht vor einer existenziellen Bedrohung. es  ist  eine existenzielle Bedrohung.

Ich bin Alex Epstein, Autor von  The Moral Case for Fossil Fuels für die Prager University.
Prager Universität

Gefunden über Stopthesethings vom 07.09.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/09/07/alexandria-ocasio-cortez-lets-not-make-a-new-green-deal/




Wie die Medien helfen, eine rationale Klimadebatte zu verhindern

Inzwischen gibt es viele selbsternannte Klimaexperten. Sie brauchen keinen Abschluss in Physik oder Atmosphärenwissenschaften. Für Anmeldeinformationen müssen sie nur anderen mitteilen, dass sie sich darum kümmern. Sie glauben daran, dass die Erde von Menschen zerstört wird und wollen, dass die Medien das Wort „der Klimakirche“ verbreiten.

Die meisten Menschen haben leider weder die Zeit noch den Bildungshintergrund, um die Hintergründe und Debatten über die globale Erwärmung zu verstehen und verlassen sich daher auf „den Konsens der Experten“. Sie erkennen auch das Problem nicht, dass ihnen niemand genau sagt, worauf sich die Experten eigentlich einigen.

Wenn Sie sich mit den Details befassen, ist es eher nicht weiter bemerkenswert, worauf sich die Experten in ihren offiziellen Erklärungen einigen. Die Erde hat sich seit den 1950er Jahren etwas erwärmt, ein Datum, das gewählt wurde, weil die Menschen zuvor nicht genug CO2 produziert hatten, damit es wirklich eine Rolle spielt. Nicht genug Erwärmung für die meisten Menschen, um es tatsächlich zu fühlen, aber genug für Thermometer, um eventuell ein Signal aufzunehmen, das im Rauschen natürlicher Wetterschwankungen von vielen Dutzend Grad und unechter Erwärmung aufgrund von Urban-Heat-Effekts vergraben ist. Der UN-Konsens ist, dass der größte Teil dieser Erwärmung wahrscheinlich auf die Zunahme des atmosphärischen CO2 durch den Einsatz fossiler Brennstoffe zurückzuführen ist (aber keiner weiß es wirklich genau).

Im Moment stimme ich diesem Konsens eher zu.

Und trotzdem werde ich allgemein als Klimaleugner betrachtet.

Warum? Weil ich nicht bereit bin zu übertreiben und Behauptungen aufzustellen, die nicht durch Daten gestützt werden können.

Nehmen Sie den Forscher Roger Pielke Jr. als ein weiteres Beispiel. Roger sieht sich als Umweltschützer. Er stimmt im Allgemeinen den Vorhersagen des IPCC in Bezug auf die zukünftige Erwärmung zu. Als Experte für Unwetterschäden ist er jedoch nicht bereit, die Lüge zu vertreten, dass sich das Unwetter verschlimmert hat. Ja, die Sturmschäden haben zugenommen, aber das liegt daran, dass wir immer mehr Infrastruktur bauen, die Schaden nehmen kann.

Auch er gilt damit als Klimaleugner.

Was von den Medien über die globale Erwärmung (auch bekannt als Klimawandel, Klimakrise und jetzt Klimanotfall) berichtet wird, ist normalerweise stark übertrieben, sind Halbwahrheiten oder schlicht Unsinn. Genau wie in der  Wirtschaft und in den Wirtschaftswissenschaftler ist es nicht schwierig, einen „Experten“ zu finden, der bereit ist, eine Prognose über das Schicksal und die Finsternis abzugeben. Das macht interessante Nachrichten. Aber es verzerrt die öffentliche Wahrnehmung der Gefahren des Klimawandels. Und weil es als „Wissenschaft“ bezeichnet wird, wird es mit der Wahrheit gleichgesetzt.

Im Falle von Nachrichten über den Klimawandel sind die vorhergesagten Auswirkungen fast allgemein auf Armageddon ähnliche Ergebnisse ausgerichtet. Unwetterereignisse, die immer aufgetreten sind (Tornados, Hurrikane, Überschwemmungen, Dürreperioden), werden jetzt gemeldet, und zumindest Ihr SUV wird ein wenig dafür verantwortlich gemacht.

Die großen Medien sind so sehr von der Gerechtigkeit, Rechtschaffenheit und Wahrhaftigkeit ihrer Sache überzeugt, dass sie sich zusammengetan haben, um sicherzustellen, dass der Klimanotfall nicht ignoriert wird. The Guardian berichtet: „Mehr als 60 Nachrichtenagenturen weltweit haben Covering Climate Now unterzeichnet, ein Projekt um die (~)Behandlung des Notfalls zu verbessern“.

Die Übertreibungen beschränken sich nicht nur auf die Wissenschaft. Die Berichterstattung über Ingenieurleistungen im Zusammenhang mit vorgeschlagenen alternativen Energiequellen (z. B. Wind und Sonne) ist ebenfalls voreingenommen. Die berichteten Wirtschaftsdaten sind voreingenommen. Unbegrenzte „freie“ Energie ist angeblich überall um uns herum und wartet nur darauf, vom Baum „der Einhörner“ gepflückt zu werden.[Einhörner = Unicorns, eine Bezeichnung für Start-ups, denen von Investoren eine große Lukrativität angedichtet / geglaubt wird]

Und für die meisten Amerikaner (und die ganze Welt) gilt, dass uns die Berichterstattung nicht schlauer, sondern dümmer macht.

Warum spielt es eine Rolle? Wen kümmert es, wenn die Wissenschaft (oder Technik oder Wirtschaft) übertrieben ist, wenn das Ergebnis ist, dass wir aufhören, die Umwelt zu verschmutzen?

Abgesehen von der Tatsache, dass es keine umweltfreundliche Energiequelle gibt, ist es wichtig, dass die Menschheit von reichlich vorhandener, erschwinglicher Energie abhängt, um Erfolg zu haben. Es gelten nur die Lebenserwartung und der Pro-Kopf-Energieverbrauch. Wohlhabende Gesellschaften sind gesünder und leben länger. Teure Energiequellen, die durch Regierungsbeschlüsse den Massen aufgezwungen werden, töten arme Menschen, einfach weil teure Energie die Armut verschlimmert und Armut zu vorzeitigem Tod führt. Wie der Philosoph Alex Epstein in seinem Buch The Moral Case for Fossil Fuels darlegt, sollten Sie fossile Brennstoffe unterstützen, wenn Sie glauben, dass Menschen ein Recht auf Erfolg haben.

Wir nutzen Wind- und Sonnenenergie nicht, weil sie wirtschaftlich wettbewerbsfähig ist. Wir machen davon Gebrauch, weil die Regierungen beschlossen haben, die Steuerzahler zu zwingen, die damit verbundenen Mehrkosten zu tragen und es den Versorgungsunternehmen gestattet haben, die höheren Kosten an die Verbraucher weiterzugeben. Die Nutzung von Wind und Sonne steigt weiter, aber der globale Energiebedarf wächst noch schneller. Ohne eine neue Energietechnologie (oder eine erneute Einführung der Kernenergie) werden Wind und Sonne in den kommenden Jahrzehnten wahrscheinlich nicht mehr als 10% des weltweiten Energiebedarfs decken. Und wie einige europäische Länder erfahren haben , ist die zwangsweise Nutzung von Sonne und Wind für die Gesellschaft mit hohen Kosten verbunden.

Nicht nur die Medien, sondern auch das öffentliche Bildungssystem sind in dieser Zeit schlampiger wissenschaftlicher Berichterstattung mitschuldig. Ich nehme an, die meisten Lehrer und Journalisten glauben, was sie unterrichten und worüber sie berichten. Trotzdem tragen sie eine gewisse Verantwortung dafür, dass das, was sie melden, relativ unvoreingenommen und sachlich ist.

Ich hätte lieber Lehrer, die mehr Zeit damit verbringen, den Schülern beizubringen wie man denkt und weniger Zeit aufwenden, um  ihnen beizubringen was sie denken sollen.

Klimaforscher sind nicht ohne Schuld. Sie sind, wie alle anderen auch, voreingenommen. Praktisch alle mir bekannten Erdwissenschaftler betrachten die Erde als „zerbrechlich“. Ihre Vorurteile wirken sich auf die Analyse unsicherer Daten aus, die auf verschiedene Arten interpretiert werden können. Die meisten wissen relativ wenig über Technik und Wirtschaft. Ich habe Gespräche mit Klimaforschern geführt, die mir sagten: „Nun, wir müssen sowieso weg von fossilen Brennstoffen .

Und vielleicht können wir es ja irgendwann. Aber die Bedrohung zu übertreiben kann mehr schaden als nützen. Der verstorbene Stephen Schneider gab zu, das auch er im Zweifel zwischen korrekten Aussagen einschließlich Unsicherheiten oder eher alarmistischer Vorhersagen war – die dann von den Medien dann weiter aufgebauscht und verfälscht wurden. Sie können hier sein eigenes Zitat lesen und selbst entscheiden, ob Wissenschaftler wie Dr. Schneider ihre Weltanschauung, Politik usw. zu sehr  damit aufbauschen, wie sie ihre Wissenschaft der Öffentlichkeit präsentieren. Die ans Licht gebrachte Veröffentlichung der „ClimateGate“ -E-Mails zwischen IPCC-Wissenschaftlern zeigte, wie die alarmistische Erzählung aufrechterhalten wurde, indem alternative Ansichten untergraben und sogar die Herausgeber wissenschaftlicher Zeitschriften unter Druck gesetzt wurden. Sogar The Guardian , als ein eher die AGW-Hypothese puschendes Medium, schien von dem Fehlverhalten geschockt zu sein.

Es ist in Ordnung, die Möglichkeit darzulegen, dass die globale Erwärmung vom Menschen verursacht sein könnte, was in der Tat theoretisch möglich ist. Zu behaupten, dass bereits große und schädliche Veränderungen aufgrund des zunehmenden CO2-Ausstoßes in der Atmosphäre stattgefunden haben, ist ein schlechter Journalismus. Einige Reporter umgehen das Problem, indem sie sagen, dass der jüngste Hurrikan möglicherweise nicht direkt für die globale Erwärmung verantwortlich gemacht wird, sondern für das, was wir in einer sich erwärmenden Welt mehr erwarten können. Abgesehen davon ist auch der IPCC der Vereinten Nationen in diesem Bereich nicht eindeutig.

Medienberichte über den Anstieg des Meeresspiegels erwähnen, soweit ich das beurteilen kann, niemals, dass der Meeresspiegel von Natur aus gestiegen ist, seit wir globale Gezeitenmessungen durchgeführt haben (seit den 1850er Jahren). Vielleicht ist der Mensch für einen Teil des jüngsten Anstiegs verantwortlich, aber wie im Wesentlichen bei allen Klimaberichten wird die Rolle der Natur nur sehr selten erwähnt, und das Ausmaß des Problems ist fast immer übertrieben. Dass sich das periodische Hochwasser in Miami Beach aufgrund des Absinkens von zurückgewonnenem Sumpfland um etwa 50%höher ausfällt, wird nie erwähnt.

Es gibt keine menschlichen Fingerabdrücke der globalen Erwärmung. Keine. Es wird einfach angenommen, dass der Klimawandel größtenteils vom Menschen verursacht wird (was tatsächlich möglich ist), während unser Wissen über den natürlichen Klimawandel fast nicht vorhanden ist.

Klimamodelle sind mit der Annahme programmiert, dass es ausschließlich menschlicher Ursachen gibt. Die Modelle erzeugen einen vom Menschen verursachten Klimawandel, da sie so geschrieben sind, dass es keine Erwärmung ohne CO2 gibt (sich in einem Zustand der Energie-Balance befinden, sofern kein CO2 zugesetzt wird).

Soweit wir wissen, wurde noch nie jemand durch vom Menschen verursachten Klimawandel getötet. Wetterbedingte Todesfälle sind in den letzten 100 Jahren dramatisch gesunken – um über 90%.

Wem wurde das in der Schule beigebracht? Welcher Journalist war mutig genug, über diese guten Nachrichten zu berichten?

In den letzten Jahren erzählten mir immer mehr Menschen, dass ihre Kinder, Enkelkinder oder jungen Bekannten jetzt fest davon überzeugt sind, dass wir den Planeten mit unseren Kohlendioxidemissionen durch die Verbrennung fossiler Brennstoffe zerstören. Sie haben diese Botschaft durch Nachrichtenberichte, Filme, ihre Lehrer und Professoren, ihre Lieblingsstars und eine Handvoll AGW- aktiver Wissenschaftler und Politiker – deren Fachkenntnisse alles beliebige umfassen, aber nur kaum einen Zentimeter tief sind, in ihr Gehirn bohren lassen.

Im Gegensatz dazu, kennen nur wenigen Menschen die wissenschaftlichen Studien, in denen Satellitenbeobachtungen gezeigt werden, dass eine globale Begrünung als Folge von mehr atmosphärischem CO2 auftritt.

Wieder frage ich, wem wurde das in der Schule beigebracht? Welcher Journalist wagt es, über positive CO2-Vorteile zu berichten, ohne die es kein Leben auf der Erde gibt?

Nein, wenn es um Klimanachrichten geht, sind es immer Katastrophen.

Weitere Beispiele für Media Bias

Hier sind nur einige aktuelle (und weniger aktuelle) Beispiele von Medienberichten, die die Angelegenheit nur verschlimmern und die öffentliche Debatte zum Thema Klimawandel beeinträchtigen. Sehr oft werden tatsächlich wetterbedingte Ereignisse gemeldet, die sich in den letzten über 60 Jahren immer wieder verschlechtert haben [sollen] oder häufiger auftraten und bei denen man den Menschen zumindest teilweise die Schuld geben könnte.

Der Amazonas brennt

Vor ein paar Tagen gab The Guardian bekannt, dass große Teile des Amazonas-Regenwaldes brennen. Ich weiß nicht, wie dies plötzlich in das Bewusstsein der Öffentlichkeit gelangt ist, aber für diejenigen von uns, die solche Dinge im Auge behalten, wurde Ackerland und etwas Regenwald in Amazonen und angrenzenden Gebieten in dieser Jahreszeit seit vielen Jahrzehnten von Bauern verbrannt, so dass sie pflanzen können. Dieses Jahr ist in dieser Hinsicht keine Ausnahme, dennoch hat sich jemand entschlossen, dieses Jahr eine Nachricht daraus zu machen. 2019 scheint den Statistiken nach, jedoch eines der niedrigsten Jahre für die Verbrennung von Biomasse zu sein . Die Abholzung dort ist in den letzten 20 Jahren dramatisch zurückgegangen.

Der Regenwald selbst brennt nicht als Reaktion auf die globale Erwärmung und tatsächlich war die Erwärmung in den Tropen so langsam, dass es unwahrscheinlich ist, dass ein Bewohner der Tropen dies je in seinem Leben wahrnehmen würde. Dies ist kein Problem des Klimawandels. Es ist eine Frage der Landwirtschaft und der Landnutzung.

Grönland schmilzt schnell

Die grönländische Eisdecke erhält jedes Jahr [Nachschub durch] neuen Schnee und die Schwerkraft bewirkt, dass die Decke langsam zum Meer fließt, wo das Eis durch das Kalben von Eisbergen verloren geht. Wie viel Eis sich zu einem bestimmten Zeitpunkt auf Grönland befindet, hängt vom Gleichgewicht zwischen Zuwachs und Abgang ab.

In den Sommermonaten Juni, Juli und August schmilzt die Oberfläche stärker als die Schneedecke für Zuwachs sorgt. Die jüngste (wetterbedingte) Episode einer Sahara-Luftmasse, die durch Westeuropa strömte und sogar Grönland erreichte, führte zu einigen Tagen außergewöhnlicher Schmelze. Es wurde weithin berichtet, dass dies schwerwiegende Konsequenzen habe.

Forbes entschloss sich, die Grenzen des verantwortungsvollen Journalismus mit einer Schlagzeile zu überschreiten. Grönlands massive Eisschmelze sollte erst 2070 passieren . Die tatsächlichen Daten zeigen jedoch, dass sich die Bedingungen nach dieser sehr kurzen Zeit (einige Tage) starker Schmelze wieder normalisierten.

Auf das ausgiebig berichtete Ereignis der grönländischen Oberflächenschmelze um den 1. August 2019 herum, (grünes Oval) folgte in den folgenden Wochen eine Normalisierung (lila Oval), die von den Medien nicht gemeldet wurde.

Natürlich wurde von den Medien nur über die kurze Zeit der Schmelze berichtet, was die beständige Berieselung mit voreingenommenen Klimainformationen, an die wir uns alle gewöhnt haben, weiter stärkte.

Darüber hinaus wurde nach allen Berichten über Rekordwärme auf dem Gipfel der Eiskappe festgestellt, dass die Temperatursensormesswerte zu warm waren und die Temperatur tatsächlich nie über den Gefrierpunkt stieg.

Wurde dies mit der gleichen Intensität wie die ursprüngliche Geschichte berichtet? Natürlich nicht. Der Schaden ist angerichtet und die Tausenden von alarmierenden Nachrichten werden auf ewig weiterleben.

Das soll nicht heißen, dass Grönland nicht mehr Eis verliert als es dazu bekommt, aber der größte Teil dieses Verlusts ist auf das Kalben von Eisbergen am Rand des Festlandes zurückzuführen, die von Eis gespeist wird, das bergab fließt. Da gibt es keine Hochofenheizung der Oberfläche. Es könnte sein, dass der Verlust in den letzten Jahrzehnten eine verspätete Reaktion auf übermäßige Schneeansammlung vor zehn oder hundert Jahren ist (ich habe als Nebenfach an meiner Doktorarbeit in Meteorologie gearbeitet). Niemand weiß es wirklich, weil die Dynamik der Eisdecke mit viel Unsicherheit verbunden ist.

Mein Punkt ist, dass die Öffentlichkeit nur von diesen kurzen Wetterereignissen hört, die fast immer verwendet werden, um eine alarmistische Erzählung zu fördern.

Juli 2019 war der heißeste Monat der Aufzeichnungen

Die jährliche, flächengemittelte Oberflächentemperatur der Erde beträgt um 60°F [15,5°C] Es ist in den letzten Jahrzehnten langsam und unregelmäßig mit einer Geschwindigkeit von etwa 0,1 bis 0,2 ° pro Jahrzehnt angestiegen.

Nehmen wir also an, die propagierte Globale -Durchschnittstemperatur erreicht 60,4 °F [15,7 ° C], was etwas mehr als die als normal angesehenen 60 Grad. F. Ist „heißeste“ wirklich das beste Adjektiv, um die Öffentlichkeit über das, da [angeblich] festgestellt wurde, zu informieren?

Auch zum Thema:  https://eike.institute/2017/09/24/temperaturen-der-letzten-150-jahre-wenn-harte-messdaten-nachtraeglich-veraendert-werden/

 

Hier ist eine geografische Darstellung der Abweichungen vom NOAA-Modell für die Klimaprognose im Juli 2019.

Juli 2019,  von der Norm abweichende Oberflächentemperaturen. Der globale Durchschnitt ist nur 0,3 Kelvin oberhalb des  Durchschnitts zwischen 1981 und 2010, und viele Gebiete wiesen eine Temperatur auf, die unter dem Normalwert lag. (Grafik mit freundlicher Genehmigung von WeatherBell.com ).

Einige Gebiete lagen über dem Normalwert, andere unter dem Normalwert, doch die Schlagzeilen des „heißesten Monats aller Zeiten“ ließen vermuten, dass die ganze Erde zu einem Ofen unerträglicher Hitze geworden war.

Natürlich sind die Temperaturänderungen in den neuen Rekordwärmemonaten so gering, dass sie in der Regel geringer als die Messunsicherheit sind. Verschiedene globale Datensätze liefern unterschiedliche Ergebnisse . Die Überwachung der globalen Erwärmung ist wie die Suche nach einer Nadel in einem Heuhaufen von Wetterunterschieden.

Zum Thema: https://eike.institute/2018/01/25/fake-news-und-temperaturwerte-2017-in-rekordnaehe/

Software und Ergebnis: Modelle, die Beobachtungen ersetzen

Es gibt einen zunehmenden Trend, Klimamodellprojektionen als tatsächliche Beobachtungen in Nachrichten auszugeben. Dies geschah erst vor ein paar Tagen, als ich auf eine Nachricht aufmerksam wurde, in der behauptet wurde, Tuscaloosa in Alabama leidet unter doppelt so vielen 100-plus Fahrenheit [37 °C] Tage wie früher. Zu seiner Ehre korrigierte der Reporter die Geschichte, als er darauf hingewiesen wurde, dass nichts dergleichen passiert ist und es nur eine Klimamodellprojektion war, die (fälschlicherweise) eine solche „Vorhersage“ machte.

Ein weiteres Beispiel war letztes Jahr die Meldung, dass sich die 100. Meridian-Klimagrenze in den USA nach Osten bewegte und allmählich die Trockenheit in den landwirtschaftlichen Gürtel des Mittleren Westens der USA einfiel. Aber die Wahrheit ist, dass so etwas nicht passiert ist. Es war eine Klimamodellprojektion, die als Realität weitergegeben wurde. Nachdem ich fast 10 Jahre lang mit Getreideanbau-Interessenten gearbeitet habe, habe ich diese gefälschten Klimanachrichten hier mit tatsächlichen Niederschlagsmessungen verglichen.

Die globale Erwärmung von Al Gore und Bill Nye in einem Versuch, das durch CO2 zu demonstrieren

Dies ist einer meiner Favoriten.

Im Rahmen von Al Gores Climate Reality Project produzierte Bill Nye das Climate 101Video eines Experiments, bei dem zwei Glasgefäße mit Thermometern innen durch Lampen angestrahlt wurden. In einem Glas war Luft, im anderen reines CO2. Das Video zeigt das Gefäß mit CO2, das angeblich einen größeren Temperaturanstieg erfährt als das Gefäß mit nur Luft.

Damit sollte natürlich demonstriert werden, wie einfach es ist, zu zeigen, dass mehr CO2 die Erwärmung verursacht. Ich bin sicher, es hat viele schulwissenschaftliche Experimente inspiriert. Das Video hatte über 500.000 Aufrufe.

Das Problem ist, dass dieses Experiment einen solchen Effekt überhaupt nicht zeigen kann. Jeder Fachmann für atmosphärischen Strahlungstransfer kann Ihnen dies sagen. Die Gläser sind für Infrarotstrahlung sowieso völlig undurchlässig, die Menge an CO2 ist viel zu gering, die Thermometer waren billig und ungenau, die Lampen können nicht exakt identisch sein, die Gläser sind nicht identisch, und die „Kälte“ des Weltraums war auch nicht drum herum. Der Fernsehmeteorologe Anthony Watts demonstrierte, dass Bill Nye die Ergebnisse durch Videobearbeitung in der Postproduktion vortäuschen musste.

Der Effekt einer Erwärmung durch atmosphärisches CO2 ist überraschend schwer nachzuweisen. Die Demonstration ist größtenteils eine theoretische Übung, die Berechnungen über Strahlungsabsorption und ein Strahlungstransfermodell umfasst. Ich glaube, dass der Effekt existiert; Ich sage nur, dass es keine einfache Möglichkeit gibt, dies zu demonstrieren.

Das Problem ist, dass dieses betrügerische Video immer noch existiert und viele Tausend Menschen in die Irre geführt werden, damit sie glauben, dass das Experiment ein Beweis dafür ist, wie es offensichtlich sein soll.

Greta Thunbergs Segelbootfahrt

Die neue Sprecherin der Weltjugend in Bezug auf die Sorge um die globale Erwärmung ist die 16-jährige Schwedin Greta Thunberg. Greta reist mit einer von CNN als „emissionsfrei“ bezeichneten Yacht über den Atlantik, um am 23. September am UN-Klimagipfel in New York City teilzunehmen.

Zunächst einmal gibt es keine emissionsfreie Yacht. Für die Herstellung der Yacht wurde eine enorme Menge an Energie benötigt, und sie transportiert so wenige Menschen, dass die Yacht während ihrer gesamten Lebensdauer ein wunderbares Beispiel für die Energieverschwendung darstellt, die typisch für den Lebensstil der reichen Elite ist. Vier (!) Menschen müssen von Europa in die USA fliegen, um die Rückkehr der Yacht nach Europa zu unterstützen, nachdem Greta dort abgeliefert wurde.

Die Reise ist nichts weiter als ein Werbegag und führt zu weiteren Desinformationen über den globalen Energieverbrauch. In der Tat funktioniert es viel besser als Satire. Stellen Sie sich vor, jeder, der über den Ozean reiste, benutzte Yachten anstatt Düsenflugzeuge. Nicht weniger, sondern mehr Energie würde benötigt, da Zehntausende von zusätzlichen Yachten hergestellt werden, die auf relativ wenigen, sehr langsamen Fahrten nur wenige Passagiere ineffizient befördern. Im Gegensatz dazu wird das durchschnittliche Düsenflugzeug in seiner Lebensdauer 80 Millionen Kilometer zurücklegen. Die meisten Menschen wissen nicht, dass das Reisen mit dem Jet jetzt sparsamer ist als das Reisen mit dem Auto .

Gretas-Bootsfahrt ist in vielerlei Hinsicht die absolut schlechteste Art, das Bewusstsein für Klimaprobleme zu schärfen, es sei denn, Sie kennen sich mit Naturwissenschaften, Technik oder Wirtschaft aus. Es ist wie mit jemandem, der es ablehnt, Fleisch zu essen, indem er drei McDonalds-Cheeseburger konsumiert, um zu zeigen, wie wir unsere Ernährung ändern sollten. Das ergibt keinen Sinn.

Ich könnte viele weitere Beispiele für die Medien nennen, die dazu beitragen, die Fähigkeit der Öffentlichkeit zu einer rationalen Diskussion über den Klimawandel zu zerstören, wie viel vom Menschen verursacht wird und was dagegen getan werden kann oder sollte.

Stattdessen veröffentlichen die Medien nur die aktuellsten Schlagzeilen und das Thema des Klimawandels wird dann in zwei Extreme unterteilt: Entweder glauben Sie, den „echten Wissenschaftlern“, die sich alle einig sind, dass wir den Planeten zerstören, oder Sie sind ein knuckle-dragging [Anspielung auf gebeugt laufende Neandertaler] Klimaleugnern der 8. Klasse [~Grundschule] mit Waffen und rassistischen Tendenzen.

Gefunden auf Der Webseite von Dr. Roy Spencer vom August 2019

http://www.drroyspencer.com/2019/08/how-the-media-help-to-destroy-rational-climate-debate/

Übersetzt durch Andreas Demmig




Auszug aus dem jüngsten Rundbrief der GWPF: Blick von außen auf die deutsche Klimapolitik und deren Folgen

Grüner Selbstmord: Klima-Hysterie tötet die deutsche Auto-Industrie

Bloomberg
Deutschland befindet sich an einem Scheideweg, und nirgends wird das deutlicher zutage treten als diese Woche auf der Automesse in Frankfurt. Trotz eleganter neuer Elektrofahrzeuge wie dem Porsche Taycan läuft die traditionelle Zurschaustellung deutscher Auto-Spitzenleistungen Gefahr, zu einer Plattform für Proteste zu werden anstatt die Aufmerksamkeit einer Generation junger Verbraucher zu wecken. Es ist wahrscheinlicher, dass die Messe zu einer Demonstrations-Bühne gegen die Rolle des Autos bzgl. globaler Erwärmung wird als zu einem Verkaufsportal für neue VW, BMW oder Mercedes-Benz.

Es waren Autos, welche Deutschland zu einem globalen Herstellungs-Kraftzentrum gemacht haben, aber Bedenken hinsichtlich Verschmutzung – verschlimmert durch den VW-Dieselskandal 2015 – haben den Ruf eines Produktes schwer geschädigt, welches einst für individuelle Freiheit stand. Jüngst haben Handelsbeschränkungen und sich abschwächende Konjunktur die Nachfrage dezimiert. Die Folge ist, dass die Auto-Produktion in Deutschland auf das niedrigste Niveau seit mindestens 2010 gesunken ist:


„Investoren schreckten schon seit einigen Jahren vor den Aussichten dieser Industrie zurück, und die Liste der Bedenken-Erreger scheint nicht kürzer zu werden“, sagte Max Warburton, ein in London ansässiger Analyst. „Es gibt da das allgemeine Gefühl, dass alles noch schlimmer wird“.

Das Ende der Ära von Verbrennungsmotoren sowie Autokäufer, die mehr an Datenverbindungen als an Pferdestärken interessiert sind, bedrohen den Spitzenplatz Deutschlands in der Rangfolge der Selbstfahrer. Überall zeigen sich Schwierigkeiten. Zusätzlich zu zahlreichen Gewinnwarnungen dieses Jahres stellte der Mercedes-Hersteller Daimler AG einen Plan zurück, die Kapazität eines Werkes in Ungarn zu erweitern. Der Zulieferer Continental AG trat in Verhandlungen bzgl. des Abbaus von Arbeitsplätzen ein, und der Zulieferer Eisenmann meldete Insolvenz an.

Deutschland taumelt am Rande einer Rezession, und die Autoindustrie ist ausschlaggebend für die Gesundheit der Wirtschaft. Autohersteller wie Volkswagen, Daimler und die BMW AG ebenso wie Zulieferer wie die Robert Bosch GmbH und Continental beschäftigen etwa 830.000 Menschen im Lande und stützen alles von Maschinenbauern bis zu Werbeagenturen und Reinigungsdiensten. Fabriken von Portugal bis nach Polen unterstreichen, dass die Bedeutung dieses Wirtschaftszweiges in ganz Europa wurzelt.

Mit den für das nächste Jahr geplanten strengeren Vorschriften bzgl. CO2-Emissionen nehmen die Bedenken zu, dass Unternehmen in der gesamten industriellen Landschaft nicht darauf vorbereitet sind, mit der Technologie-Transition umzugehen, welche aus dem Klimawandel sowie einem steigenden Niveau der Digitalisierung folgt.

Der ganze Beitrag steht hier.

Siehe auch hier und hier
—————————————-
Warnung von McKinsey: Erneuerbare bedrohen die deutsche Ökonomie und die Energieversorgung

Michael Shellenberger, Forbes

Ein neuer Report der Beraterfirma McKinsey kommt zu dem Ergebnis, dass die Energiewende in Deutschland eine erhebliche Bedrohung der Wirtschaft und für die Energieversorgung des Landes darstellt. Eine der größten Zeitungen Deutschlands, Die Welt, fasste die Ergebnisse des McKinsey-Reports mit einem einzige Wort zusammen: „katastrophal“.

Probleme manifestieren sich in allen drei Dimensionen des Dreiecks Energieindustrie: Klimaschutz, Versorgungssicherheit und ökonomische Effizienz“, schreibt McKinsey.

Im Jahre 2018 erzeugte Deutschland 866 Millionen metrische Tonnen Kohlendioxid, das ist weit entfernt von dem Ziel von lediglich 750 Millionen Tonnen bis zum Jahr 2020.

Dank eines etwas milderen Winters sanken die Emissionen in Deutschland im Jahre 2018 etwas, aber nicht stark genug, um den Gesamttrend zu ändern. „Falls die Reduktion der Emissionen in gleicher Weise fortsetzt wie im vorigen Jahrzehnt, werden die CO2-Ziele 2020 erst acht Jahre später erreicht, und die Ziele für 2030 erst im Jahre 2046“.

Deutschland hat es nicht vermocht, auch nur in die Nähe der Reduktion seines Primär-Energieverbrauchs zu kommen auf ein Niveau, das man sich erhofft hatte. McKinsey zufolge liegt Deutschland erst bei 39% auf seinem Weg zur Reduktion seines Primär-Energieverbrauchs.

Trotz des Hypes erzeugt Deutschland gerade mal 35% seines Stromes aus Erneuerbaren. Und falls man das Verbrennen von Biomasse einmal außen vor lässt, was oftmals schmutziger als Kohleverbrennung ist, erzeugten Wind, Wasser und die Sonne in Deutschland im Jahre 2018 nur etwa 27% seines Stromes.

Die eindringlichste Warnung von McKinsey gilt jedoch der zunehmend unsichereren Energieversorgung des Landes infolge der starken Abhängigkeit von intermittentem Solar- und Windstrom. An drei Tagen im Juni 2019 stand das Stromnetz kurz vor dem Zusammenbruch. „Nur kurzfristige Importe aus den Nachbarländern konnten das Netz noch stabilisieren“.

Als Folge des Einbruchs der Energieversorgung schossen die höchsten Kosten für kurzfristigen „Energie-Ausgleich“ von 64 Euro im Jahre 2017 auf 37.856 Euro im Jahre 2019 in die Höhe.

Man darf davon ausgehen, dass die Versorgungssicherheit sich in Zukunft weiter verschlechtern wird“, schreibt McKinsey.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Neue Studien belegen, wie Klimamodelle scheitern

Die von der University of Pennsylvania geleitete Studie ist Teil eines größeren Projektes mit der Bezeichnung ArchaeoGLOBE, wobei Online-Umfragen herangezogen werden, wie sich der Landverbrauch in 146 verschiedenen Gebieten der Welt verändert hat. Landverbrauch, das kann alles sein von der Jagd über Ackerbau bis zu grasenden Viehherden.

„Wir sehen eine beschleunigte Trajektorie umweltlicher Auswirkungen“, sagte der Anthropologe Ryan Williams, ein Mitautor der Studie. „Während die Rate heutiger Umweltänderungen viel drastischer ist, können wir die Auswirkungen erkennen, welche das menschliche Einwirken schon vor tausenden von Jahren hatte“.

„Alles begann vor 3000 Jahren“, sagt Feinman. „Es zeigt, dass die Probleme, vor denen wir heute stehen, sehr tiefe Wurzeln haben, und es braucht viel mehr als lediglich einfache Lösungen, diesen zu begegnen. Sie dürfen nicht ignoriert werden“.

Das Phytoplankton-Puzzle

Ebenfalls in Science Advances veröffentlicht ist eine Abschätzung der Phosphat-Verteilung auf der Meeresoberfläche der Ozeane weltweit. Dabei zeigen sich erhebliche Differenzen zwischen Modellen und Beobachtungen.

Martiny et al. analysierten über 50.000 hoch sensitive Phosphat-Beobachtungen von 42 Schiffen. Dabei zeigten sich eindeutige Differenzen der Phosphat-Konzentration innerhalb und zwischen den ozeanischen Becken. Auch konnten verschiedene, zuvor unbekannte Regionen mit geringer Phosphat-Konzentration entdeckt werden. Es ist grundlegend für Wissenschaftler, die globale Verteilung von Phosphat genau zu kennen, wobei auch spezifische Variationen bei einem geringen Phosphat-Niveau berücksichtigt werden müssen, um die zukünftige Auswirkung des Klimawandels bzgl. der Kohlenstoff-Speicherung in den Ozeanen sowie die Produktivität ozeanischer Ökosysteme modellieren zu können.

Die neuen Forschungen zeigen, dass die derzeitigen Klimamodelle die künftig zu erwartende Abnahme von Phytoplankton überschätzen – jene mikroskopischen Algen, welche die Basis der ozeanischen Nahrungskette bilden und Phosphor für die Photosynthese verbrauchen. Das ist bedeutsam, weil selbst geringe Differenzen der Phosphat-Konzentration ozeanische Ökosystem-Prozesse radikal beeinflussen können.

Neubewertung des Kohlenstoff-Zyklus‘

Außerdem haben die Wissenschaftler Beweise gefunden, dass die horizontale Zirkulation Kohlenstoff-reichen Ozeanwassers in den subpolaren Südlichen Ozeanen vereint mit der vertikalen Zirkulation erfolgt. Dies kontrolliert, wie viel Kohlenstoff in der in der Tiefsee gespeichert oder in die Atmosphäre freigesetzt wird.

MacGilchrist et al. untersuchten den Weddell Gyre mittels Daten von Schiffen sowie Satellitenbeobachtungen. Sie entdeckten, dass der Wirbel Kohlenstoff enthaltendes Phytoplankton vom offenen Ozean aus dem Gebiet hinaus transportiert mit einer Rate von etwa 80 Billionen Gramm pro Jahr. Das belegt, dass der Wirbel eine Schlüsselrolle spielt im Kohlenstoff-Transport der Südlichen Ozeane. Wichtig dabei ist, dass diese Studien dem konventionellen Verständnis des Kohlenstoff-Zyklus‘ in antarktischen Gewässern widersprechen, wonach die Kohlenstoff-Aufnahme der vertikalen Zirkulation zugeordnet wird, während die Verteilung großräumiger Systeme von Ozean-Wirbeln, Gyres genannt, übersehen werden.

Die Neubewertung des Kohlenstoff-Zyklus‘ im Südlichen Ozean ist ein unabdingbarer Schritt hin zu genaueren Computermodellen für die Prognose, wie der Klimawandel die Versauerung der Ozeane beeinflusst und Änderungen der Meereis-Bedeckung auslöst.

Link: https://www.thegwpf.com/new-studies-show-how-climate-models-fail/

Übersetzt von Chris Frey EIKE




Bürger wehren sich: Der Windkraftausbau stagniert

Die Blockade durch klagende Anwohner bezieht sich natürlich ausschließlich auf die Anlagen an Land. In den ersten sechs Monaten des laufenden Jahres wurden nur 86 Windräder gebaut, gleichzeitig aber 51 alte und kleine Windmühlen stillgelegt. Der Netto-Zuwachs an Nennleistung betrug somit nur 231 Megawatt; der geringste Zuwachs seit Verabschiedung des EEG 2000. Im Vergleich zum Vorjahr ist der Zuwachs um 82% gesunken.

Es wird im besten Falle davon ausgegangen, daß 2019 nur 1.500 Megawatt erreicht werden können; 2014 bis 2017 waren es 4.500 MW per annum. Zur Verdeutlichung der Zahl: Eine Metropole wie Hamburg benötigt bis zu 1.700 Megawatt – allerdings tatsächliche Leistung, nicht nur theoretische Nennleistung.

Experten und Verbände erklären den Rückgang mit den vielen Klagen von Anwohnern und mit fehlenden Flächen. War der Baugrundmangel nicht absehbar, als die Energiewende 2011 vom Zaun gebrochen wurde? Natürlich war er das; wie vieles andere.

Konkret stecken Bauvorhaben mit einer Nennleistung von etwa 11.000 MW im Genehmigungsverfahren fest. Die Prozesse dauern bis zu fünf Jahre und kosten bis zu 100.000 Euro. Weitere Vorhaben mit 4.000 MW Nennleistung dürfen vorerst nicht durchgeführt werden, da sie zu nah am Funkfeuer der Flugsicherung stehen. Oha – wussten Sie, daß die Windräder nicht nur Vögel, Fledermäuse und Fluginsekten gefährden, sondern auch fliegende Menschen?

Pikanterweise sind die Kläger häufig nicht einfach nur Anwohner mit Krach- und Infraschall-Allergie, sondern Natur- und Artenschützer mit Sympathie für die deutsche Flugfauna. Klagen hier Grüne gegen die grüne Energiewende, oder EIKE lesende Heimatfreunde? Wahrscheinlich beides.

Nach dem Naturschutzgesetz ist es bekanntlich verboten, bedrohte Tierarten zu töten oder nur zu stören. Die Windkraft-Profiteure und die „Klimaretter“ ficht das natürlich nicht an, weil nach ihrer Verschwörungstheorie ja das ganze Klima vom bösen, weißen Industrie-Betreiber vernichtet werde und so alle Tiere mit über den Jordan gingen. Da muß man halt ein paar Arten wie den Rotmilan opfern.

Auf See gibt es naturgemäß keinen Widerstand von Bürgern, so daß im ersten Halbjahr 2019 planmäßig 42 Windräder mit 252 Megawatt errichtet wurden. Für die Möwen gibt es offenbar keine Lobby; die sind nicht gefährdet und man sieht sie auch nicht oft. Es bleibt dem Klimaskeptiker, zu erwähnen, daß die deutsche Industrie hauptsächlich im Süden zu finden ist. Hinzu kommt, daß, von Hamburg abgesehen, im deutschen Küstenbereich keine Siedlungs-Agglomerationen zu finden sind. Heißt, der Meeres-Windstrom muß mit sehr teuren Überland-Hochspannungsleitungen sehr weit ins Inland transportiert werden. Deutschland ist nicht Holland. Und wenn der Wind in der Nordsee zu stark bläst, muß abgeregelt oder exportiert werden, damit unsere Leitungen und Generatoren nicht durchbrennen.

Wirtschaftsminister Peter Altmaier hatte zum Thema bereits Branchenvertreter, Landespolitiker und Mitglieder von Bürgerinitiativen ins Haus geladen, ohne Ergebnis. Demnächst trifft sich dann das „Klimakabinett“, um ein Maßnahmenpaket zu beschließen, das derzeit in der GroKo noch umstritten ist. Man will dann klären, wie man noch mehr Flächen zu Windkraft-Zonen machen, und wie man die Verfahren beschleunigen kann.

Na, da werden sich die Anwohner und Naturschützer aber freuen, wenn die Regierung noch einfacher noch mehr Naturräume zum Abschuß frei gibt. Halali!

Die Welt sieht die ganze Affäre übrigens ein wenig kritischer als die Schreibaktivisten der Aktuellen Kamera 1. Zitat:

In einem „Aktionsplan“ spricht die Lobbyorganisation von einer „oft überzogenen, unverhältnismäßigen Auslegung des Artenschutzes“. Die gelte es schnellstens zu beenden: „Der Artenschutz muss im Einklang mit der Windenergie sachgerecht angewendet werden“, fordert der Verband. Und „sachgerecht“ heißt aus Sicht der Lobbyisten explizit: „Im Zweifel für die Windenergie.“

 

 

 

 




Aus einem Rudbrief der GWPF: Neuseeland: James Cook University zur Zahlung von 1,2 Millionen an Peter Ridd verurteilt

Richter Salvatore Vasta verkündete die Strafe nach Anhörungen zu Beginn dieses Jahres. Er ordnete an, dass die Townsville University 1.094.214,47 [australische] Dollar an Dr. Ridd zahlen muss als Kompensation für ökonomische Verluste in der Vergangenheit und in Zukunft infolge der gesetzwidrigen Entlassung, und als Kompensation für über „drei Jahre unfairer Behandlung“. Zusätzlich muss die JCU noch 125.000 Dollar Strafe zahlen.

Der Richter kritisierte die Universität scharf und warf ihr vor, „die Rechte von Dr. Ridd auf intellektuelle Freiheit nicht beachtet zu haben“.

Der Physik-Professor, der sich auf maritime Umwelt spezialisiert und 30 Jahre lang an der JCU gearbeitet hatte, beklagte am Freitag die hässliche Affäre. Er sagte: „Dieser Kampf hätte von Anfang an niemals beginnen dürfen. Ich forschte 35 Jahre lang am Great Barriere Reef, und es ist mein fester Glaube, dass es systematische Probleme bei der Sicherstellung der Qualität an den Institutionen gebe, welche sich mit dem Riff befassen. Ich hatte das Recht, die Pflicht, das zu sagen. JCU hat dieses fundamentale Recht immer noch nicht akzeptiert, trotz der Bedeutung der Debatte für die Region Nord-Queensland.

Dr. Ridd sagte weiter, dass falls die JCU Berufung gegen dieses Urteil einlegt, was sie innerhalb der nächsten drei Wochen tun kann, dies ernste Zweifel an der Behauptung der Institution wecken würde, die akademische Freiheit hochzuhalten.

Nachdem er bereits über 200.000 Dollar aus seiner eigenen Schatulle für das Verfahren aufgebracht hatte, zusätzlich zu 260.000 Dollar für eine Crowdsourcing-Kampagne, sagte Dr. Ridd, dass er im Falle einer Fortsetzung des Verfahrens um weitere Spenden bitten müsste.

Man glaubt, dass die JCU über 600.000 Dollar Strafe zahlen musste.

Meine Anwälte sagen, es ist ein Grundsatzurteil, so dass es ein Erfordernis ist, den Kampf falls notwendig fortzusetzen“.

—————————————–

Der ganze Beitrag steht hier*.

[*Bemerkung: Der Link führt aber nur zur Titelseite der Zeitung The Australian. Der Beitrag müsste sich da irgendwo verstecken, ist aber nicht direkt verlinkt. Anm. d. Übers.]

Übersetzt von Chris Frey EIKE




… Umweltpakt … UNO auf dem Weg ins Mittelalter*

Der Entwurf geistert zur Begutachtung bereits im Bundeshaus herum  (Anm.: gemeint ist hier: in der Schweiz. Das schließt nicht aus, daß dieses Papier auch schon im Deutschen Bundestag „herum geistert“).

Es handelt sich, sollte der Pakt jemals durchkommen, was so sicher ist wie das Amen in der Kirche, um eine rechtlich unverbindliche, also dem demokratischen Prozess enthobene, dafür politisch um so verbindlichere Vorschriftensammlung. Staaten, die den Vertrag unterzeichnen, sind gehalten, den «Klimawandel» durch «staatliche Beihilfen» zu bekämpfen. Sie sollen alle staatlichen und wirtschaftlichen Unternehmungen auf ihre «Umweltverträglichkeit» hin prüfen lassen. Kontrollbürokratien sind aufzubauen, Berichte zu schreiben, und ausserdem verpflichten sich die Regierungen darauf, «Massen-Informationsmittel» bereitzustellen «mit erzieherischem Charakter über Ökosysteme und über die Notwendigkeit von Umweltschutz». Kurz: Propaganda.

Am besten aber finde ich Artikel 6, «Vorsorge»:

Im Falle eines Risikos von «schweren oder unumkehrbaren Umweltschäden», wie zum Beispiel durch Klimawandel, dürfe das «Fehlen von wissenschaftlicher Gewissheit kein Grund sein, wirksame und angemessene Massnahmen zur Verhinderung von Umweltschäden auf einen späteren Zeitpunkt zu verschieben».

Mit anderen Worten:

Umweltschutz ist für die Uno keine Frage wissenschaftlicher Gewissheiten mehr, sondern eine Art offenbarte, sich selbst rechtfertigende Glaubenswahrheit, die ausdrücklich auch ohne wissenschaftliche Grundlage gelten und nach der gehandelt werden soll.

Ohne es vermutlich zu wollen, offenbart der Uno-Umweltpakt damit den tief anti-aufklärerischen, geradezu mittelalterlichen Denkstil einer modernen, radikalen Umweltreligion, die Gott entmachtet und an dessen Stelle den Menschen in seiner Eigenschaft als gläubig-rot-grüner Politiker installiert hat.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : „Editorial“ | Die Weltwoche, Nr. 36 (2019) | 5. September 2019 ; http://www.weltwoche.ch/  …Wir bringen hier einen Auszug; EIKE dankt der Redaktion der WELTWOCHE und dem Autor Roger Köppel für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




ScienceFiles Analyse im Bundestag

Vor einiger Zeit haben wir in einem Beitrag die Methode “Powell” benutzt, also jene Methode “Powell”, auf die die Bundesregierung ihre Überzeugung stützt, dass “rund 99%” der Wissenschaftler, die sich mit Klimawandel befassen, der Ansicht seien, derselbe sei von Menschen verursacht, dass es darüber einen “Konsens” gebe. Sie wissen schon, der CO2-Hoax.

Wie wir schon mehrfach dargelegt haben, ist “Konsens” ein politisches Konzept, das in der Wissenschaft keinerlei Bedeutung hat. Ebenso wenig, wie die Ansicht der Bundesregierung in der Wissenschaft und für die Fakten keine Bedeutung hat. Wenn Frau Merkel, wie heute in der Welt berichtet, den Irrsinn in die Welt setzt, dass die Verteuerung von CO2-Emissionen ein “urmarktwirtschaftliches Konzept” sei, wobei das “ur”, vermutlich eine Anspielung an die Urhorde ist, von der Friedrich Engels so gerne fabuliert hat, dann hat dieser Blödsinn dieselbe Bedeutung für die Wissenschaft, nämlich keine. Marktwirtschaft bleibt auch weiterhin ein Konzept, das einen Markt OHNE staatliche Eingriffe in denselben beschreibt, egal, wie sehr Frau Merkel ihre wohl in der DDR erlernte Fähigkeit, durch die versuchte Umdefinition von Konzepten zu indoktrinieren und zu manipulieren, auch anwenden mag.

Es ist nicht umsonst so, dass politische Regime wie das von Frau Merkel ihre wirren Ideen mit viel Geld in die Wissenschaft tragen müssen, sich dort Wissenschafts-Darsteller, Opportunisten und Fake-Wissenschaftler kaufen müssen, um eine vermeintliche Legitimation für den eigenen Blödsinn herbeischreiben zu lassen.

Dass Politiker Wissenschaftler kaufen können, ändert nichts an der Realität, nur an der Menge von Unrat, die man beseitigen muss, um zur Realität vorzudringen.

Unrat ist das Stichwort, das uns zurückbringt zur “Methode Powell”, der sich die Bundesregierung voll und ganz angeschlossen hat. Wie wir hier gezeigt haben, kann man mit derselben Methode zeigen, dass es einen wissenschaftlichen Konsens von jeweils 97,5% (bzw. 99,4%), rund 99% für die Bundesregierung, darüber gibt, dass die Regierung Merkel die deutsche Wirtschaft zerstören und Armut herbeiführen will. Dass die UN ein kommunistisches Regime ist, das den Vorwand eines menschengemachten Klimawandels benutzen will, um Armut herbeizufüren, gilt demnach unter Wissenschaftlern mit einem Konsens von 99,9% (99,9%) als ausgemachte Sache. Zudem konnten wir mit der Methode „Powell“ zeigen, dass unter Bundestagesparteien ein Konsens von 93,3% darüber besteht, dass der Zweck ihres Daseins in Korruption und Selbstbereicherung besteht.

Der entsprechende Beitrag hat weite Kreise gezogen und ist bis in die Echokammer gelangt, in der sich Frau Merkel ihre Ansichten bestätigen lässt. Dort bringt die AfD-Fraktion seit einiger Zeit frischen Wind in den Muff aus tausend Jahren, der dieses Mal nicht unter den Talaren stinkt. Karsten Hilse, 2017 mit dem größten Stimmenanteil aller Wahlkreis-Bewerber über die Erststimme in den Bundestag eingezogen (er hat den Wahlkreis Bautzen I direkt gewonnen), hat unseren Beitrag in seiner Rede vor dem Bundestag verwendet, wie er uns hier geschrieben hat:

Für alle, die anhören wollen, wie ScienceFiles nun schon zum Debattenbeitrag wird, hier ist die Rede von Karsten Hilse:

Einzige Ergänzung unsererseits: Wir sind keine Journalisten – Himmel hilf. We are scientists for heaven’s sake.

Der Beitrag erschien zuerst bei ScienceFiles, hier

wir gratulieren dem Kollegen für seine nützliche Analyse.




Der älteste See Europas weist mehr als eine Million Jahre Klimageschichte auf

Link: https://www.nature.com/articles/s41586-019-1529-0

Aufmacherbild:

Die Forscher bohrten bis zu einer maximalen Tiefe von 568 Metern und einer Wassertiefe von 245 Metern. Damit ist das Vorhaben eines der erfolgreichsten Seebohrungen im Rahmen des Internationalen Continental Scientific Drilling Program (ICDP), mit dem das Team hochauflösende regionale Klimadaten über einen Zeitraum von mehr als 1,3 Millionen Jahren sammeln kann. Bildnachweis: Niklas Leicher

Der Ohridsee gilt als der älteste existierende See Europas. Das Projekt begann vor 15 Jahren mit ersten Voruntersuchungen, um das Alter des Sees zu bestimmen und die Klimageschichte des Mittelmeerraums besser zu verstehen. Die Tiefenbohrung fand 2013 statt. Mit einer maximalen Bohrtiefe von 568 Metern bei einer Wassertiefe von 245 Metern wurde sie zu einer der erfolgreichsten See-Bohrungen im Rahmen des International Continental Scientific Drilling Program (ICDP). Die Analyse des extrahierten Materials – der Bohrkerne mit ihren Sedimentschichten – dauerte fünf Jahre.

„Wir haben festgestellt, dass der See vor genau 1,36 Millionen Jahren entstanden ist und seitdem kontinuierlich existiert“, erklären die führenden Geologen Professor Dr. Bernd Wagner und Dr. Hendrik Vogel (Universität Bern). „Wir waren begeistert, als wir feststellten, dass wir einen der längsten und vollständigsten Seesedimentkerne aus dem ältesten See Europas gewonnen hatten. Die Möglichkeit zu haben, hochauflösende regionale Klimadaten über einen Zeitraum von mehr als 1,3 Millionen Jahren zu erhalten, ist der Traum eines jeden Klimaforschers.“

Die im See abgelagerten Sedimente ermöglichen es den Wissenschaftlern, die Klimageschichte der Region über diesen Zeitraum zu rekonstruieren, beispielsweise zu den Niederschläge. Die Bohrkerne liefern erstmals Datensätze über so lange Zeiträume. Dies kann nun mit Daten von Modellen verglichen werden. „Auf diese Weise helfen uns unsere Forschungen, die Ursachen der Regenphasen besser zu verstehen und die Auswirkungen des Klimawandels für zukünftige Vorhersagen genauer abzuschätzen“, sagt Prof. Wagner.

Die Sedimentdaten zeigen einen deutlichen Anstieg der Winterniederschläge im nördlichen Mittelmeerraum während der Warmzeiten. Das mediterrane Klima ist durch starke saisonale Kontraste zwischen trockenen Sommern und feuchten Wintern gekennzeichnet. Veränderungen der Winterregenfälle seien auf Zeitskalen der letzten Millionen Jahre schwer zu rekonstruieren, erklärt Wagner. Dies ist teilweise auf die Tatsache zurückzuführen, dass es bisher nur wenige regionale Hydoklima Aufzeichnungen gibt, die mehrere glazial-interglaziale Zyklen mit unterschiedlichen Erdbahn-Geometrien, dem globalem Eisvolumen und atmosphärischen Treibhausgaskonzentrationen abdecken.

Wie die Modellierungsdaten im Rahmen des Forschungsprojektes aufgezeigt haben, kam es vor allem in den Herbstmonaten zu einer verstärkten Tiefdruckbildung über dem westlichen Mittelmeer, die durch eine Erhöhung der Oberflächentemperaturen im Mittelmeer ausgelöst wurde. „Ähnliche Effekte könnten auch durch die gegenwärtige Klimaerwärmung hervorgerufen werden“, sagt Wagner.

###

Das ICDP-Bohrprogramm im Ohridsee wurde von der Deutschen Forschungsgemeinschaft (DFG), dem Bundesministerium für Bildung und Forschung, der Universität zu Köln und anderen internationalen Gebern finanziert.

Erschienen auf EurekAlert! am 03.09.2019

Aufmerksam geworden durch WUWT vom 03.09.2019

https://wattsupwiththat.com/2019/09/03/oldest-lake-in-europe-reveals-more-than-one-million-years-of-climate-history/

Übersetzt durch Andreas Demmig (Erst nach Abschluss meiner Übersetzung habe ich durch Google die deutsche Version auf der Webseite der Uni gefunden)




Merkel, das IPCC und die Geister, die sie rief: Teil3 – klägliche Solar-Ergebnisse

Unsere moderne Welt ist elektrisch. Das gilt für alle Bereiche des Privatlebens ebenso wie für Gewerbe, Industrie und Verwaltung. Ein Haus ohne Stromversorgung ist heute unbewohnbar. Ohne Strom würden die Patienten im Krankenhaus sterben, und es gibt – bis vielleicht auf ein paar Wanderschäfer – so gut wie kein Gewerbe, das heute noch ohne Strom auskommen würde. Und sei es nur für die Computer und Telekommunikationssysteme in der Verwaltung. In jahrzehntelanger Arbeit haben unsere Vorgängergenerationen aus dem Schutt der Zerstörungen des zweiten Weltkriegs eine der besten Stromversorgungen der Welt aufgebaut. Die Sicherheit dieser Stromversorgung ist im Sinne des Wortes existenziell für das Überleben unserer Zivilisation und damit der Gesellschaft. Bricht unser Netz zusammen, so wird es schon nach kurzer Zeit gravierende Schäden geben, wenn Versorgungsketten und Kommunikation zusammenbrechen. Ohne Strom funktionieren Ampeln und Verkehrssignalisation genauso wenig wie die Mobiltelefone, mit denen z.B. Hilfe für Verletzte nach Unfällen oder für Kranke nach Herzinfarkten herbeigerufen werden könnte. Wer funktionierende Kraftwerke flächendeckend abschalten will, wie es die deutsche Regierung derzeit vorhat, sollte eigentlich nachweisen können, dass und wie gut der vorgesehene Ersatz die künftige Stromversorgung unserer Nation sichern kann. Schauen wir uns daher zunächst an, was eine künftige Stromversorgung leisten muss.

Ohne Strom keine moderne Zivilisation

Elektrizität ist das Lebensblut unserer Zivilisation. In so gut wie allen technischen Geräten vom Telefon über Produktionsmaschinen bis zum Auto sind heute Mikroprozessor- oder Computersteuerungen integriert. Diese reagieren meist äußerst empfindlich auf Störungen der elektrischen Versorgung. Schon sehr kurze Unterbrechungen im Sekundenbereich können dazu führen, dass ganze Fabriken zum Stillstand kommen oder IT-Systeme in den Streik treten. Da die Regierung vorhat, sowohl Kohle- als auch Kernkraftwerke stillzulegen und durch Wind- und Solarstromerzeugung zu ersetzen, wollen wir einen Blick darauf werfen, wieweit diese beiden künftigen Hauptlieferenten für Strom imstande sind, die Kriterien „bedarfsgerecht“ und „sicher“ zu erfüllen. Dass sie angesichts ihrer offenkundig exorbitanten Kosten nicht bezahlbar sind, wurde ja bereits im Teil 2 dieser Analyse besprochen.

Der Strombedarf Deutschlands

In unserer komplexen arbeitsteiligen Gesellschaft ist Zeit ein entscheidender Faktor. Ein Patient mit Herzinfarkt braucht SOFORT medizinische Hilfe. Moderne Produktions- und Logistikketten können nur funktionieren, wenn alle Leistungen vom Rohstoff bis zur fertigen Ware stets genau dann erbracht werden, wenn sie benötigt werden. Lebensmittelfabriken funktionieren ebenso nach diesem Prinzip wie Automobilwerke oder die Logistikketten, über die empfindliche Güter wie Impfstoffe oder Blut- und Gewebeproben für die Medizin gekühlt und innerhalb vorgeschriebener Zeiträume an ihren Bestimmungsort gelangen müssen. Dazu muss Strom jederzeit in der benötigten Menge abrufbar sein. Die Frage ist daher zunächst, ob Sonne und Wind diese Voraussetzungen erfüllen können. Bei der Betrachtung des Bedarfsprofils muss zwischen den Jahreszeiten, den verschiedenen Wochentagen und dem jeweiligen Tagesverlauf unterschieden werden, Bild 2, Bild 3 und Bild 4.

Bild 2. Tagesdurchschnitte des Leistungsbedarfs (entspricht der mittleren Netzlast) im Verlauf des Jahres 2018 (Grafik und Berechnungen: Autor, Daten)

Wie an den in Bild 2 aufgetragenen Tagesdurchschnitten des Leistungsbedarfs zu erkennen ist, unterliegt der Bedarf ständigen Schwankungen. Während er in der Woche am höchsten ist, sind die Wochenenden durch deutliche Rückgänge gekennzeichnet. Dem überlagert sich eine jahreszeitbedingte Schwebung aufgrund des erhöhten Bedarfs an Wärme und Beleuchtung in der kalten Jahreszeit. Besonders ausgeprägt ist der Rückgang in der Weihnachtszeit infolge der Betriebsruhe in weiten Teilen von Gewerbe und Industrie. Den niedrigsten mittleren Tages-Leistungsbedarf mit nur 44.617 MW gab es erwartungsgemäß an einem Sonntag in der Jahresmitte (3.6. 2018). Der höchste Wert wurde dagegen mit 78.175 MW an einem Donnerstag Anfang März (1.3.1208) verzeichnet. Grund hierfür war ein massiver Kälteeinbruch in den ersten Märztagen mit Nachttemperaturen bis zu -19 °C.

Bild 3. Wochen mit dem höchsten (26.2.2018-4.3.2018) bzw. niedrigsten (27.5.2018-3.6.2018) Verlauf der Netzlast (Grafik und Berechnungen: Autor, Daten)

In Bild 3 zeigt sich der typische Verlauf des Strombedarfs innerhalb der Woche sowie im Verlauf der einzelnen Wochentage. An Arbeitstagen ist der Bedarf wegen der laufenden Produktion erhöht und fällt zum Wochenende dann deutlich ab. Zeiten mit höheren Außentemperaturen und längerer Tageshelligkeit im Sommer bedingen einen erheblich geringeren Strombedarf als kalte Perioden in den Wintermonaten. So trat der höchste Strombedarf am 1.3.2018 (Donnerstag) um 12:30 Uhr auf, während der niedrigste Wert in den frühen Morgenstunden des 3.6.2018 (Sonntag) um 04:45 Uhr verzeichnet wurde. Auffällig ist hierbei, dass die Tag-Nacht-Schwankungen im Winter eher moderat ausfallen, während sie im Sommer deutlich stärker ausgeprägt sind.

Bild 4. Die Tage mit dem höchsten (1.3.2018) und niedrigstem (3.6.2018) Strombedarf zeigen tagestypische Profile für Werk- bzw. Feiertage im Winter- bzw. im Sommerhalbjahr (Grafik und Berechnungen: Autor, Daten)

Auch an Bild 4 fällt auf, dass der prozentuale Unterschied zwischen höchster und niedrigster Netzlast an einem Werktag im Winter mit nur 34 % deutlich geringer ausfällt als im Sommer, während der Rückgang am Wochenende im Sommer 55 % betragen kann. Ungeachtet der Tatsache, dass Hausheizungen heute weit überwiegend fossil betrieben werden, hängt der private Stromverbrauch offensichtlich sehr stark von der Witterung sowie der Dauer des Tageslichts ab.

Können Sonne und Wind bedarfsgerecht liefern?

Entscheidend für ein künftiges Stromkonzept ist letztlich die Frage, wieweit Sonne und Wind imstande sind, den oben aufgezeigten Bedarf der Bevölkerung – und dazu gehört auch der Strombedarf für ihre Arbeitsplätze – auch anforderungsgerecht zu decken. Schließlich sind Solarstrahlung und Wind Wetterphänomene, die zumindest lokal starken Schwankungen unterliegen. Die Vertreter der „erneuerbaren“ Energien behaupten hierzu häufig, dass sich dies über die Größe des Landes und die saisonal gegenläufige Produktion von Wind- und Solarsystemen ausgleiche. Typischer Spruch ist in diesem Zusammenhang: „Irgendwo weht immer Wind, und Sonne und Wind gleichen sich über die Jahreszeiten hinweg gegenseitig aus“. Schauen wir uns deshalb typische Charakteristiken dieser Erzeugungstechnologien an.

Sonnenstrom: Teils hervorragende Berechenbarkeit

Sonnenstrom ist die einzige „erneuerbare“ Energie, deren Verfügbarkeit mit hoher Präzision vorausberechnet werden kann, allerdings lediglich was ihre Nichtverfügbarkeit angeht: In den Nachtstunden liefern die in Deutschland installierten Fotovoltaikanlagen trotz ihrer enormen Kapazität von 43.037 MW mit höchster Zuverlässigkeit Null Strom. Der tatsächliche Nutzungsgrad dieser teuersten aller „EE“-Stromerzeuger lag im Durchschnitt des (außergewöhnlich sonnenreichen) Jahres 2018 bei rund 10,9 % und ist damit der schlechteste aller „erneuerbaren“ Stromerzeuger. Was die Stromerzeugung während der hellen Stunden des Tages angeht, so muss auch hier zwischen Jahresverlauf und Tagesverlauf unterschieden werden. Schauen wir uns dazu Bild 5, Bild 6 und Bild 7 an.

Bild 5. Gegenüberstellung der Tagesproduktion an Solarstrom zum jeweiligen Tagesbedarf in MWh/ d (Grafik und Berechnungen: Autor, Daten)

Schon ein kurzer Blick auf Bild 5 zeigt, dass Solarstrom trotz seiner überproportionalen Kosten (10,3 Mrd. € bzw. 38,2 % der EEG-Auszahlungen im Jahr 2018) und ungeachtet der außergewöhnlich hohen Sonnenstundenzahl des Jahres 2018 per Saldo nur 20 % des gesamten „EE“-Strombudgets geliefert hat. Zudem erzeugt die Fotovoltaik gerade dann kaum Strom, wenn der Bedarf in der kalten und dunklen Jahreszeit besonders hoch ist. Während die Sonnenpaneele am Best-Tag (6.5.2018) immerhin 20,39 % des benötigten Stroms ins Netz lieferten, waren es an ihrem schlechtesten Tag (21.12.2018) nur klägliche 0,40 %.

Bild 6. Der Beitrag der solaren Stromerzeugung zur Netzlast von 73.205 MW lag am 21.12.1018 selbst in der Spitze zur Mittagszeit bei geradezu kläglichen 1.414 MW (Grafik und Berechnungen: Autor, Daten)

Bild 6 zeigt überdeutlich, dass man den Beitrag der Fotovoltaik zur Stromversorgung an trüben Wintertagen getrost vergessen kann. Strom steht nur an den 7 Stunden von ca. 8:30 bis 15:30 zur Verfügung und selbst dann nur in Mengen, die selbst in der Spitzenzeit zur Tagesmitte nur etwa 2 % des Bedarfs decken können.

Bild 7. Leistungsabgabe der deutschen Solaranlagen am Tag mit der höchsten Produktion im Vergleich zum Tag mit der geringsten Produktion (Grafik und Berechnungen: Autor, Daten)

Auch Bild 7 verdeutlicht den katastrophalen Einbruch der Fotovoltaikleistung in der kalten Jahreszeit. Während die deutschen Solarpaneele am Mittag des 2.7.2018 insgesamt 29.051 MW und damit 67 % ihrer theoretischen Höchstleistung ablieferten, kamen sie am 21.12.2018 mit 1.414 MW auf lediglich 3 % der nominellen Kapazität. Fotovoltaikstrom ist daher nicht einmal bedingt für die Versorgung einer modernen Industrienation geeignet, selbst wenn es gelingen sollte, eine halbwegs taugliche Speicherlösung zu entwickeln. Das Handicap liegt darin, dass eine Speicherung nicht nur den Tag-Nacht-Zyklus, sondern darüber hinaus auch noch den halbjährigen saisonalen Sommer-Winter-Zyklus abdecken müsste, was die Installation von utopisch großen Speicherkapazitäten voraussetzt. Zudem sind die dadurch bedingten sehr langen Lade- und Entladezyklen mit klassischen Batterietechnologien nicht sinnvoll darstellbar. Anbieter, die Privatleuten solche Konzepte anzubieten versuchen, können als unseriös eingestuft werden. Der weitere Ausbau bzw. jegliche öffentliche Förderung von Fotovoltaiklösungen sollten daher möglichst sofort eingestellt werden.

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7