1

Die Grünen verkleiden den grünen Bankrott-Panikverkauf als „erneuertes Interesse“

Fütterung des Rausches im Bereich erneuerbare Energie in Spanien

Ein Wind der Veränderung weht den spanischen Erneuerbaren um die Ohren: Unternehmen und Investment Fonds befanden sich in einer Kauforgie. Sie nutzten das Wissen und die Wachstumsaussichten eines Bereiches, der immer noch aus einer Krise heraus taumelt.

Im Jahre 2015 „erreichten die Transaktionen eine Größenordnung von 5 Milliarden Euros)“, sagte Joao Saint-Aubyn, ein in Madrid ansässiger Energieexperte bei der globalen Beratungsfirma Roland Berger.

Mit Abstand die größte davon war der Kauf der mit Privatkapital betriebenen US-Firma Cerberus durch den Erneuerbaren-Spezialisten Renovelia für etwa eine Milliarde Euro, und der Ausverkauf der Investment-Gruppe KKR von Gestamp Solar für einen ähnlichen Preis.

Und es ist unwahrscheinlich, dass der Zahlungswahnsinn abstirbt, liebäugelt doch der deutsche Industrie-Riese Siemens mit dem Windkraft-Unternehmen Gamesa, und von Cerberus nimmt man an, dass man dort überlegt, sich mit dem US-Milliardär George Soros zusammenzutun, um T-Solar und deren Solarparks zu schlucken.

Polo fügt hinzu, dass ein weiterer starker Pfeiler des Windenergie-Bereiches in Spanien ist, dass in der gesamten Produktionskette involvierte Unternehmen im ganzen Lande präsent sind.

Das Know-How der Unternehmen hat es ihnen erlaubt, „Projekte anderswo auf der ganzen Welt“ an Land zu ziehen“, sagte Rubio.

Gamesa beispielsweise liegt unter den fünf größten Windturbinen-Herstellern der Welt und ist außerdem fest etabliert in vielen Entwicklungsländern wie Indien, Brasilien und China – was für Siemens von größtem Interesse ist.

Um jedoch dem Wachstum folgen zu können, brauchen sie Geld.

Aber viele Eigentümer von Windparks „kämpfen schon jetzt schwer mit ihren Schulden“, sagt die AEE nach dem abrupten Rückgang der Subventionen der öffentlichen Hand.

Mehr dazu hier.

Als Folge des Pariser Abkommens scheinen sich drei wesentliche Strategien für Investitionen abzuzeichnen: Eine Strategie geht davon aus, dass hoch verschuldete, nach Geld gierende Regierungen noch weiter in punkto Subventionen ausgequetscht werden können – dass man sich auf Politiker verlassen kann, dass diese sich an ihre regelmäßig „überarbeiteten“ Verpflichtungen halten (hier), um unökonomische Programme bzgl. erneuerbarer Energie großzügig zu subventionieren (hier).

Die zweite Strategie ist spekulativer Natur – Kernfusion, nächste Generation von Kernkraft. Technologien, die spektakuläre Gewinne versprechen, wenn die technischen Schwierigkeiten erst einmal überwunden sind.

Die dritte Strategie fußt auf Beweisen und auf auf Beweisen basierenden Vorhersagen eines weiteren gewaltigen Anstiegs des Verbrauchs fossiler Treibstoffe sowie auf weiteren massiven Investitionen (hier) in einen Energiebereich, der nicht von Regierungs-Subventionen abhängig ist, um Profite abzuwerfen.

Link: https://wattsupwiththat.com/2016/05/02/greens-reframe-spains-green-bankruptcy-fire-sale-as-renewed-interest/

Übersetzt von Chris Frey EIKE




Beeinflusst die Sonnenaktivität die Luftströmungen über Deutschland?

Bild rechts: Sonnenaufgang (mit undeutlicher „Nebensonne“) bei Jena. Foto: Stefan Kämpfe

Einleitung

Die Sonnenaktivität unterliegt kurz-, mittel- und langfristigen Schwankungen. Ein sehr grobes, aber mit geringem Aufwand zu beobachtendes und daher das einzige über längere Zeiträume verfügbare Maß der Sonnenaktivität ist die Anzahl der Sonnenflecken (dunklere und damit etwas kühlere Bereiche auf der Sonnenoberfläche, die meist auf einen erhöhten solaren Magnetismus und Teilchenauswurf hindeuten). Da für diese Arbeit nur Daten im Zeithorizont von knapp 70 bis 135 Jahren verfügbar waren, sollen als wichtigste Aktivitätszyklen nur der SCHWABE- Zyklus (etwa 11jährig), der HALE- Zyklus (22jährig), der BRÜCKNER- Zyklus (etwa 35jährig, strittiger, von vielen Forschern angezweifelter Zyklus), der GLEISSBERG- Zyklus (knapp 90jährig) und der DE- VRIES- SUESS- Hauptsonnenzyklus (etwa 200jährig) genannt werden. Es gibt auch noch längere Zyklen von 1000 bis über 2000 Jahren Länge, deren Existenz mittels Proxydaten, unter anderem der Konzentration bestimmter Isotope, nachgewiesen wurde. Den ähnlichen Verlauf zwischen der Sonnenaktivität und den mittleren Temperaturabweichungen in Mitteleuropa verdeutlichen die folgenden 2 Abbildungen:

Abb. 1a und 1b: Anomalien der Sonnenfleckenanzahl je SCHWABE- Zyklus (oben) und mittlere Temperaturabweichung in Mitteleuropa je SCHWABE- Zyklus (unten), jeweils mit Polynom- Ausgleichskurven (schwarz). Quelle: H. MALBERG, ehemaliger Direktor des meteorologischen Instituts der FU Berlin. Die Ähnlichkeit beider Verläufe ist unverkennbar; in Phasen mit weniger Sonnenflecken (geringere Aktivität) dominierten negative, in Phasen mit erhöhter Sonnenaktivität hingegen positive Temperaturabweichungen.

Die nächste Abbildung veranschaulicht den Zusammenhang zwischen Sonnenaktivität und Lufttemperaturen anhand des GLEISSBERG- Zyklus:

Abb. 2: Enge Korrelation zwischen der an der Erdoberfläche gemessenen Lufttemperatur der nördlichen Hemisphäre (dicke Kurve) und der Intensität der Sonnenfleckentätigkeit im säkularen Gleissberg- Zyklus (dünne Kurve) nach Friis-Christensen und Lassen. Quelle: http://www.schulphysik.de/klima/landscheidt/sonne2.htm

Untersuchungsergebnisse

Der Autor dieses Beitrages beschäftigt sich seit einigen Jahren mit der Entwicklung der Häufigkeitsverhältnisse der Großwetterlagen in Mitteleuropa und fand dabei Zusammenhänge zwischen der Häufigkeit bestimmter Wetterlagen und der Sonnenaktivität:

Abb. 3a und 3b: Sonnenfleckenanzahl und Großwetterlagenhäufigkeiten (jeweils 11jährige Gleitmittel, Großwetterlagen- Cluster aus den Großwetterlagen nach HESS/BREZOWSKY). Oben tendenziell mehr Lagen mit nördlichem Strömungsanteil (blau) im Jahresmittel in Phasen mit geringerer Sonnenaktivität (gelb). Lagen mit nördlichem Strömungsanteil wirken in Deutschland meist abkühlend, besonders im Frühling und Frühsommer. Unten Häufigkeit atlantischer Tiefdruckwetterlagen (violett, diese windigen Westlagen sind im Winter meist mild) und der Troglagen (extrem meridionales Strömungsmuster, die Westdrift ist blockiert) im Winter. In Phasen mit höherer Sonnenaktivität häuften sich meist auch die atlantischen Tiefdruckwetterlagen; in Phasen mit geringer Sonnenaktivität (so auch gegenwärtig!) hingegen die Troglagen.

Die Großwetterlagenhäufigkeit (langfristig bis 1881, mit Unsicherheiten bis 1871 verfügbar sind nur die nach HESS/ BREZOWSKY klassifizierten Lagen) wird jedoch auch von zahlreichen anderen Eiflussfaktoren gesteuert, unter anderem von der NAO und der QBO (Nordatlantische Oszillation, und Quasi- zweijährige Oszillation der Stratosphärenwindrichtung, bedeutsam sind beide für die winterlichen Temperaturverhältnisse), der AMO (Atlantische Mehrzehnjährige Oszillation), den Temperaturverhältnissen im Indik und Pazifik, der arktischen Eisbedeckung und weiteren Faktoren. Näheres unter anderem bei http://www.eike-klima-energie.eu/climategate-anzeige/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ und http://www.eike-klima-energie.eu/climategate-anzeige/winter-201415-in-deutschland-erneut-zu-mild-warum/

Die Großwetterlagen werden aber ganz maßgeblich durch die Verhältnisse in höheren Luftschichten geprägt. In sogenannten Aerologischen Datensätzen findet man monatsweise Angaben zu den Windverhältnissen in höheren Luftschichten und Angaben zu den Höhenlagen der Druckflächen. Der „Zonalwind“ ist ein Maß für die Stärke des entlang der Breitenkreise (West- Ost-Richtung) wehenden Windanteils. Hat er ein positives Vorzeichen, so weht er aus Westen; bei negativem aus Osten. Im Folgenden wurde die Zonalwindstärke in der 500hPa- Druckfläche für den Gitterpunkt 50°N 10°E (liegt etwas südlich der Rhön und damit zentral in Deutschland) im Verhältnis zur Sonnenaktivität für den meteorologischen Winter (01.12. bis 28./29.02.) seit 1948/49 und für das Jahr seit 1948 dargestellt:

Abb. 4a und 4b: Zonalwindmittel (rot) für die Druckfläche 500 hPa (entspricht etwa 5.600 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E, dazu die Sonnenaktivität (gelb, jeweils unten) und der Verlauf der AMO (grün, jeweils oben). Fette Kurven Polynome 6. Grades, etwas dünnere, dunklere 11jährige Gleitmittel (bei der AMO nicht gezeigt). Obere Abb. Verhältnisse im meteorolog. Winter, untere für das Jahr. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit. Zur AMO ergeben sich auf den ersten Blick keine eindeutigen Beziehungen; hier sind weitere Untersuchungen erforderlich.

Da Mitteleuropa in der Westwindzone der gemäßigten Breiten liegt, weht der Zonalwind im Jahresmittel stets und im Monatsmittel fast immer aus Westen (positives Vorzeichen). Weil die Witterungsverhältnisse am Boden von der Strömung in der mittleren Troposphäre ganz wesentlich gesteuert werden, gibt es in Zeiten mit höherer Zonalwindgeschwindigkeit tendenziell mehr Westlagen, was vorrangig im Winter, aber auch im Jahresmittel, zu höheren Lufttemperaturen in Deutschland führt (Golfstrom- Einfluss im weitesten Sinne):

Abb. 5a und 5b: Eine höhere Zonalwindgeschwindigkeit in der mittleren Troposphäre geht mit einer erhöhten Häufigkeit von Großwetterlagen mit Westanteil einher. Mit einem Korrelationskoeffizienten von r=0,59 (Bestimmtheitsmaß knapp 0,35) ist der Zusammenhang signifikant (oben). Mehr Lagen mit Westanteil bedeuten tendenziell höhere Jahresmitteltemperaturen in Deutschland (untere Abb.). Zwar ist der Zusammenhang mit r= 0,32 relativ undeutlich; betrachtet man aber nur den Winter, so ergibt sich im Zeitraum 1948/49 bis 2015/16 ein Korrelationskoeffizient von r=0,72 (Bestimmtheitsmaß knapp 52%), was hoch signifikant ist.

Abschließend werfen wir noch einen kurzen Blick auf die Höhenlage der 500 hPa- Druckfläche. Liegt diese höher, so befindet sich Warmluft in der mittleren und unteren Troposphäre, was meist (mit Ausnahmen!) auch höhere Lufttemperaturen am Boden zur Folge hat. Eine höhere Lage der 500 hPa- Druckfläche ist auch ein Indiz für eine nördlichere Lage des Jet- Streams und damit für ein insgesamt günstigeres (wärmeres) Klima in Deutschland. Der Zusammenhang zwischen Sonnenaktivität und Höhenlage der 500 hPa- Druckfläche ist geringer als beim Zonalwind, aber dennoch erkennbar; hier das Beispiel für den Winter:

Abb. 6: Im Winter erkennt man einen ähnlichen Verlauf der Höhenlage der 500 hPa- Druckfläche (rotviolett) und der Sonnenaktivität (gelb), beides mit 11jährigem Gleitmittel.

Zusammenfassung und Ausblick

Die Sonnenaktivität beeinflusst die Luftströmungen und Witterungsverhältnisse in Deutschland. Deutlich erkennbare Zusammenhänge bestehen zu den Häufigkeitsverhältnissen der Großwetterlagen (tendenziell mehr „Westwetter“ in Phasen mit hoher, aber mehr Nord- und Trogwetterlagen in Phasen mit geringerer Sonnenaktivität) und zu den Windverhältnissen in höheren Luftschichten (tendenziell erhöhte Westwind- Geschwindigkeit in Phasen mit erhöhter Sonnenaktivität). Ob auch Zusammenhänge zwischen der Sonnenaktivität, Höhenwindverhältnissen und der AMO bestehen, ließ sich, auch aufgrund des kurzen Untersuchungszeitraumes (die Aerologischen Daten waren erst ab 1948 verfügbar), nicht klären. Doch welche Bedeutung haben diese Untersuchungsergebnisse für die nahe Zukunft? Um diese Frage zu klären, betrachten wir zunächst einmal die Entwicklung und die Prognose der Sonnenaktivität im frühen 21. Jahrhundert:

Abb. 7: Monatlicher Verlauf der Anzahl der Sonnenflecken seit Januar 2000 mit Glättung (blau) und Prognose für die nächsten Jahre (rot). Der aktuelle SCHWABE- ZYKLUS Nr. 24 (rechte Bildhälfte) war schon deutlich schwächer als der 23. Zyklus, der sein Maximum kurz nach Beginn des Jahres 2000 hatte. Man erkennt die zu erwartende weiter nachlassende Aktivität (ganz rechts). Datenquelle http://www.swpc.noaa.gov/products/solar-cycle-progression

Da Witterung und Klima verzögert auf die nachlassende Sonnenaktivität reagieren, konnten wir uns in den ersten 15 Jahren des 21. Jahrhunderts noch über vorwiegend warmes Wetter freuen. Zwischen Ende 2002 und 2012 gab es jedoch schon erste, heftige Kälterückfälle (Winter 2002/03, 2004/05, 2005/06, 2008/09, 2009/10, 2010/ 11 und 2011/12). Nach dem noch sehr milden Winter 2015/16 ist die lang anhaltende Kälte zwischen Ende Februar und Ende April 2016 ein weiterer, möglicher Hinweis der beginnenden (vorwiegend solar bedingten) Abkühlungsphase, einhergehend mit einer ersten Häufung nördlicher Wetterlagen. Im „Horror- April“ 2016 gab es am Monatsanfang und noch nach dem 25.04. bergeweise Schnee in den Mittelgebirgen; aber selbst in tieferen Lagen schneiten die Frühlingsblüten teilweise ein:

Abb. 8: April- Schnee verdarb 2016 häufig die Frühlingsgefühle und die Baumblüte- ein Vorbote der möglichen Klimaabkühlung oder eine bloße Laune der Natur? Foto: Stefan Kämpfe

Und was passiert nach 2020? Die meisten Astrophysiker gehen von einer weiter nachlassenden Sonnenaktivität aus; der kommende 25. SCHWABE- Zyklus dürfte extrem schwach werden oder ganz ausfallen:

Abb. 9: Verlauf der Sonnenfleckenzahlen seit 1749. Man erkennt die sehr hohe Aktivität in der 2. Hälfte des 20. Jahrhunderts. Der nächste (25.) SCHWABE- Zyklus, der um oder kurz nach 2020 beginnen müsste, könnte extrem schwach ausfallen; diese Prognose ist aber noch sehr unsicher. Quelle der Abb. klimaskeptiker.info vom 25.01.2012, überarbeitet von Stefan Kämpfe

Schon ist ein neues „Maunder- Minimum“ (Höhepunkt der „Kleinen Eiszeit“ um 1680) in aller Munde. Aber selbst wenn dieses Horror- Szenario ausbleiben sollte und die Sonne weniger stark schwächelt, mit wieder öfter strengen Wintern, einer mindestens leichten Gesamtabkühlung und mit häufigeren Witterungsextremen müssen wir sehr wahrscheinlich rechnen. Die "Klimaerwärmung" findet nur in den realitätsfernen Modellrechnungen der überfinanzierten Klimaforschungsinstitute statt.

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




U.A.w.g- arte Sendung: Die große Stromlüge -verlogener kann eine Sendung nicht sein

Peter Würdig, Oberreihe 5, 21782 Bülkau-Aue

Infoo@pww.dewww.pww.de

Datum: 9.4.2016

Sendung: Die Stromlüge

im Kanal Arte der ARD

Stellungnahme.

Bei dieser Sendung muss man sich fragen, ist es tatsächlich die Stromlüge oder ist nicht vielmehr die Sendung selbst die Lüge, zumindest fällt auf, dass die Sendung eine verworrene Anhäufung von fragwürdigen Teil-Aspekten des Themas ist und dass den Autoren eine fachliche Beratung insbesondere im Bereich der Ingenieurwissenschaften wohl gefehlt hat, anders kann man sich die vielen Fehler nicht recht erklären.

Video der arte Doku: Die große Stromlüge; In der Mediathek gibt arte fälschlich den 19.4.16 als Termin der Erstausstrahlung an (hier)

Es werden im folgenden Beispiele von fragwürdigen Teilen der Sendung besprochen, ohne Anspruch auf Vollständigkeit. 

Punkt eins.

Im Anfang der Sendung wird gezeigt, dass durch die hohen Preise für elektrische Energie Menschen in der Folge zu leiden haben, da sie dadurch ihre Wohnung nicht ausreichend beheizen können. Der Fehler ist, dass elektrische Energie eigentlich nicht für Zwecke der Beheizung von Wohnungen verwendet werden sollte, denn dabei würde Edel-Energie in minderwertige Energie umgewandelt. Stattdessen wäre es besser, die Wohnung mit fossilen Brennstoffen, am besten mit Holz zu beheizen, und wenn die Dame nun zu alt und zu gebrechlich ist um selbst Holz zu sammeln oder zu beschaffen, dann müssten das ihre Kinder tun oder eine soziale Einrichtung. Hohe Strompreise haben auf die Kosten von Brennholz nur eine untergeordnete Wirkung.

Nun wird in der Sendung auch davon gesprochen, dass die Preise für Gas zu hoch sind, aber diese wiederum sind nicht eine unmittelbare Folge der Preise für elektrischen Strom, und das ist ein Beispiel, wie in der Sendung verschiedene Dinge ziemlich unreflektiert zusammengeworfen werden. Fragwürdig auch, warum man gerade England als Beispiel für Kälte-Tote heranzieht, der Winter bringt in Ländern wie Estland oder Norwegen ganz andere Anforderungen als der verhältnismäßig milde Winter auf der britischen Insel. 

Punkt zwei

„Strom sollte billiger werden und verstärkt aus erneuerbaren Energien gewonnen werden.“ Das ist ein Widerspruch in sich. Die sog. „erneuerbaren Energien“ konnten von Anfang an nur durch massive Subventionsversprechen in Gang gebracht werden, diese Subventionen muss am Ende der Verbraucher bezahlen, die Teuerung war das politische Ziel, einzig der Umfang der Teuerung wurde bewusst nicht klar dargestellt. Bekannt ist die Aussage von Trittin, diese Teuerung wäre nur vergleichbar mit dem Preis einer Eiswaffel pro Monat für eine Familie, und für so einen bescheidenen Aufpreis sollte man sich eine Energieerzeugung, die aus ideologischen Gründen im Sinne einer Heilsbotschaft als besonders edel dargestellt wurde, wohl leisten können. Bei dem Aufpreis in Höhe einer Eiswaffel ist es geblieben, aber eben nicht pro Monat sondern pro Tag oder pro Stunde oder in noch kürzeren Zeitabschnitten.

Lüge also hier: billiger werden war gar nicht beabsichtigt, teurer sollte es werden, fragt sich nur, wie viel  teurer.

Allen Anhängern von „grünen“ Energien war immer bewusst, dass sie das, was da als Botschaft verkündet wurde, ziemlich teuer sein würde, und deshalb kam immer wieder die Hoffnung und die Prognose, dass die konventionellen Energien sich verknappen und teurer werden würden sodass sich dann ihr Lieblingskind auch ökonomische rechnen würde. Diese Prognose ist allerdings nicht aufgegangen, die konventionellen Energien haben ihren Preis einigermaßen halten können oder wurden nur maßvoll teurer, und da die „grünen“ Energien auch jetzt  nicht mithalten können versucht man, die konventionellen Energien künstlich zu verteuern, indem man ihnen sog. „externe“ Kosten zurechnet (was weitgehend ein Phantasieprodukt ist) oder indem man sie mit zusätzlichen Abgaben belastet um den Preis irgendwie in die Höhe zu treiben. 

Punkt drei.

„Liberalisierung des Strommarktes“. Über Liberalisierung  auf europäischer Ebene kann man nachdenken, aber die Voraussetzung ist schon mal die Liberalisierung im nationalen Rahmen, und schon daran fehlt es, insbesondere der politische Wille dazu. In Deutschland wurde Liberalisierung und Marktwirtschaft praktisch abgeschafft, vor allem durch das EEG und den Atomausstieg. Statt Marktwirtschaft gab es den Einstieg in eine Planwirtschaft mit weitgehend staatlichen Vorgaben, Unternehmen, die in der Lage waren, Strom sehr preiswert anzubieten wurden durch staatliche Gewalt gezwungen ihre Anlagen stillzulegen, und sog. Erneuerbare Energien wurden durch ein sehr kostspieliges Subventionssystem in die Produktion gebracht, dadurch wiederum wurden sehr moderne Anlagen wie Gaskraftwerke unrentabel und zum Aufgeben gezwungen, ebenso kommunale Anbieter, insgesamt ein desaströses System, das mit „Liberalisierung“ nichts hat, es ist das Gegenteil davon.

In Frankreich wiederum ist die Situation ganz anders, es gibt ein staatliches Monopol, die EDF, und damit hat man alle Vorteile, die ein marktwirtschaftliches System hätte gar nicht erst angefangen.

Liberalisierung auf europäischer Ebene ist auch nur eine Sprechblase, denn alle, die das schwafeln übersehen geflissentlich, dass es technische Gegebenheiten sind, die das vereiteln, denn elektrische Energie kann man über sehr große Entfernungen eben nur mit erheblichen Verlusten transportieren, daher scheitert das von Anfang an. Typisch ist jedoch, dass alle die, die von Technik nichts verstehen, weiter in diesem Sinne schwadronnieren, wie das real aussehen soll und wo die Kosten liegen, das hat da noch keiner ausgerechnet.

Punkt vier

„Positives Gefühl mit der Energiewende“, das ist zunächst richtig, denn einerseits gibt es eine massive Propaganda in den staatlich gelenkten Medien, die den Menschen Illusionen vorgaukelt, und zweitens ist es eben nur „das Gefühl“, man fühlt zwar, aber man denkt nicht nach, und gerechnet wird schon gar nicht, das heißt, der Verstand ist weitgehend ausgeschaltet. 

Punkt fünf

„97 % der Jugendlichen wollen nur eneuerbare Energien“. Hier wird die Unwissenheit von jungen Menschen rücksichtslos ausgenutzt. Wenn diese jungen Menschen ihr Haus an erneuerbare Energien anschließen würden sie sehr bald merken, was es heißt, mit der Stromversorgung vom Wetter abhängig zu sein und manchmal Stunden und Tage im Dunkeln und in Kälte zu sitzen, da würde sich die Einstellung zu dieser Energieart sehr schnell ändern. Es stellt sich nur die Frage, warum man diese Frage nicht diesem Schwätzer, dem Herrn Fell, einmal gestellt hat und welche Ausreden er dann von sich gibt. 

Punkt sechs

„Man hat nicht gegen gesteuert durch Klimaschutzinstrumente“. Wie sollen denn diese „Instrumente“ aussehen ? Man will (oder soll) durch Abgaben die Kohle teurer machen, aber das nützt nichts, das würde nur den Preis weiter in die Höhe treiben, denn nachts ist es dunkel, Photovoltaik liefert also nichts, und Wind ist auch nur manchmal da, also müssen Kohle und/oder Kernenergie weiter liefern und auch ständig in Bereitschaft gehalten werden, was auch schon enorm kostet. Aus diesem Dilemma gibt es keinen Ausweg, und da hilft auch alle Schwätzerei der Kempfert nicht. Das war übrigens von Anfang an allen Beteiligten bekannt, aber man hat sich selbst was in die Tasche gelogen (und tut das erst mal weiter so).

Auch Zertifikate als „Klimaschutzinstrumente“ helfen hier nicht, der Sinn der Zertifikate ist es ja, den Produzenten auf eine Alternative der Energieerzeugung zu schieben, aber diese Alternative ist technisch nicht realisierbar, denn zuverlässige elektrische Energie gibt es eben nur durch Kohle oder Atom. Auch der Gedanke, durch verbesserte Effizienz noch etwas zu erreichen geht fehl, denn dieses Potential ist in aller Regel inzwischen weitgehend ausgenutzt, da ist das Ende der technischen Möglichkeiten nahezu überall erreicht.

Punkt sieben

Die angeblichen Gefahren der Kohle-Energie werden übertrieben, denn die Filter-Elemente stehen auf dem neuesten Stand der Technik. Von diesen Leuten (BUND und andere) werden gerade der Bau neuerer Kraftwerke mit verbesserter Technik so weit wie möglich verhindert, aber einen sinnvollen Ausweg können diese Leute auch nicht vorweisen.

Punkt acht.

„Viertausend Todesfälle pro Jahr“. Ist natürlich eine rein hypothetische Zahl, andere Untersuchungen kommen zu anderen Ergebnissen oder zu keinen Todesfällen. Selbst wenn das in etwa stimmen sollte,wäre das ziemlich bescheiden, das Rauchen kostet 100.000 Todesfälle pro Jahr, also sehr viel mehr, und die Leute hören auch mit dem Rauchen nicht auf. Also, wollen wir nun Strom haben oder nicht ? Auch hier gibt es wieder keine brauchbare Antwort. 

Punkt neun

Braunkohlentagebau und die Umsiedlung von Dörfern. Braunkohle wird seit Jahrhunderten im Tagebau gewonnen, das ist nun nicht neu und für die Betroffenen, die eine Umsiedlung verkraften müssen, nicht so angenehm. Man versteht nicht, warum die Jammerei eines Einzelnen in der Sendung einen so breiten Raum einnimmt, der hat sich wohl einen sehr preiswerten Baugrund ausgesucht obwohl er die Folgen kannte. Hier piekst die Sendung in unverantwortlicher Weise auf das Gefühl von Menschen an, obwohl jedem klar ist, dass es anders nicht geht. Diese Teile der Sendung sind insgesamt eigentlich überflüssig und dumm, eine ziemlich blöde Rührduselei. „Das Geld, der Kapitalismus“ ? So ein Unfug. Es soll Strom produziert werden, und die, die so klagen, wollen auch eine Steckdose im Haus haben. Die Heuchelei kennt keine Grenzen. 

Punkt zehn

Wenn man selbst nicht produziert, dann muss man importieren. Das ist richtig. Schön, dass in der Sendung nach dieser endlos langen Duselei auch mal wieder etwas Vernünftiges gesagt wird. 

Punkt elf

Das Hin- und Her mit dem Abschalten der Kernenergie ist ein Nonsens, insgesamt unvernünftig. Das einzig Richtige wäre hier, den Markt regieren zu lassen, das heißt, Kernkraftwerke werden dann abgeschaltet, wenn günstigere Alternativen zur Verfügung stehen, wann das ist, weiß heute niemand. So mischt sich der Staat in die Energiewirtschaft ein, für seine Fehler beschimpft er auch noch die anderen, und für uns alle wird das dann ziemlich teuer, natürlich. 

Punkt zwölf

„Achtzig Euro die Tonne“. Sehr hypothetische Rechnereien, weitgehend Phantasiewerte um die eigene Ideologie zu unterstützen. Die CO2-Propaganda ist eine höchst fragwürdige Geschichte. Tatsächlich steigt der CO2-Anteil in der Luft, aber es wird verschwiegen, dass CO2 die Voraussetzung für das Pflanzenwachstum ist und dass eine höhere Konzentration dieses Spurengases überwiegend positive Wirkungen hat. Das ist die größte Lüge in dieser Szenerie (und auch in der Sendung).

Punkt dreizehn

Dass die Sendung das Beispiel Spanien gebracht hat, ist sehr lehrreich. Es ist richtig, dass eine große Produktion von Solarstrom das ganze Stromsystem ruinieren würde, das wusste man auch vorher, dass man das zunächst anders dargestellt hat ist ein politisches Problem, allerdings hätte jeder der Anleger wissen müssen, dass er sich auf ein politisches Spielchen eingelassen hatte, die Sucht auf schnellen Reibach hat die Leute blind gemacht, da ist Mitgefühl nicht angebracht. Es ist allerdings nicht der Unterschied von 50 Euro oder 90 Euro, der Punkt liegt ganz woanders. Jeder dieser Sonnenenergie-Anleger hat immer noch die Möglichkeit, sein Produkt im Markt anzubieten, und nun endlich kommt die Wahrheit heraus (die immer klar war), dieses Produkt ist praktisch wertlos. Niemand kauft freiwillig spanischen Solarstrom, auch die Autoren der Sendung würden das nicht tun. Strom ist erst dann marktfähig, wenn er rund ums Jahr im Rhythmus 24/7 zur Verfügung steht, das heißt, diese Solar-Anleger  hatten „vergessen“, ihre Anlagen mit Speichereinheiten auszustatten. Das ist das wahre Problem der „erneuerbaren Energien“, und wenn man die notwendigen Speichereinheiten dazu stellt, dann wird die Sache so teuer, dass das niemals wettbewerbsfähig wird. Also müssten diese Solaranlagen eigentlich verschrottet werden, das ist die Wahrheit, wird leider in der Sendung nicht ausgesprochen. Wenn das für Solaranlagen im sonnenreichen Spanien schon so ist, wie trübe sehen die Marktchancen für Solaranlagen im sonnenärmeren Deutschland aus ? Das ist die Realität, und die wird erst mal mit einem riesigen Aufkommen von Subventionen verschleiert, und an dieser Verschleierung beteiligt sich auch diese Sendung. 

Später wird in der Sendung gesagt, dass die erneuerbaren spanischen Energien nun anfangen wettbewerbsfähig zu werden. Wenn dem so ist, warum tun sie es denn nicht ? Offensichtlich sind diese eben nicht wettbewerbsfähig, deshalb kauft niemand den solaren Strom. Man sieht, was herauskommt, wenn Wirtschaftsfachleute fabulieren, die von technischen Gegebenheiten nichts verstehen. 

Punkt vierzehn

Der Drehtüreffekt wird in der Sendung zu Recht angesprochen. Allerdings, die Einkommen, die hier gezahlt werden sind geradezu spartanisch im Vergleich zu dem, was von den deutschen Bankern abkassiert wird oder von Fußball-Funktionären, und die Energiefirmen liefern wenigstens ein volkswirtschaftlich wertvolles Produkt, was man von den anderen nicht sagen kann. 

Punkt fünfzehn

Man redet vom „Klimaschutz“, aber nirgends wird klar gemacht, dass die erneuerbaren Energien für den Klimaschutz unbrauchbar sind (weil eben die Speichereinheiten fehlen, die unbezahlbar sind). Das zeigt das Beispiel Deutschlands, denn man hat sehr hohe Subventionen für die erneuerbaren Energien ausgegeben, jedoch nichts Brauchbares erreicht, denn der Ausstoß von CO2 ist nicht wirklich vermindert worden, eher leicht gestiegen. Man will das nicht zugeben, weil man dann eingestehen müsste, dass die ganze Energiewendepolitik von Anfang an ein einziger Schwindel war. 

Punkt sechzehn

 

Die Investitionen der EdF. Eine Firma kann investieren oder auch nicht, und es kann passieren, dass die Investitionen verloren gehen. Dabei kann sich eine Firma total ruinieren, und dann muss sie Konkurs anmelden, und das bezahlen nicht die Stromkunden, sondern die Aktionäre. Der einzige Fehler ist hier, die EdF ist ein staatliches Unternehmen, ist für das System unverzichtbar und deswegen kann man die nicht in den Konkurs gehen lassen. Mit „Stromlüge“ hat das also nichts zu tun sondern mit der Tatsache, dass es in Frankreich eben keinen Markt gibt, hier hätte man rechtzeitig aufteilen und privatisieren müssen. Man sieht an diesem Beispiel, wie fragwürdig es ist, wenn man statt eines Marktes mit vielen Anbietern ein staatliches Monopol hat, diesem ist der Konsument am Ende hilflos ausgeliefert, von daher nicht zu verstehen warum in der Sendung für einen Übergang zu einem staatlichen Versorgungssystem geworben wird. 

Punkt siebzehn

„Spanien findet keinen Markt für seinen (erneuerbaren) Strom“. Warum verbrauchen sie den denn nicht im eigenen Land, da gibt es für diese Energien auch keinen Markt, wie wir vorher am Beispiel der spanischen Photovoltaik-Produzenten gesehen haben.

„Dieser kann nicht nach Frankreich transportiert werden, weil die nötige Infrastuktur fehlt“. Aber die Frage ist, warum soll denn Frankreich zu enormen Kosten erneuerbaren Strom einkaufen, den man in Spanien auch nicht haben will ? Und diese „nötige Infrastruktur“ würde ja ganz erhebliche Kosten bringen, die dann auch der Verbraucher zu tragen hätte, also ist das, was hier vorgeschlagen wird nur ein Modell für eine weitere erhebliche Kostensteigerung.

Man will die Kapazität um das 10-fache erhöhen (welche Kapazität gemeint ist wird nicht gesagt) und man will das Verbundziel um 15% erhöhen, alles dies auch nur Sprechblasen ohne jede Realität. 

Punkt achtzehn

„Ein Sechstel des europäischen Marktes soll vernetzt werden“. Wie soll denn das geschehen, internationale Stromleitungen hoher Kapazität, in denen große Mengen elektrischer Energie hin- und hergeschoben werden ? Das würde natürlich weitere erhebliche Kosten mit sich bringen, aber es würde keinen Nutzen bringen, denn nachts ist es dunkel, und zwar in ganz Europa, da kann man dann nicht solaren Strom durch die Netze schieben wollen. Also auch nur hohle Sprüche ohne jede sinnvolle Realisierung.

Punkt neunzehn

Die Ile de Sein. Die wollen auf erneuerbare Energien umsteigen, warum machen die denn das nicht, wenn das so toll ist ? Das Netz gehört der EdF, aber wer hindert denn die daran, ihr eigenes Netz aufzubauen und den Umstieg zu machen ? Offensichtlich haben die mal nachgerechnet und festgestellt, das wird dann unbezahlbar, aber auch dazu äußert sich die Sendung nicht. 

Punkt zwanzig

„Liberalisierung mit gleichzeitiger Regulierung stellt den Wettbewerb her“. Das ist ja ein Widerspruch in sich. Wer und was wird denn da „reguliert“, und wie soll diese Liberalisierung konkret aussehen ? Das wird nicht erklärt.  Also auch nur eine Sprechblase. 

Punkt einundzwanzig

Am Schluss heißt es, „eine saubere, unabhängige und erneuerbare Energie“.

Im Norden weht der Wind (der weht da aber beileibe nicht immer) und im Süden scheint die Sonne (die scheint nachts auch im Süden nicht). Mit schönen Bildern und einschmeichelnder Musik werden Illusionen aufgebaut, offensichtlich weit von jeder Realisierung. Das ist dann wirklich die „Stromlüge“, verlogener geht es nicht.

Punkt zweiundzwanzig

Zum Schluss zeigt man stimmungsvolle Bilder mit Windmühlen. Angesichts dessen, was man eigentlich über diese Technik hätte wissen müssen schon eine ziemliche Heuchelei. 

Es gibt noch viele weitere technisch offensichtlich unsinnige Aussagen in dieser Sendung, ich muss hier jedoch Schluss machen.

Peter Würdig

 




Wir [in UK] folgen Deutschland in eine Energie-Katastrophe

Ein weit dunklerer Schatten als der Kollaps unserer Stahlindustrie hängt über UK. Wir dürften nicht überrascht sein, dass unsere Ministerin für Energie und Klimawandel Amber Rudd als Schwester einer führenden Figur der Kampagne, UK in der EU zu halten, davor gewarnt hat, dass ein „Brexit“ unsere Energierechnungen um 500 Millionen Pfund pro Jahr steigen lassen würde (hier). Ihr Bruder Roland kann als Hintergrund-Stratege der Bewegung Stronger in Europe beschrieben werden kann als „der Rudd, der nicht möchte, dass wir das sinkende Schiff verlassen“.

Aber mit dieser Behauptung von „einer halben Milliarde pro Jahr“ muss Ms. Rudd hoffen, dass wir uns nicht an jene Zahlen erinnern vom Office for Budget Responsibility [etwa: Büro für Budget-Verantwortlichkeit], welches projiziert, dass wir innerhalb von vier Jahren – ausschließlich aufgrund der Politik ihrer eigenen Regierung – 13,6 Milliarden Pfund pro Jahr an Abgaben bzgl. Klimawandel zahlen müssen, das sind weitere 7,6 Milliarden Pfund mehr als im vorigen Jahr.

Aber selbst das ist nur ein kleiner Teil des Desasters, in das Ms. Rudd uns zu führen dabei ist, will sie doch unsere Wirtschaft „dekarbonisieren“, indem sie alle mit fossilen Treibstoffen betriebenen Kraftwerke schließen will, obwohl diese bis jetzt zwei Drittel unseres gesamten Stromes erzeugt haben. Sie sollen ersetzt werden durch immer noch mehr „Erneuerbare“ sowie jene Kernkraftwerke, die einfach nicht gebaut werden.

Wohin uns eine solche Politik führt, wie ich schon vor fünf Jahren vorhergesagt habe, kann man erkennen mit einem Blick auf das Land, dass im Rennen zum Klippenrand immer noch vor uns liegt. Ein langer Artikel im Handelsblatt (Deutschland), dem führenden Industrie-Journal, zeichnet ein verheerendes Bild des Chaos‘, dass sich immer mehr manifestiert aufgrund einer „grünen“ Energiepolitik, die der unseren bemerkenswert ähnlich ist (mit der Ausnahme, dass nach Fukushima die 17 Kernkraftwerke des Landes noch schneller abgeschaltet werden als unsere).

Schon 77 Kern- und Fossilkraftwerke sind abgeschaltet worden. Die größten Energieunternehmen, RWE und E.On, haben Schulden in Höhe von 43 Milliarden Pfund angehäuft. Und nachdem 170 Milliarden Pfund in „grüne Subventionen“ geflossen sind, was zur höchsten Anzahl von Windmühlen in Europa (26.000) geführt hatte, was wiederum massive Probleme für das Stromnetz des Landes auslöste, wenn der Wind nicht weht, sind die Strompreise in Deutschland auf ein Niveau gestiegen, bei dem im vorigen Jahr 350.000 Verbrauchern der Strom abgedreht wurde, weil sie sich die Stromrechnungen nicht mehr leisten können.

Dank dieser in den Himmel schießenden Energiekosten verlagern viele der größten Firmen Deutschlands wie z. B. Siemens und BASF, ihre Produktionskapazitäten ins Ausland, was mit dem Verlust hunderttausender Arbeitsplätze einhergeht. Diese Arbeitsplätze entstehen neu nicht zuletzt in den USA, wo die Energiekosten weniger als halb so hoch sind wie in Deutschland (hier). Der gleiche Effekt ist hier in UK zu beobachten, wo unsere „Kohlenstoff-Steuer“, die die energieintensiven Industrien verkrüppelt, inzwischen viermal höher ist als irgendwo sonst auf der Welt.

Und doch liegt die Ironie darin, dass Deutschlands „Kohlenstoff-Emissionen“ tatsächlich gestiegen sind, und zwar wegen der gestiegenen Nachfrage für Heizung und dem Verbrennen von „schmutziger“ billiger Kohle zur Kostenminderung. Ms. Rudd mag behaupten, dass ihre „Energiepolitik ein Beispiel“ für die Welt setzt. Aber falls sie wissen will, was als nächstes geschieht, auch noch bevor die Lichter bei uns ausgehen, sollte sie auf das Beispiel Deutschlands schauen.

[Booker sieht also die Katastrophe in Deutschland bereits als besiegelt an. Mal sehen, ob und wann Michel das merkt! Anm. d. Übers.]

Link: http://www.thegwpf.com/christopher-booker-were-following-germany-to-an-energy-disaster/

Übersetzt von Chris Frey EIKE




Die lächerliche Idee, erneuerbare Energien sind oder werden irgendwann mal am kostengünstigsten sein

Bild rechts: Demmig: NIE werden nie wirtschaftlich

Umweltschützer sind sauer, anscheinend. Eine Sierra Club-Vertreterin, die in der Asheville Citizen-Times zitiert wurde, ist nicht nur aufgeregt, sie hat nachweislich Unsinn versprüht:

Emma Greenbaum, North Carolina‘s Vertreterin für den Sierra Club, sagte sie ist erfreut, dass die Kommission die dritte Turbine abgewiesen hat, aber auch niedergeschlagen, dass der genehmigte Plan dieses übergroße Erdgasprojekt ermöglicht.

"Es ist bedauerlich, dass wir gezwungen sind, weiter auf einem klimagefährdenden Pfad zu gehen, wenn die Energieeffizienz und erneuerbare Energien auch weiterhin für die Verbraucher und die Umwelt die beste, kostengünstigste Lösung sind. Wir werden auch weiterhin für den Ausbau von sauberer Energie in unsere Region und im ganzen Staat eintreten, als Übergang zu sauberer Energie, die allein eine "langfristige Lösung für unseren Energiebedarf darstellt“.

Nein, wirklich: ". Die beste, kostengünstige Lösung für die Verbraucher und die Umwelt" Lassen Sie uns das weiter untersuchen, da erneuerbare Energien nicht einmal in der Nähe zu wettbewerbsfähigen Kosten sind, geschweige denn zu "geringsten Kosten."

Preisliche Wettbewerbsfähigkeit ist die geheiligte Täuschung der erneuerbaren Energien Industrie. Sie sind sehr engagiert den Menschen irgendwie einzureden, dass erneuerbare Energien für die Verbraucher tatsächlich billiger wären. Aber das ist völliger Unsinn.

"Energieeffizienz" in die Gleichung zu werfen gehört dazu, wie sie es versuchen. Wie Ökonomen am Beacon Hill Institute in ihrem Gutachten des Berichtes der erneuerbaren Energielobby zeigten, der angebliche, große Gewinne [für den Verbraucher] aus dem Portfolio der erneuerbaren Energien vorgibt.

Versteckt in Text, Tabellen und Diagrammen ist wenig da, was zeigt, dass die erneuerbaren Energien sich selbst subventionieren [werden]. Die Kosteneinsparungen basieren allein auf "Energieeffizienz" und nicht auf erneuerbare Energien. Alles andere ist trivial. Aber sie wollen den Eindruck erzeugen, dass "keine Energie zu nutzen" [als Punkt] für die erneuerbaren Energien zählt und sie behaupten, erneuerbare Energie ist billiger.

Betrachten Sie es auf diese Weise. Es ist wie eine Kinderwerbung, die viel Zucker beinhaltenes Müsli als Teil eines gesunden Frühstücks anpreist. Das bedeutet, wenn Sie nur ein wenig davon mit einem gesunden Frühstück essen, wird es ein Teil davon sein. Aber selbst ist das ziemlich ungesund.

Erneuerbare Energie ist ein Teil von niedrigeren Energiekosten, wenn Sie nur wenig davon nutzen, noch besser, überhaupt keine Energie zu nutzen. Aber selbst ist das …

Lassen Sie uns überlegen:

Es ist nicht kostengünstig.

Wenn Sie nicht hinsehen, sagt die gleiche erneuerbare Energie Lobby der Politik und den Steuerzahlern, dass Ihre Stromrechnung "Better off mit REPS" und fordert die Energie Kommission auf, keine niedrigeren Preise zu genehmigen, da niedrigere Preise schlecht für erneuerbare Energien sein würden.

[Renewable Energy and Energy Efficiency Portfolio Standard (REPS) – soweit ich es verstanden habe; bekommen die EE Erzeuger einen Anteil an der Stromrechnung gutgeschrieben, der würde sich mit ändern; A.D.]

Durchschnittliche Haushaltsstrompreise in North Carolina, 1990-2012

Es können sicherlich nicht die geringsten Kosten entstehen, wenn Sie laufende Kohlekraftwerke schließen, um Ersatz durch erneuerbare Anlagen zu starten.

Es ist so, die Stromerzeugung aus neuen Anlagen ist teurer als Strom aus bestehenden Anlagen; das wird noch schlimmer, wenn Sie eine bestehende Anlage zur Stromerzeugung aus einer effizienten Quelle wie Kohle ersetzen, um auf erheblich unzuverlässigere Quellen angewiesen zu sein.

Es sind definitiv nicht den geringsten Kosten, wenn Sie in vollem Umfang auf die Realitäten nicht planbarer Energien setzen.

Das würde ihre bekannten Ineffizienzen und die Arbeitsunfähigkeit einschließen, wenn entweder die Sonne nicht genug scheint oder der Wind nicht weht. Natur, Wirtschaft, einfache Berechnung und Physik, alles arbeitet gegen die nicht planbaren erneuerbaren Energiequellen in Bezug auf, ob sie überhaupt wettbewerbsfähig gegenüber traditionellen Quellen sein können

Erneuerbare Energiequellen zu zeigen, die viel mehr Subventionen als andere Energiequellen bekommen, hilft auch nicht.

Sie können nicht einmal in der nahen Zukunft wettbewerbsfähig sein, geschweige denn mit den geringsten Kosten.

Erneuerbare Energien sind sicher nicht wettbewerbsfähig geworden, trotz vier jahrzehntelanger Versprechungen, sie werden in naher Zukunft wettbewerbsfähig sein. Vor sechs Jahren fühlte das Institut für Energieforschung sich aufgefordert zu fragen: "Werden die Kosten der erneuerbaren Energien zu irgend einer Zeit wettbewerbsfähig sein?" und fand, dass die "in Kürze" Subventions-fließende-Rhetorik in die 1970er Jahre zurückreicht.

Inzwischen befürwortet neue MIT Forschung eine [in der Höhe] einstellbare Kohlendioxid-Steuer, um die unausweichliche Realität zu berücksichtigen, dass die erneuerbaren Energien nie mit traditionellen Energiequellen wettbewerbsfähig sein werden. Sie wollen unbedingt wettbewerbsfähige erneuerbare Energien, dass sie bereit sind, die traditionellen Energiepreise künstlich zu verteuern, damit das quasi automatisch geschieht (schluck das, du armer Steuerzahler!).

Dieser Ansatz für den Wettbewerb ist, wie Commodus vorher heimlich Maximus in den Rücken sticht, da er denkt, dass dieses der einzige Weg sei, wie er das Duell gewinnen könnte [im Gladiator Film, feiger Commodus gegen gefesselten Maximus]

Darüber hinaus, berichtet der Daily Caller,

Grüne Energie ist so unzuverlässig und intermittierend, dass es das Versorgungsnetz zerstören kann, nach Experten aus Industrie und Regierung“

Die US-Federal Energy Regulatory Commission (FERC) untersucht derzeit, inwieweit grüne Energie die Zuverlässigkeit des Stromnetzes untergräbt . FERC glaubt, dass ein "signifikantes Risiko" von Elektrizität in den Vereinigten Staaten besteht, immer unzuverlässiger zu werden, weil "Wind und Sonne nicht die Dienste der bestehenden Kohlekraftwerke anbieten." Umweltvorschriften könnten Kohle oder Erdgas-Kraftwerk unrentabel machen, was die Zuverlässigkeit des gesamten Stromnetzes beeinträchtigen würde

Es ist weitab von geringsten Kosten, selbst wenn Sie versuchen, die Umwelt zu berücksichtigen.

Eine Brookings Institute Studie versucht, die "sozialen Kosten" der Kohlendioxid-Emissionen zusammen mit den Kosten der nicht planbaren, erneuerbaren Energien für Bedarf an Backup-Grundlast -Versorgung darzustellen. Die Studie fand heraus, dass "Solarenergie die bei weitem die teuerste Art ist, Kohlenstoff-Emissionen zu reduzieren" und "Wind ist die nächste teuerste."

Die Teilnehmer am gemeinsamen Forum Energiepolitik der John Locke-Stiftung und NC WARN werden sich daran erinnern, dass die Diskussionsteilnehmer alle (siehe Ende) zustimmten, dass es vergeblich war, ein Maß von "sozialen Kosten" für Kohlendioxid-Emissionen zu erzeugen.

Ganz zu schweigen davon, wenn es versucht würde, alle sozialen Kosten in Rechnung zu stellen, würde es ebenfalls erfordern, die vielen ökologischen Auswirkungen der hochflächenintensiven [EE-] Anlagen auch zu berücksichtigen und die gefährlichen Materialien die sie benötigen.

Erschienen am 02.03. 2016 auf John Locke Foundation

Übersetzt durch Andreas Demmig

http://www.johnlocke.org/newsletters/research/2016-03-02-4n7663n8ekok5jkov34l4qfrl4-regulation-update.html




Der Irrsinn mit Irsching

Der Erdgasblock mit einer Leistung von 850 Megawatt (entspricht ungefähr 2.000 modernen Windrädern) wurde von Siemens errichtet und hat die Eigentümer Uniper Kraftwerke, N-ERGIE, Mainova und HEAG Südhessische Energie (HSE) schlappe 400 Millionen Euro gekostet.

Die Anlage ist fünf Jahre alt und kaum gelaufen – ein Schnäppchen für einen Käufer, sollte man meinen. So eine Art Mercedes S-Klasse mit 5000 km auf dem Tacho, und jedes Jahr in der Werkstatt gepflegt. Schon 2012 verkündeten die Eigentümer in einem Brief an die Politik, den Block 5 für stilllegen zu wollen, da ein rentabler Betrieb nicht möglich sei. Eon-Chef Johannes Teyssen forderte vom Staat 100 Millionen Euro pro Jahr, um das Kraftwerk dauerhaft in Betriebsbereitschaft zu halten. 

Der bayerische Wirtschaftsminister Martin Zeil (FDP, Kabinett Seehofer I) erklärte, Irsching 5 werde aus Gründen der Netzstabilität auf jeden Fall in Betrieb bleiben – notfalls auch gegen den Willen der Betreiber – oha! Das ist so, als würde die Politik verlangen, dass der Eigentümer eines Mercedes ihn weiterfährt, auch wenn es nur noch eine Straße gibt, auf der alle anderen Autos per Gesetz immer Vorfahrt haben.

Wieso kann es sein, dass ein derartig supermodernes und umweltfreundliches Gaskraftwerk in Deutschland nicht länger betrieben werden kann? Wie der geneigte Leser schon dunkel ahnt, ist der Grund dafür die vergurkte Energiewende. Im Jahr 2011 produzierte das Irsching 5 Strom in mehr als 4.000 Betriebsstunden – das sind 170 Tage Produktion. 2012 waren es nur rund 1.600 Betriebsstunden – das sind noch 66 Tage. 2014 waren es dann noch 191 Stunden, ganze acht Vollasttage. Den Rest der Zeit stand die Anlage rum. Und es ging weiter abwärts.

Der Grund ist, dass die erneuerbaren Energien Wind, Sonne und Biogas im Netz per Gesetz stets „Vorfahrt“ haben – egal was sie kosten und ob der Strom überhaupt gebraucht wird. Die Ökoenergie muss vom Netz abgenommen und öfters an Österreich und die Schweiz zu „negativen Preisen“ verkauft werden. Das heißt, der Verkäufer bezahlt den Kunden für die Stromabnahme. Finanziert wird das vom Stromkunden und Steuerzahler – pfiffigen Lesern fällt jetzt auf, dass dies in der Regel dieselben kleinen Leute sind. Eine Durchschnittsfamilie zahlt derzeit fast 300 € pro Jahr in diesen ökonomisch unsinnigen EEG-Topf.

Die konventionellen Kraftwerke stehen Generator bei Fuß und müssen warten, bis es dunkel ist und kein Wind weht. Erschwerend für Gaskraftwerke kommt hinzu, dass schmutzige Kohle noch einen Tick billiger ist, als sauberes Erdgas. Um in diesem Subventionsgestrüpp zu überleben, müssen die Kraftwerksbetreiber auf den Cent sehen. Also werden bei Bedarf zuerst die Kohlebuden angefahren. Deshalb reißt Deutschland seit die Energiewende zunehmend „erfolgreich“ ist, alle selbstgestellten Ziele der CO² Reduktion des Kyoto-Protkolls. Klimaschutz im Lande Absurdistan. Frau Merkel hat inzwischen andere Baustellen, sie mutierte von der „Klimakanzlerin“ zur „Flüchtlingskanzlerin“.

Für die Kraftwerksbetreiber wird so eine Anlage extrem teuer, weil ja das Personal in voller Stärke vorgehalten und bezahlt werden muss, auch wenn die Produktion nur 10 Tage im Jahr läuft. Sogar die Instandhaltung muss in voller Schönheit weitergehen, egal ob Betrieb oder erzwungener Stillstand. Ich schätze die Kosten für die Betreiber auf 300 Tausend Euro pro Tag ein. Jeder Laie kann sich ausrechnen, was das bei 350 Stillstandstagen im Jahr kostet.

Ende März 2015 kündigten die Eigentümer an, die Irschinger Blöcke 4 und 5 aufgrund mangelnder Wirtschaftlichkeit zum 1. April 2016 stilllegen zu wollen. Nach Angaben der Eigentümer kamen die Blöcke 4 und 5 im Jahr 2014 nicht am konventionellen Strommarkt zum Einsatz, sondern ausschließlich dann, „wenn ihre Leistung zur Stabilisierung des Stromsystems gebraucht wurde“.

Der Netzbetreiber aber sagt: nee, das Kraftwerk wird gebraucht, als Reserve, falls mal Windstille herrscht. Die Betreiber klagten nun gegen den erzwungenen Weiterbetrieb ihrer unrentablen Anlagen.  Die tatsächliche Zukunft des Kraftwerks gilt hingegen als noch nicht entschieden, die vorläufige Stilllegung wird als „Druckmittel auf die Politik seitens der Betreiber“ interpretiert.

Die Politik ist in der Zwickmühle und der Steuerzahler wird wohl zahlen müssen. Weil die Kraftwerke sogar dann noch bereitgehalten werden müssten, wenn es nur einen einzigen Tag im Jahr gibt, an dem sie gebraucht werden. Denn sind sie dann nicht da, bricht das Netz zusammen und es kommt zu einer unvorstellbaren Katastrophe. Wer wissen möchte, was ich meine, sollte den Roman "Blackout" lesen.

Die Energiewende ist gescheitert, auch wenn dies durch Propaganda noch verschleiert werden kann. Deutschland leistet sich zwei komplette Kraftwerksparks von derselben Kapazität. Absurdistan hat einen "ökologischen“ und zusätzlich einen konventionellen Kraftwerkspark, beide mit hundert Prozent Kapazität. Das verdoppelt die Stromkosten für den Endkunden. Es ist eigentlich eine verkappte Steuer. Nicht umsonst folgt uns nicht ein einziges Land der Welt bei unserer gepriesenen „Vorreiter-Rolle“ in der Energiepolitik.

Eine Rolle ist die Energiewende schon, aber eine Rolle rückwärts in mittelalterliche Technologien wie Windmühlen, Brenngläser und Furzgas. Damit lässt sich ohne großtechnische Speichertechnologie keine Industrie und kein Staat machen. Die einst grundsoliden deutschen Energieversorger wurden von der Regierung bekämpft, enteignet und zerschlagen sich in ihrer Not selbst. Helldeutschland steckt sein Geld lieber in ökologisch korrekte Unternehmen wie Prokon und German Pellets. Dann folgt das große Augenreiben. Keine Sorge, liebe geprellte Anleger, Euer Geld ist nicht weg. Das haben nur Andere. Vielleicht hat ja der Bundespräsident den immer noch möglichen Blackout gemeint, als er von „Dunkeldeutschland“ sprach.

http://www.achgut.com/artikel/der_irrsinn_mit_irsching




2015/16 in Deutschland: Die Serie milder Winter hielt an- (k)ein Grund zur Besorgnis?

Bild rechts: Winter 2015/16 bei Weimar- Schöndorf mit etwas Schnee nur für ein paar Tage. Foto: Stefan Kämpfe

Teil 1: Ursachen und Besonderheiten der Winterwitterung 2015/16

Die Wintertemperaturen (Deutschland- Mittel) lassen sich relativ sicher bis 1881/82 und mit leichten Unsicherheiten bis mindestens 1760/61 zurückverfolgen (Quellen: DWD und WIKIPEDIA). Das arithmetische Wintermittel des Zeitraumes 1760/61 bis 2014/15 beträgt minus 0,3°C. Nur bezogen auf dieses „Langzeit- Mittel“, ist der abgelaufene Winter 2015/16 bereits der fünfte zu milde in Folge (der gefühlt kalte Winter 2012/13 war nur einschließlich März zu kalt, wir betrachten aber immer den „meteorologischen“ Winter von Dezember bis Februar). Doch selbst bei dieser überkritischen Betrachtungsweise zeigt sich: Alles schon mal dagewesen! Seit 1760/61 konnten wir insgesamt 18 Perioden mit mindestens drei milden Wintern in Serie ermitteln, davon 14 mit vier in Serie. Wir nennen hier nur die Perioden mit mindestens 5 milden in Folge, das waren acht: 1901/02 bis 1905/06, 1909/10 bis 1915/16, 1934/35 bis 1938/39, 1947/48 bis 1951/52, 1956/57 bis 1961/62, 1970/71 bis 1977/78, 1987/88 bis 1994/95 und 1997/98 bis 2001/02. Die bisher längsten waren mit je acht in Folge die Serien Ende der 1980er/Anfang der 1990er sowie die in den 1970ern, doch die Serie in den 1910ern war mit sieben ebenfalls bemerkenswert, zumal ihr, nur vom etwas zu kalten Winter 1916/17 unterbrochen, sogleich eine neue Serie von vier milden Wintern folgte. Nun ergibt sich die spannende Frage nach den Ursachen, die milde Winter im Einzelnen oder gar in Serie auslösen. CO2 kommt dafür kaum in Betracht, denn die enorme Häufung milder Winter um 1915 fällt in eine Zeit mit noch sehr niedrigen CO2- Konzentrationen, die wegen fehlender, regelmäßiger Messungen nur auf etwa 290 bis 310 ppm geschätzt werden können. Und betrachtet man die Neuzeit, so fehlt schon seit den späten 1980er Jahren jeglicher Zusammenhang zwischen CO2- Konzentration und Wintertemperaturen in Deutschland:

Abbildung 1: Seit 30 Jahren (eine volle Klima- Normalperiode!) stagnieren die Wintertemperaturen in Deutschland (hellblau) bei freilich großer Streuung der Einzelwerte, während die CO2- Konzentration (hellgrün) kräftig anstieg. Die „U-Form“ der quadratischen Regressionskurve verdeutlicht die Häufung milder Winter um 1990 und gegenwärtig; dazwischen lag eine etwas kühlere Phase.

Nun zu den tatsächlichen Einflussfaktoren. Unsere Sonne als Motor des Wettergeschehens strahlt ihre Energie etwas ungleichförmig ab. Die Sonnenaktivität unterliegt kurz-, mittel- und langfristigen Schwankungen. Ein sehr grobes, aber wegen der einfachen Beobachtbarkeit das einzige über langfristige Zeiträume verfügbare Maß der solaren Aktivität ist die Anzahl der Sonnenflecken, dunklere und damit kältere Bereiche auf der Sonnenoberfläche, die auf stärkere Magnetfelder, erhöhte Röntgen- und UV- Strahlung sowie verstärkte Massenauswürfe („Solarwind“), hindeuten. Obwohl hier noch erheblicher Forschungsbedarf besteht, deutet sich ein zumindest grober Zusammenhang zwischen Sonnenaktivität und den Häufigkeitsverhältnissen der Großwetterlagen in Mitteleuropa an. Bei hoher Sonnenaktivität (viele Sonnenflecken) treten etwas häufiger Westwetterlagen (zonale Lagen) auf, während meridionale Lagen, deren extremste Form die Troglagen sind, sich eher in Phasen geringerer Sonnenaktivität häufen. Im Winter sind die Häufigkeitsverhältnisse der drei zyklonalen (tiefdruckbeeinflussten) Großwetterlagen West, Nordwest und Südwest, hier unter dem Begriff „Atlantische Tiefs“ zusammengefasst, für Deutschland besonders wichtig, denn sie transportieren die meist milde Atlantikluft am schnellsten und intensivsten ostwärts. In der folgenden Grafik erkennt man eine verzögerte Häufung dieser atlantischen Tiefdrucklagen nach Phasen erhöhter Sonnenaktivität:

Abbildung 2: Sehr grober Zusammenhang zwischen der Sonnenfleckenhäufigkeit (gelb) und der Häufigkeit zweier wichtiger Großwetterlagen- Cluster in Mitteleuropa im Winter (violett: Atlantische Tiefs, Summe aus den Häufigkeiten von WZ, NWZ und SWZ; blau: Summe der Troglagen Trog Mitteleuropa- TRM und Trog Westeuropa- TRW). Die Häufigkeit der Atlantischen Tiefs folgt verzögert der Sonnenfleckenhäufung, die der Troglagen verhält sich invers. Die dargestellten Ergebnisse sind vorläufig; es besteht weiterer Forschungsbedarf!

Mehr oder weniger intensiv mit der Sonnenaktivität verknüpft sind auch die AMO (Atlantische Mehrzehnjährige Oszillation- eine Wassertemperaturschwankung im zentralen Nordatlantik) und die NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen den Azoren und Island). Näheres zu diesen Einflussfaktoren unter anderem in unsrem vorjährigen Beitrag „Winter 2014/15 in Deutschland: Erneut zu mild – warum?“ bei EIKE unter http://www.eike-klima-energie.eu/climategate-anzeige/winter-201415-in-deutschland-erneut-zu-mild-warum/ Die folgenden Grafiken umfassen den Zeitraum bis zum Winter 2014/15 (alle Daten des aktuellen Winters lagen zum Redaktionsschluss nicht vor):

Abbildungen 3 und 4: Um 1915 und kurz vor der Jahrtausendwende wiesen NAO und Westlagenhäufigkeit Maxima auf, was die Serienhäufung milder Winter und die insgesamt etwas höheren Wintertemperaturen in diesen Zeiträumen größtenteils erklärt. Die AMO verhielt sich dazu invers, in ihren Maxima (kurz vor 1900, späte 1930er bis 1960er, 2000er Jahre) waren die Winter tendenziell etwas kälter. Auch diese Zusammenhänge sind grob und können nicht alle winterlichen Witterungsabläufe erklären. Unstrittig und mit einem Bestimmtheitsmaß von 45% erstaunlich eng ist hingegen der in der unteren Grafik gezeigte Zusammenhang zwischen der Häufigkeit aller Großwetterlagen mit Westanteil (rotviolett) und den deutschen Wintertemperaturen.

Der enge Zusammenhang zwischen Westwetterlagenhäufigkeit und Wintertemperaturen erklärt auch den mildesten Dezember 2015 seit Beginn regelmäßiger Messungen, denn er wies mit 25 Tagen Westwetter fast zweieinhalbmal so viele auf, wie im Langjährigen Mittel. Zwar gab es in den Dezembern 1900 (27) und 1965 (28) noch etwas mehr Westlagen- Tage, doch im 2015er Dezember fanden die ostwärts ziehenden Tiefs quasi die Ideallinie für die maximale Erwärmung in Deutschland: Sie zogen weit genug nördlich, um tagsüber oft die Sonne scheinen zu lassen, aber nicht so weit nördlich, dass der erwärmende südwestliche Bodenwind über längere Zeit abflauen konnte, was sofortiges nächtliches Auskühlen bedeutet hätte. Die folgende Wetterkarte illustriert einen solch typischen Tag im „Dezemberfrühling“ 2015 mit Wind und Sonne:

Abbildung 5: Westwetterlage am 26.12.2015 mit einem breiten Warmsektor über Europa, in dem milde Subtropikluft aus Südwesten unter leichtem Hochdruckeinfluss heranwehte. Föhneffekte an den Nordostseiten der Gebirge verstärkten die Erwärmung; vereinzelt wurden Werte deutlich über 15 Grad gemessen! Über Skandinavien deutet sich jedoch schon ein massiver Kälteeinbruch an, der Anfang Januar 2016 Nordostdeutschland mit voller Härte traf.

Mit Beginn des Neuen Jahres fand jedoch die überall extrem milde Witterung in der Nordosthälfte Deutschlands ein jähes Ende (Abbildungen 6 und 7):

Abbildungen 6 und 7: Grenzwetterlage am 4. Januar 2016. Milde Südwestluft trifft auf eisige, kontinentale Subpolarluft (cP) aus dem Osten, mit allem, was dazu gehört: Schneefall, Schneeregen, Eisregen, Gefrierender Regen und nur Regen/Sprühregen im frostfreien Südwesten. Untere Abbildung Vorhersagekarte von wetter3.de, Ausschnitt, nachbearbeitet von Stefan Kämpfe.

Die enormen Temperaturkontraste dieser „Grenzwetterlage“ zeigt die folgende Abbildung 8:

Abbildung 8: Temperaturkontrast in der Nacht zum 05.01.2016 von um die 15 Grad über Deutschland mit 5 bis 6 Plusgraden an der West- und bis zu minus 9 Grad an der Ostgrenze. Solche großen Temperaturgegensätze sind selten; noch wesentlich dramatischer waren sie aber mit um 25 Grad zum „Silvester-Blizzard“ 1978/79. Bildquelle wetteronline.de, ergänzt von Stefan Kämpfe

Einer kurzzeitigen Erwärmung folgte Mitte Januar eine Kältewelle aus Nord, die diesmal ganz Deutschland erfasste. Vereinzelt gab es Minima um minus 20, in Kühnhaide (Erzgebirge) sogar um minus 30 Grad, und das bei einer mittleren CO2- Konzentration von über 400 ppm! Näheres dazu bei freiepresse.de unter http://www.freiepresse.de/LOKALES/ERZGEBIRGE/ZSCHOPAU/Klirrende-Winternacht-kalt-kaelter-Kuehnhaide-artikel9415518.php Dabei ließ sich schön beobachten, was den winterlichen Temperaturgang kurzfristig beeinflusst- ebenfalls nicht die CO2- Konzentration, sondern die örtlichen Gegebenheiten im Zusammenspiel mit Sonnenscheindauer, Nebel, Wolken und aufziehenden Wetterfronten. Die Beobachterin CAROLIN HERRMANN meldete uns aus Erfurt am 19. Januar dichten Nebel bei minus 16°C, der im benachbarten Weimar fehlte. Daraufhin sahen wir uns die Temperaturverteilung dieses Januarmorgens in Deutschland an- mit erstaunlichem Ergebnis: Das nur gut 300 Meter hoch liegende Erfurt- Bindersleben, eigentlich kein vom deutschen Durchschnitt wesentlich abweichender Ort, war kälteste DWD- Hauptstation, viel kälter als das von der Lage ganz ähnliche Gera- Leumnitz und sogar etwas kälter als die Zugspitze:

Abbildung 9: Datenquelle DWD, Abbildung wetterzentrale.de, bearbeitet und ergänzt von Stefan Kämpfe: Mit minus 16,2°C war Erfurt um 8 Uhr kälter als Gera (minus 12,4°C) und die Zugspitze (minus 15,7°C).

Ursache dieser relativ seltenen Temperaturverteilung war eine starke nächtliche Ausstrahlung (die CO2 nicht verhindern konnte!) bei zunächst klarem Himmel, wobei sich die kälteste Luft im Thüringer Becken sammelte. Bei Erreichen des Taupunktes setzte dort Nebelbildung ein. Die kalte Nebelluftschicht wuchs bis zur viel höher gelegenen Flugwetterwarte Erfurt, erreichte aber das nahe Weimar nicht. Am 22. Januar war Ähnliches zu beobachten. Die folgenden Vergleiche der Temperaturverläufe dieser beiden Tage zwischen Erfurt und Gera sprechen für sich. Sie zeigen, welch große Temperaturunterschiede auf engstem Raum entstehen können, aber auch, wie diese bei Wetteränderungen (am Tagesende des 19.01. Wolkenaufzug eines Schneetiefs aus Nord, am 22.01. Warmfront-Okklusion aus Westen) wieder verwischt werden:

Abbildungen 10 und 11: In den beiden Nächten bestanden zunächst keine gravierenden Temperaturdifferenzen zwischen Gera und Erfurt. Diese wurden erst mit Bildung des Kaltluftsees im Thüringer Becken gegen Morgen größer. Nebel, Hochnebel und Dunst dämpften die Tageserwärmung in Erfurt; am 22.01. blieb diese dort aus; erst am Abend dieses Tages überholte Erfurt sogar Gera, weil die Warmluft einer Front zuerst in Erfurt ankam.

Während der Winter in Deutschland nur kurze Gastspiele gab, suchte er diesmal ganz ungewöhnliche Gegenden heim. Neben dem angeblichen „Rekord- Blizzard“ mit meterhohem Schnee in den USA (was dort aber gar nicht so selten ist) und den minus 43 Grad in Nordskandinavien schneite es vom südlichen Japan über das südliche China und Taiwan bis hin nach Saudi- Arabien im letzten Januar- Drittel teilweise kräftig. Dorthin floss kontinentale Kaltluft aus Innerasien und verschonte Mitteleuropa. Die folgenden Bilder sprechen für sich:

Abbildungen 12 bis 14: Winter in Saudi- Arabien und im subtropischen Ostasien. Bildquellen: Beide obere Swanky Riyadians, veröffentlicht bei wetteronline.de, unteres unbekannt. Näheres zu diesen Wintereinbrüchen unter anderem bei http://www.n-tv.de/panorama/Extreme-Kaeltewelle-laesst-Asien-bibbern-article16844886.html

Schaut man sich die geografische Breitenlage an, so liegen die betroffenen Regionen teilweise südlicher als Kairo! Ähnliches war unter anderem in den Wintern 1988/89 und 2013/14 zu beobachten, die in Mitteleuropa sehr mild verliefen. Die kontinentale Kaltluft sucht in solchen Situationen offenbar häufiger andere Gebiete heim und verschont Mitteleuropa weitgehend.

Abschließend werfen wir noch einen Blick auf den 30ig- jährigen Trend der Wintertemperaturen an der privaten Wetterstation Amtsberg. Dieser ist leicht gefallen und verhielt sich damit etwas anders, als die in unserer Abbildung 1 gezeigten Deutschland- Werte. Den Grund dafür werden wir im Teil 2 dieser Winter- Rückschau beleuchten:

Abbildung 15: An der privaten Wetterstation Amtsberg am Nordrand des Erzgebirges kühlten sich die Winter seit 1986/87 leicht ab. Allerdings ist dieser Trend aufgrund der sehr großen Streuung der Einzelwerte nicht signifikant. Dennoch ist das bisherige Ausbleiben der viel prophezeiten „Klima- Erwärmung“ bemerkenswert!

Warum nehmen wir Amtsberg? Aus Grafik 1 ist erkenntlich, dass die Winter seit 30 Jahren in Deutschland eine ebene Trendlinie haben, also insgesamt gleich geblieben sind. Deutschland hat sich aber verändert in den letzten 30 Jahren, täglich kommen 110 ha wärmende Bebauung hinzu, eine schleichende Erwärmung, welche die DWD-Stationen je nach Standort mehr oder weniger mitmessen. Mit Amtsberg haben wir einen kleinen Ort im Erzgebirge gefunden, der selbst im weiteren Umkreis seit gut 40 Jahren fast keine Veränderungen erfahren hat. Bei aller Vorsicht gehen wir davon aus, dass auch Deutschland, hätte es kein Wärmeinselwachstum gegeben, eine fallende Trendline hätte. Wir stellen fest: WI-bereinigt sind die Winter in Deutschland seit 30 Jahren leicht kälter geworden. Das ist das Gegenteil der behaupteten C02-Klimaerwärmung.

Fazit zum Teil 1 unserer Winter- Rückschau: Längere Serien milder Winter und einzelne, extrem milde Winter gab es auch bei wesentlich geringeren CO2- Konzentrationen. Großen Einfluss auf unsere Wintertemperaturen haben die Sonnenaktivität, die AMO, die NAO, die Häufigkeitsverhältnisse der Großwetterlagen sowie WI- Effekte (Teil 2). Bei vielen Westwetterlagen fallen unsere Winter generell milder aus, weil dann atlantische Luftmassen dominieren. Der Winter 2015/16 wies trotz seines sehr milden Charakters auch zwei Kältewellen im Januar auf, bei denen vereinzelt Tiefstwerte um minus 30 Grad gemessen wurden. Dabei traten bemerkenswerte, kleinräumige Temperaturkontraste auf. Nebel und Wolken, die Sonnenscheindauer und markante Luftmassenwechsel bestimmten das Temperaturniveau und den Temperaturverlauf wesentlich. Dieser Mildwinter ist auch deshalb kein eindeutiger Hinweis auf einen „globalen Klimawandel“, weil ausreichend Kaltluft vorhanden war, die aber zum wiederholten Male Deutschland nur kurzzeitig erfasste und dafür andere Regionen der Nordhalbkugel traf.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Wie die Steuerquelle mit CO2 ans Sprudeln kam

Bereits in der letzten Ausgabe* – Nr.1 – haben wir es angedeutet:

Wir glauben nicht an einen menschen-gemachten (anthropogenen) Klimawandel ("AGW").

Das fand nicht jeder gut, weshalb wir von jenen in die völlig rechte Ecke geschoben wurden, zu Kohle- und Ölmilliardären, Rentnern und TeaParty. Nun, das ist insofern verwunderlich, als dass Klimawandel doch eigentlich etwas Wissenschaftliches sein sollte. Wie kann da ein Rechts-Links-Denken funktionieren? Spätestens seit Al Gore´s Katastrophenfilm "Eine unbequeme Wahrheit" wird  Ihnen tagtäglich auf allen Kanälen, in Print-Erzeugnissen, im Internet, in den Schulen (!!) und in Regierungsverlautbarungen eingehämmert: Der menschengemachte Klimawandel ist da und wenn nicht entschieden gegensteuert wird, dann versinkt Holland, schmelzen Polkappen und Gletscher, ertrinken die süßen Eisbären. Und das wollen Sie doch wohl nicht – oder ?!  "Zeigefinger heben".

Und nun kommen wir, die kleine, unbedeutende Dorfzeitung und sagen: Das glauben wir nicht. – Leiden wir an Selbstüberschätzung? Werden wir von Exxon oder mindestens RAG, RWE  gesponsert? (Leider nein.) Oder ist es einfach nur so, dass wir uns wundern, warum, wenn CO2 doch so wahnwitzig gefährlich für das Klima, die ganze Welt  ist – ohne deswegen für AKWs zu plädieren – Atomkraftwerke, die nur wenig CO2  ausstoßen, abgestellt werden und Kohlekraftwerke, die CO2 -Schleudern sind, die Grundlast vorhalten müssen, für den Fall, dass nachts nicht nur die Sonne nicht scheint, sondern auch kein Wind weht, die Leistung dieser Erneuerbaren Energien (EE) also gegen "0" geht?
Aber von vorn.

1988 entstand auf Basis einer UN-Resolution der der UNO beigeordnete "Intergovernmental Panel of Climate Change" (IPCC), der auf Deutsch gern Weltklimarat  genannt wird und seinen Sitz offiziell in Genf hat.

"Der IPCC ist ein wissenschaftliches zwischenstaatliches Gremium, das von der Weltorganisation für Meteorologie (WMO) und dem Umweltprogramm der Vereinten Nationen (UNEP) ins Leben gerufen wurde."

Zum Selbstverständnis heißt es weiter: "Der IPCC betreibt selbst keine Wissenschaft und überwacht keine Klimadaten oder -parameter. Seine Aufgabe besteht darin, die aktuelle wissenschaftliche, technische und sozio-ökonomische Literatur, die weltweit zu dem Thema publiziert wird, umfassend, objektiv, offen und transparent zusammenzutragen und zu bewerten. Das Themengebiet reicht vom Risiko menschengemachter Klimaänderung über ihre beobachteten und projizierten Auswirkungen bis hin zu Anpassungs- und Minderungsoptionen" (de-ipcc.de) [4]

Es ist also die eigene Definition, die den IPCC nicht als wissenschaftliche, sondern eher als politische Institution ausweist:

So wird nur die Gefahr des menschengemachten Klimawandels betrachtet. Ob der Klimawandel überhaupt menschengemacht ist, das steht nicht zur Debatte. Etwaige Diskussionen darüber wurden und werden für beendet erklärt – eine wenig wissenschaftliche Vorgehensweise.  [5] Erklärt aber, warum Haltungen zum menschengemachten Klimawandel als "rechts = die bösen Skeptiker" gegenüber "links = die guten Klimaretter" verortet werden.

"Die umfassende Bandbreite der wissenschaftlichen Inhalte wird durch Beiträge von Experten aus aller Welt und allen relevanten Fachrichtungen (inklusive Literatur aus der Wirtschaft und traditionelle Praxis, falls angemessen dokumentiert) sowie den zweistufigen Begutachtungsprozess durch Experten und Regierungen sichergestellt." [4]

Die Vorhersagen zum Klima werden auf Computern berechnet, es handelt sich also nicht um Beobachtungen, sondern um Modelle.

Sonnenenergie und Wasserdampfgehalt der Luft wurden ausgeblendet. Öffentliche Gelder gab und gibt es bevorzugt für Studien, die den menschengemachten Klimawandel zum Thema haben.

Doch trotz "zweistufigen Begutachtungsprozess durch Experten und Regierungen" sind einige der vorhergesagten Katastrophen nicht eingetreten:

()  Seit 17 Jahren stagniert die Temperatur, wird eher kühler, steigt jedenfalls nicht mehr.

()  Die Gletscher im Himalaya, sie sollten laut einer millionenschweren Studie des kürzlich wegen des Verdachts sexueller Belästigung zurückgetretenen IPCC-Leiters Pachauri, einem indischen Eisenbahningenieur,  [6] schon 2035 geschmolzen sein, schmelzen nicht – im Gegenteil bei einigen wächst das Eis sogar.Woraufhin der IPCC einen Fehler bei der Erstellung des Zustandberichtes zugeben musste. [7]

()  Die Polkappen schmelzen zu großen Teilen auch nicht, sondern das Eis wird dicker. [8]

Dazu kommt, dass die zentrale Aussage des IPCC, nämlich dass das Ansteigen des CO2 die Erwärmung der Erde zur Folge hat, in unseren Augen schlicht falsch ist:

Mithilfe von Eiskernbohrungen wurde festgestellt, dass erst die Temperaturen steigen, bevor Hunderte von Jahren später der Gehalt von CO2 in der Luft steigt.

Der Grund liegt darin, dass die Ozeane und die Atmosphäre in direktem Austausch stehen: Wird es kälter, nehmen die Ozeane CO2  auf, wird es wärmer, geben die Ozeane CO2 ab. Wenn die Ozeane CO2 abgeben, dann steigt der CO2-Gehalt in der Luft. Da die Ozeane große Teile der Erde bedecken, steigen ihre Temperaturen langsamer als die der Landmasse. Eine Eigenschaft, die jeder Surfer und Drachenflieger bestätigen kann: Erst erwärmt sich das Land, dann das Wasser. Ein Effekt, der sich besonders am Gardasee großer Beliebtheit erfreut. Wer die physikalische Richtigkeit prüfen will, möge ein Glas Sprudelwasser in der Mikrowelle erhitzen: Das CO2  steigt auf.

Damit aber wurden vom IPCC Ursache und Wirkung glatt umgekehrt.

Doch der IPCC hat Vorkehrungen getroffen, damit er nicht zum alleinigen Schuldigen erklärt werden kann: "Durch die Anerkennung von IPCC-Berichten und die Verabschiedung ihrer Zusammenfassung für politische Entscheidungsträger erkennen Regierungen die Rechtmäßigkeit der wissenschaftlichen Inhalte an."  
Das nennt man umgangssprachlich eine Entlastung.

Wie aber ist es möglich, dass die gesamte Welt an den menschengemachten Klimawandel glaubt?  Nun, das hat viel mit Geld zu tun. Mit viel Geld.

Als Erstes wurden die Medien mit Katastrophenszenarien versorgt: Schlechte Nachrichten  verkaufen sich einfach besser als die Nachricht: Alles ist gut.

Dann wurden eigens Gesetze erschaffen, eine Zertifikatsbörse ins Leben gerufen: Industrien, die viel CO2  ausstießen, mussten Zertifikate erwerben, die ihnen erlaubten, eine bestimmte Menge CO2  auszustoßen. Wer weniger ausstieß, konnte seine Zertifikate an andere mit mehr Ausstoß verkaufen. Damit ändert sich zwar unter dem Strich die Menge des ausgestoßenen CO2  nicht, aber da bei jedem Handel Provision fällig wurde, verteuerte das die Produkte, machte Friedensnobelpreisträger (!) Al Gore zum Zertifikatsmillionär [9] und die Luft kein bisschen besser.

Ein moderner Ablasshandel eben.

Eine schwerwiegende Folge dieses modernen Ablasshandels war, dass sich CO2  ausstoßende Industrien in diejenigen Staaten verlagerten, die das Kyoto-Protokoll zur Senkung der CO2-Emissionen nicht ratifiziert hatten – in die USA, Indien und China, um Beispiele zu nennen. Konkret ist in Mülheim/Ruhr  das Siemens Dampfturbinen- und Generatorenwerk betroffen. Eine konkurrierende Fertigungsstätte steht in Charlotte/USA. Sollte Siemens tatsächlich eines Tages Arbeitsplätze in MH abbauen, juchhu. Dann wären unsere Klimaziele gerettet! Das CO2  entstünde dann – woanders. Die Arbeitsplätze allerdings auch. Da in den USA das geniale Geschäftsmodell AGW zwar ersonnen wurde, die USA aber keinerlei Ziele ratifiziert haben, (unterschrieben – ja; rechtlich verpflichtend=ratifiziert – nein) sank dort das Interesse an den Zertifikaten, weshalb die Klimabörse in Chicago geschlossen wurde. Dennoch ist es für jede Regierung verlockend, mit Hinweis auf die Schuld des einzelnen Menschen, ihn mit Steuern und Gebühren zu belasten und Gesetze zu erlassen, die Geld in die maroden Staats-Kassen spülen. In Deutschland wurde 2014 eine Rekordsumme an Steuern eingespielt. So betrug das Aufkommen an der MWSt nur aus der EEG-Umlage allein in 2014 rund 1,6 Milliarden €. [10]

Aber keine Sorge, dafür wird schon Verwendung gefunden werden: Zur Rettung deutscher Banken in GR,  für die Unterstützung eines korrupten NATO-Aufnahme-Kandidaten, für die Kosten der Zuwanderung.

D a g e g e n : Für den Ausbau von KiTAs, finanzielle Hilfen für alte Menschen, gut ausgestattete Schulen und Unis,  Verbesserung der Infrastruktur wie Straßen und Brücken – eher nicht.

Mit unserer Kritik stehen wir so alleine nicht. In einem Interview mit der BILD sagte Alt-Bundeskanzler Helmut Schmidt: "Dieser Weltklima-Rat hat sich selbst erfunden, den hat niemand eingesetzt. Die Bezeichnung Weltklima-Rat ist eine schwere Übertreibung. Diese ganze Debatte ist hysterisch, überhitzt, auch und vor allem durch die Medien. Klimatischen Wechsel hat es auf dieser Erde gegeben, seit es sie gibt." bild.de 3.6.2007 [11] Und er konkretisierte  2011: "Die von vielen Regierungen international betriebene sogenannte Klimapolitik steckt noch in ihren Anfängen. Die von einer internationalen Wissenschaftlergruppe (IPCC) bisher gelieferten Unterlagen stoßen auf Skepsis. Jedenfalls sind die von einigen Regierungen öffentlich genannten Zielsetzungen bisher weniger wissenschaftlich als vielmehr lediglich politisch begründet. Es scheint mir an der Zeit, daß eine unserer wissenschaftlichen Spitzenorganisationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und sodann die sich ergebenden Schlußfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt." [11]

Und was die armen Eisbären betrifft: Deren Population betrug 1950  5.000 Stück. Heute sind es –  25.000 !

Q u e l l e n :

[4] http://www.de-ipcc.de/de/119.php
[5] http://www.welt.de/print/welt_kompakt/print_politik/article13468087/Die-grosse-Luftnummer.html
[6] http://www.nzz.ch/international/ruecktritt-des-uno-klimaratschefs-1.18489739
[7] http://www.spiegel.de/wissenschaft/natur/himalaja-schmelze-uno-klimarat-gibt-fehler-bei-gletscher-prognose-zu-a-672984.html
[8} http://lv-twk.oekosys.tu-berlin.de//project/lv-twk/02-intro-3-2-twk.htm Teil 1/III
[9] Gegen das Geschäft mit dem Klimawandel: Plädoyer für eine freie und soziale Gesellschaft,  2014 Uwe Timm Hrsg Michael von Prollius S.12
[10] http://www.pv-magazine.de/nachrichten/details/beitrag/eeg-umlage–bund-rechnet-mit-1-6-milliarden-euro-umsatzsteuer-einnahmen_100014924/
[11] http://www.eike-klima-energie.eu/energie-anzeige/nachruf-auf-den-herausragenden-politiker-und-aufklaerer-des-buergers-helmut-schmidt/
zitiert nach Max-Planck-Gesellschaft, Festakt 100 Jahre Kaiser-Wilhelm-Gesellschaft 

====================================================

)*  Dieser Beitrag ist zunächst erschienen in: Dorfzeitung Essen, März 2015 / Nr.2 ; vgl. dazu Abbildung oben.

====================================================




Ein Nachruf auf das AKW Grafenrheinfeld

Die Grundschullehrerin Gudrun Pausewang hat Albert Einstein und Niels Bohr besiegt. Sie hatte im Vorwort zum Buch „Die Wolke“ zum Widerstand gegen die „Atommafia“ aufgerufen und warnte vor einem „Ökozid“ der Gesellschaft. Der ist eingetreten und heißt „Energiewende“.

Am 27. Juni 2015 trennte sich die Anlage endgültig vom Stromnetz. Mehr als 30 Jahre hatte der Meiler zuverlässig, störungs- und CO²-frei die Arbeit von mehr als 3.000 Windrädern an Haushalte und Industrie geliefert, auch bei Windstille.

Die äußeren Umstände der Außerbetriebnahme trugen bizarre Züge. Während sich die Betriebsmannschaft loyal bis zum letzten Kilowatt still in ihr Schicksal fügte, feierte vor dem Tor die grüne Szene höhnisch ihren Sieg über die wirtschaftliche und ökologische Vernunft. Vor dem Kraftwerk fand eine „Abschaltparty“ statt, bei der nach dem Herunterzählen der Sekunden die Sektkorken knallten. Sie knallten im Schatten der Dampfschwaden aus den Kühltürmen des Kraftwerkes, das sich zu diesem Zeitpunkt und noch ganze vier Wochen weiter in Betrieb befand. Die Netzagentur hatte nämlich die Abschaltung untersagt, da der Strom gerade dringend gebraucht wurde. Die Medien feierten unverdrossen mit und kein Politiker ließ sich bei der Betriebsmannschaft blicken.

Wer heute durch die Anlage geht, traut seinen Augen nicht. Glänzender rostfreier Stahl, Ordnung und blitzsaubere Gänge – eine Technologie im neuwertigen Zustand. Immer noch wird nachgerüstet. Zu den dreifach-Sicherheitssystemen wird auf Anforderung der Behörde noch ein Kühlsystem für ein paar Millionen installiert.

Die meisten Kernkraftwerke weltweit haben eine Laufzeit von 60 Betriebsjahren. Grafenrheinfeld geht mit seiner überlegenen Sicherheitstechnik nach der Hälfte dieser Zeit in den vorzeitigen Ruhestand. Die Grünen nennen so etwas abfällig „Schrottreaktor“, obwohl sie die Anlage noch nie in Augenschein genommen haben.

Es ist nicht nur die gepflegte Technik, die solcherart verunglimpft wird. Auch die dreihundert Mitarbeiter müssen Verächtlichmachung ertragen. Und mit ihnen die über tausend Fremdfirmenmitarbeiter. Die meisten wohnen in der unmittelbaren Umgebung des Kraftwerkes. Ingenieure, hochqualifizierte Facharbeiter, Physiker, Köche, Wachmänner, Reinigungskräfte, Sekretärinnen, alles Menschen, die über Jahre hohes Verantwortungsbewusstsein gezeigt haben, müssen sich vorwerfen lassen, dass sie ihre Familien leichtfertig einer Katastrophe aussetzen würden, dass sie als „Atommafia“ gar die Zukunft ihrer Kinder gefährden.

Die Abschaltparty ist vorbei. Ein kalter Wind weht über den halbleeren Parkplatz vor der Anlage. Der Katzenjammer schleicht sich an. Die Energieversorger sind die ersten Opfer der vergurkten Energiewende. Sie wurden kalt enteignet. Die Strompreise sind fast doppelt so hoch, wie vor der Energiewende, der Steuerzahler und Stromkunde wird mit Strom zu ständig steigenden Höchstpreisen zur Kasse gebeten, von zwei Kugeln Eisist nicht mehr die Rede. Die Klimakanzlerin mutierte zur Flüchtlingskanzlerin und hat sich still von ihren Klimazielen verabschiedet. Auch sie redet nicht mehr über die 3,5 Cent EEG-Umlage, die sie den Wählern einst zugesichert hatte. Der CO² Ausstoß steigt von Jahr zu Jahr. Die Versorgungssicherheit sinkt.

Die Großindustrie flüchtet leise ins Ausland. Die verbleibenden Industriebosse heulen mit den Wölfen, weil sie begriffen haben, dass es sich besser mit Subventionen überleben lässt.

Weltweit sind mehr als 70 neue AKW im Bau, über 200 sind in Planung. Selbst das tsunamierschütterte Japan fährt seine AKW’s nach Modernisierung wieder an. Kein einziges Land der Welt folgt den deutschen Vorreitern einer archaischen Energievision. Wie auch, nach den spektakulären Pleiten der subventionsvernichtenden Solar- und Windfirmen? Wie auch, bei den Strompreisen? Der Traum von der deutschen Zukunftstechnologie wird schneller ausgeträumt sein, als bis Finnland sein radioaktives Endlager in Olkiluoto in Betrieb nimmt.

Die Deutschen sind im Jahre 2016 mit vollem Speed auf einer energiepolitischen Geisterfahrt unterwegs. Aber das ist ja nicht die einzige Geisterfahrt in diesem Jahr der Herausforderungen und Chancen.

Dem Kraftwerksgelände wird eines Tages wieder ein Rübenacker sein. Vielleicht werden sich dort einmal 20 Windräder drehen. Für die 2.880 anderen, die das Kraftwerk dann vollständig ersetzen könnten, müssen noch Standorte gefunden werden.

Übernommen von ACHGUT hier




Wetter narrte am Rosenmontag den Wetterdienst

Von vorrangigem Interesse ist die Beantwortung der Frage, was hat sich beim Wetter abgespielt. Die Diskussion um die Absage vieler Umzüge entlang des Rheins erhitzt unverändert die Gemüter. War sie notwendig und wie wird sie begründet? Dies können nicht die Zug-Organisatoren beantworten, sondern nur der Deutsche Wetterdienst.  Er verbreitete am Sonntag um 18.30 Uhr die Meldung, dass „am Vormittag des Rosenmontag von Windstärken um 7 und 8 auszugehen sei. Danach, also ab Mittag, können sie sich auf 9 und gegen 15 Uhr sogar auf 10 steigern“. Solch eine präzise Vorhersage konnten die Veranstalter, in Mainz der MCV, nicht ignorieren und bliesen wehen Herzens den Rosenmontagszug ab.

Doch die Wetter-Wirklichkeit entsprach bei weitem nicht der Wetter-Vorhersage! Was aber bewegte den Deutschen  Wetterdienst zu einer selten detaillierten Prognose? Es ist wohl sein unbändiger Glaube an die „Unfehlbarkeit“ der numerischen Wettervorhersagemodelle, an den Computer als „das elektronische Superhirn der Meteorologen“ (Schwäbische Zeitung vom 7. Dezember 2013). Nach Aussagen des DWD sind genaue Prognosen bis zu sieben Tagen im Voraus möglich. Im Zeitraum von bis zu 36 Stunden liegt die Trefferquote bei 95 Prozent! Von Sonntag 18.30 bis Rosenmontag 14.30 Uhr liegen nur 20 Stunden.

Der DWD meldete schon aufgrund der Vorhersage eines amerikanischen Computers am 2. Februar, dass ein Tief nördlich von Neufundland aufgetaucht sei und Kurs nach Europa nehme, sich zum Orkantief entwickele und genau zum Höhepunkt des Karnevals am Rosenmontag über Deutschland eintreffen werde. Anfangs gehorchte das Tief den Prognosen des Computers. Es wurde auf den Namen „Ruzica“, Röschen, getauft. Das „Röschen“ entwickelte sich prächtig zum Orkan und lag am 7. Februar im Seegebiet zwischen Island und Irland. Seine Kaltfront verlief über England entlang des Null-Meridians über London und Paris quer durch  Frankreich bis zu den Pyrenäen. Sie zeigte keinerlei Besonderheiten. Doch ab hier schlug das Wetter dem Computer ein Schnippchen. Das Orkantief nahm nicht Kurs auf die Deutsche Bucht und wurde von der starken westlichen Höhenströmung gegen die norwegische Küste gedrückt, wo es gespalten wurde. 

Von diesem Zeitpunkt an war sicher, dass kein Orkantief mehr kommen würde. Aber auch entlang der Kaltfront zeigten sich, von Satellitenfotos am Faschingssonntag bestätigt, keinerlei Auffälligkeiten. Weder extremer Regen noch extreme Stürme wurden aus Frankreich gemeldet. Eine Verschlimmerung war nicht in Sicht, so dass die Züge hätten stattfinden können. Die Wetterlage war keinesfalls mit der am 25. und 26. Januar 1990 zu vergleichen, als das Sturmtief „Daria“ Rosenmontagsumzüge zum Abbruch zwang. Dennoch kam um 18.30 Uhr eine Orkanwarnung durch den Wetterdienst.

Das Wetter am Rosenmontag machte aber nicht das, was es hätte tun sollen. Bei Durchzug einer schwachen, der Kaltfront um etwa 4 Stunden voraus laufenden Warmfront am Vormittag fiel etwas Regen und der Wind frischte böig auf. Trotz Umzugsverbot in Mainz organisierte um 13 Uhr die Mainzer Ranzengarde, die „Mutter aller Garden“ von 1837, kurzerhand einen kleinen Gardesspaziergang zu der befreundeten Husarengarde. Dieser ging rund um den Dom, wobei zeitweise die Wolkendecke aufriss und die Sonne schien. Zu dieser Zeit wäre normalerweise der Zug durch Mainz gerollt. Hunderte von begeisterten Narren schlossen sich dem Spaziergang spontan an! Bei den vereinzelten Windböen flog kein Hut vom Kopf! Gegen 16.00 Uhr folgte dann der Durchzug der Kaltfront bei etwas stärkerem Regen und böigerem Wind, aber auch ohne schwere Sturm- oder Orkanböen der Stärke 10 Beaufort. In Köln, wo die Warnung des DWD ignoriert wurde, verlief bei aufgelockerter Bewölkung der Umzug reibungslos. In Düsseldorf war der Umzug abgesagt worden wegen des Orkans „Ruzica“, doch um das Rathaus, welch eine Narretei, stellte man bei Sonnenschein die Motivwagen auf, zum „belure“. Sie wurden nicht vom Winde verweht. 

Es ist nun interessant, wie der Wetterdienst über seine Meteorologen reagierte. Lars Kirchhübel verteidigte die Prognose. Dies tat auch Björn Alexander und meinte, Düsseldorf und Köln hätten nur Glück gehabt: „Köln sei durch die Eifel geschützt“, doch warum hat man das nicht vorher berücksichtigt und bringt es im Nachhinein als Ausrede? Und warum hatte Düsseldorf Glück? Carsten Schwanke (ARD) twitterte: „Die Absage von Düsseldorf  – für mich ein Rätsel“! Wenn aber Köln von der Eifel geschützt wird, warum dann Mainz nicht von Taunus, Hunsrück und Pfälzer Wald? Kennt man die Topographie des Mainzer Beckens bei der Wetterdienstzentrale in Offenbach am Main nicht? Deren Schutz reichte bis zum Frankfurter Flughafen, dessen Betrieb bis in den späten Nachmittag völlig normal verlief. Die witzigste Anmerkung lieferte Jörg Kachelmann. Er meinte, dass es neben den Orkanböen auch das „Risiko eines Tornados in Düsseldorf mit Toten“ hätte geben können. Da sprach der frühere „ARD-Wetterexperte“, aber kein diplomierter Meteorologe. 

Wenn ohne Angabe von Ort und Zeit der Wetterdienst in Deutschland eine einzige Böe von 101 km/h nennt und als Rechtfertigung seiner Orkanwarnung heranzieht, dann ist dies nur eine rein theoretische Rechtfertigung, denn Wettervorhersagen sollen, so sein Anspruch, konkret sein. Verbale Übertreibungen haben bei Wetterberichten nichts zu suchen. 3 Grad sind nicht „mild“, 15 Grad nicht „warm“, die Wolken haben „keinen Regen im Gepäck“ oder lassen Regen zurück. Auch das ewige Zensieren des Wetters samt seiner Benotung sind absolut unangebracht, weil das Wetter nicht uns Menschen gehorcht, sich auch nicht nach unseren Wünschen richtet. Wetterberichte sollen die Menschen sachlich neutral informieren, weder Angst noch Illusionen verbreiten. Maßlose Übertreibungen haben darin nichts zu suchen. Man kann sich auch, wie zu meiner Zeit üblich, für fehlerhafte Vorhersagen entschuldigen und ihr Zustandekommen erklären. Ein Computer hat keine eigene Intelligenz, er kann nicht irren. Aber dies können Menschen, die seine Ergebnisse ohne Abgleich mit der Wirklichkeit blind übernehmen und fortschreiben. 

Was soll nun gemacht werden? Sollen die Züge nachgeholt werden? Fastnacht ist an die Fastenzeit wie das Osterfest gebunden und kann nicht willkürlich verlegt werden. Der Karneval in Rio findet auch nicht im dortigen Winter statt, bei weniger Hitze und der Gefahr von Tropengewittern. Und wer kann garantieren, dass bei einem sommerlichen Termin nicht auch wieder eine Kaltfront mit Gewittern, die ja heute alle ein hohes Unwetterpotential „im Gepäck“ haben, mit Hagel und schweren Sturmböen, den Zug vereitelt? Man denke nur an den Rheinlandpfalztag 2012 in Ingelheim, bei dem der Festumzug am Sonntag, dem 3. Juni, total verregnet war und in Regenfluten versank.

Der Bürger wünscht sich wieder mehr Seriosität bei den Wetterberichten. Er weiß um die Wechselhaftigkeit wie Unbeständigkeit des Wetters. Sich adäquat sofort den aktuellen Gegebenheiten anzupassen und nicht „blind“ Warnungen auszusprechen, dafür ist der DWD da. Nicht ohne triftigen Grund werden alle drei Stunden neue Wetterkarten gezeichnet. Man muss beim Wetter immer mit Überraschungen rechnen. Die Verfallzeit von Vorhersagen kann verdammt kurz sein. Aber es hat den Eindruck, dass sich der Wetterdienst bei der Vorhersage des Klimas in 70 Jahren wohler fühlt als bei nicht einmal 24stündigen Vorhersagen, weil man diese sofort überprüfen und kritisieren kann.




Haus und Grund Februar 2016: „Digitale Stromzähler kommen in Zukunft wohl flächendeckend zum Einsatz – aber mit Bedenken“

Wenn die freie Entscheidungskompetenz der Bürger die politischen Erwartungen nicht erfüllen, dann wird mit allen Tricks, schlussendlich immer zu Lasten der Steuerzahler subventioniert, nachgeholfen. Es fällt offenbar sehr schwer einzugestehen, dass manche Wunschträume zu bezahlbaren Kosten rein technisch nicht zu erfüllen sind. 

So auch beim „smart meter“, der erheblich teurer sein wird, vieles ermöglicht, was aber kein Stromverbraucher auf Dauer haben will, und schlussendlich den Strombezug nur teurer macht. 

Der berechtigte Ärger der Stromverbraucher über die stetig steigenden Strompreise, wird in geschickter Weise nicht den Verursachern, sondern den ebenfalls leidenden Stromerzeugerunternehmen zugeordnet,  aber die wirklichen Ursachen der unsinnigen gesetzlichen Vorgaben wie immer verschwiegen, bzw. für die Bürger nur in Unverständlichkeit vernebelt umschrieben.  

Tatsache ist, dass durch „Grüne“ Gesetzesinitiativen zunächst in der rot/grünen Regierung unter Gerhard Schröder am 1. April 1999 die Stromsteuer gegen die CDU/CSU Opposition eingeführt wurde. Diese wurde durch die nachfolgende CDU Regierungsbeteiligung dann zwar auf 3 Pf/kWh begrenzt (heute 2,05 ct/kWh), aber auch nicht wieder abgeschafft. 

Anschließend wurde ebenfalls auf Initiative der „Grünen“ unter Umweltminister Trittin die EEG-Abgabe in Höhe von Anfangs bescheidenen 0,43 ct/kWh, von Herrn Trittin mit einer Kugel Eis pro Monat als Kostenbelastung beschwichtigt, eingeführt. Diese beträgt heute 6,354 ct/kWh. Damit ergibt sich für 2016 ein EEG-Umlagebetrag von 24,7 Milliarden Euro, bereits mehr, wie die gesamte deutsche Stromerzeugung aus dem konventionellen Kraftwerkspark kosten würde, nämlich rd. 24 Mrd. € bei gutem Gewinn der Kraftwerksbetreiber, sofern die Kraftwerke rund um die Uhr produzieren dürfen. 

Neben den weiteren staatlichen Abgaben wie Konzessionsabgabe: 1,66 ct/kWh, KWK Umlage: 0,445 ct/kWh, §19 StromNEV-Umlage: 0,378 ct/kWh, §18 AbLaV-Umlage (Umlage für abschaltbare Lasten): 0,01 ct/kWh, Offshore-Umlage: 0,039 ct/kWh, Mehrwertsteuer: 4,47 ct/kWh, ergibt sich für einen Stromkunden mit 4.000 kWh Jahresverbrauch und 1.120 € Jahresstromrechnung, entsprechend 28 ct/kWh, ein staatlicher Anteil von 15,41 ct/kWh oder 55 %. Aus den verbleibenden 12,59 ct/kWh müssen die Netze und die Stromerzeugung bezahlt werden. Bei einem typischen Netznut-zungsentgelt von 6,78 ct/kWh verbeiben für die Stromerzeugung 5,81 ct/kWh, alles einschließlich der Vertriebskosten und Unternehmensgewinne.  

Es ist sicher einsichtig, dass das Sparpotenzial ausgehend von den 5,81 ct/kWh sehr begrenzt ist, eher wird dieser Preisanteil höher werden als geringer.   

Die Stromerzeugung aus Offshore Windenergieanlagen wird derzeit per Gesetz mit 19,4 ct/kWh vergütet, onshore-Neuanlagen mit rd. 8,5 ct/kWh, onshore Altanlagen im Mittel mit rd. 13 ct/kWh, Photovoltaikanlagen im Bestand im Mittel mit rd. 16 ct/kWh, Neuanlagen bis 10 kW mit 12,31 ct/kWh. Aus diesen Daten kann man leicht selbst abschätzen, wie weit die Stromerzeugungskosten in naher Zukunft mindestens weiter ansteigen müssen, wenn wir in den Zielen der Energiewende von derzeit rd. 33 % Ökostrom gegen 100 % weiter voranschreiten. Aber bitte nicht klagen oder Schuldige suchen, falls man die bei den Stromunternehmen vermutet. 

Das „Mindestens“ ist sehr ernst gemeint, denn mit zunehmender vorrangiger EEG-Einspeisung werden die weiterhin notwendigen konventionellen Kraftwerke noch mehr in unwirtschaftliche Lastbereiche gezwungen, ohne Kostenersparnis realisieren zu können und daher sehr viel teurer, aber trotzdem unverzichtbar, es sei denn, jemand sorgt dafür, dass der Wind immer weht oder die Sonne auch nachts am wolkenlosen Himmel scheint. 

Dabei ist zu beachten, dass es sehr wohl Stromanbieter gibt, die den Ökostrom billiger anbieten als den Normalstrom, aber das ist aber schlicht und einfach Betrug durch nachweisbare Quersubventionierung. Ebenso ist das Argument, dass durch Stromspeicherung die Mangelzeiten der Wind- oder Solarstromerzeugung überbrückt werden könnten nicht stichhaltig, denn die ist, welcher Art auch immer, in dem Rahmen bezahlbarer Strompreise – soweit man realistisch zu denken vermag -, schlicht unbezahlbar.  

Ebenso wird die noch anstehende Stilllegung der noch am Netz befindlichen 7 Kernkraftwerke einen weiteren Preisschub nach oben verursachen, denn solange wir die hatten oder bis 2022 noch haben, ist der Strom nachweislich relativ günstig, in Ländern mit Kernkraftwerken auch zukünftig. 

Wer ernsthaft glaubt, Wind- +Solarstrom könnte die konventionellen Kraftwerke jemals ersetzen,  

der irrt sehr, denn Null mal beliebig viel bleibt Null, wie seit 70 Jahren im Kölner Karneval besungen wird: 

          "En d’r Kaygass Nummero Null …,   

          Dreimol Null is Null bliev Null        

          Denn mer woren en d’r Kayjass en d’r Schull                       

          Dreimol Null is Null, bliev Null                                            

          Denn mer woren en d’r Kayjass en d’r Schull   

Siehe Abbildung oben rechts.

Am 7. bis 9. 12. oder vom 14. bis 16.12. oder am 28.12. war die Wind- und Solarstromeinspeisung in das deutsche Stromnetz nahezu gleich Null, mit der Folge, dass die konventionellen Kraftwerke die gesamt Last abdecken mussten. Vom 22. bis 24.12. konnten die Windenergieanlagen mehr als den hälftigen Bedarf abdecken. In den Zeiten, in denen diese zurück fahren müssen weil die regenerativen Einspeiser ja gesetzlichen Vorrang genießen, sparen die konventionellen Kraftwerksbe-treiber aber so gut wie Nichts. Es wird nur kein Umsatz gemacht und daher keine Kostendeckung realisiert, was diese Unternehmen systematisch in den Ruin treibt. Die Solaranlagen sind im Winter energiewirtschaftlich fast vernachlässigbar und daher auch ganzjährig ohne Leistungswertigkeit.  

Die vielfach gehegte Erwartung, dass durch Preissignale der smart meter in den Wohnungsübergaben die Netzinfrastruktur reduziert werden könnte und so Netz- und Kraftwerkskosten eingespart würden, ist leider unbegründet. Denn durch die zufällige natürliche Lastdurchmischung der Menschen genügt es, für die rd. 40 Millionen Haushalte eine Kraftwerksleistung von rd. 40.000 MW bereit zu stellen, das entspricht nur 1 kW je Haushalt. Am Hausanschluss werden aber für jeden Haushalt bis zu 30 kW verfügbar frei gegeben, so dass der einzelne Verbraucher vollkommen frei ist in der Inanspruchnahme elektrischer Leistung d.h. bezüglich des Geräteeinsatzes. Die weiteren 40.000 MW stehen der Industrie und dem Gewerbe zur Verfügung. Eine bessere Freiheitsgarantie, wie bei der unreglementierten häuslichen Stromversorgung – ohne smart meter – ist kaum denkbar. Das mag für die am Geräteumsatz verdienenden Branchen unangenehm sein, ist aber zum Glück der 40 Millionen mittels kostengünstigen Ferraris-Zähler erfassten Stromverbraucher Realität. 

Aus diesem Dilemma kommt unser Land nur heraus, wenn die Politik bereit ist, die sich als unsinnig erwiesenen Ziele, die Stromerzeugung in unserem Land durch immer mehr Wind- und Sonnenenergieanlagen abzudecken, schlicht und einfach mit dem erreichten Stand von bereits 33 % der Jahresarbeit und über 110 % der maximalen Leistung, als erledigt zu betrachten. Dazu ist es nur erforderlich, gemäß Ludwig Erhards Wirtschaftsphilosophie der sozialen Marktwirtschaft wieder dem Wettbewerb ohne Subventionen und gesetzliche Vorrangbestimmungen auch auf dem Gebiet der Stromerzeugung Geltung zu verschaffen. Dann erledigt sich dieses Problem wegen der weitge-hend abgeschriebenen Anlagen ganz von selbst. Ob es dann wieder Investoren für entsprechende Neuanlagen gibt, wird dann der Markt entscheiden, ebenso wie das bei den Kernkraftwerken in den anderen Ländern auch der Fall ist. 

Helmut Alt 




Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

Simulieren des EEG-Wendezeit-Paradieses im Jahr 2050 mit 100 % Vollversorgung durch grüne Energien[2] zeigt jedoch:

·       Diese Wende ist aufgrund der totalen Wetter-Abhängigkeit der Erzeuger genau so chaotisch wie das verursachende Wetter und damit niemals vorhersagbar noch planbar. Somit kann jede Aussage dazu zeitweise richtig und zeitweise falsch sein. Was man aber sicher vorhersagen kann, sind hohe Kosten.

Welche Konsequenzen dies auf die Energieversorgung hat und wie ausgewiesene Experten damit „umgehen“, wird in der folgenden Ausführung gezeigt.

Vorspann

Auf VERNUNFTKRAFT.de wurde im Dezember ein Artikel „Energiewende erfolgreich gemacht?“ publiziert, welcher die hier dargestellte Thematik umfangreich und sehr detailliert behandelt. Am Schluss dieser Publizierung wird ein „Gedankenexperiment Vollversorgung mit Sonne und Wind“ dargestellt. Dieses Gedankenexperiment hat der Autor weiter ausgearbeitet und mit Fallbeispielen und Grafiken versehen, womit die EIKE-Publizierung „Teil 2: Intelligente Versorgungsnetze“ ergänzt und abgeschlossen ist.

Daten des Jahres 2015 und Hochrechnung zum Jahr 2050

Für die folgenden Hochrechnungen zum Jahr 2050 werden die Daten der Tabelle von Bild 1 angezogen.

Wie immer der Hinweis, dass es keine amtlichen Daten gibt und die verschiedenen Angaben sich teils erheblich unterscheiden. Deshalb werden für das Jahr 2015 die Angaben aus der ganz aktuellen Meldung des Fraunhofer ISE verwendet. Für die Hochrechnungen hat der Autor seinen Datensatz* (Dez. 2014 – Nov 2015)  auf die ISE-Werte normiert. Die Ausbau-Verhältnisfaktoren zwischen Solar und Windkraft sowie die festen Ausbaufaktoren für Biogas und Wasser wurden der Tabelle 2 aus [4] entnommen. Die variablen Ausbaufaktoren von Solar und Windkraft sind dann mit dem eigenen Datensatz hochgerechnet. Der Datensatz und damit alle abgeleiteten Darstellungen beginnen mit dem Dezember 2049 und  enden mit dem November 2050.

 

Bild 1 Energiedaten 2015 (Hauptquelle [3], Daten aus anderen Quellen in Klammern) und Hochrechnungen daraus für das Jahr 2050 

Wieder sieht man den Subventionsirrsinn des EEG deutlich. Solar lieferte im Jahr 2015 (und das war ein mittleres „Solarjahr“) lediglich 19 % der grünen Energie, kostet aber die Hälfte des gesamten EEG-Budgets.

Ausbaufaktoren

Die im Bild 1 gelisteten Faktoren für Windkraft und Solar sind Netto-Werte. Mit Berücksichtigung von Verlusten durch Speicherung und Netze wären diese mindestens um 20 % höher anzusetzen.

Man mache sich keine Illusionen (aufgrund reißerischer „Erfolgsartikel“) über Wirkungsgrade von Energiespeichern. Die Wirkungsgrade von Speichern sind in der VDE-Studie „Energiespeicher für die Energiewende“ von 2015 wie folgt angegeben:

[5] Kurzzeitspeicher mit hohem Zykluswirkungsgrad > 75 %,
Langzeitspeicher mit bislang geringem Zykluswirkungsgrad <= 40 %.

Umfangreiche Details zum Speicherthema wären in der EIKE-Publizierung "Elektro-Energiespeicherung" nachlesbar.

Somit ergeben sich alleine für die Energieparität und falls im Jahr 2050 wirklich die geforderten 10 % weniger Elektro-Energie-Verbrauch erreicht werden mindestens die folgenden Minimal-Ausbaufaktoren gegenüber dem Jahr 2015:

·       Wind: Faktor 4

·       Solar: Faktor: 3,5

Mit diesem Ausbau ist jedoch noch kein Energie-Überschuss zur Zwischenspeicherung der Langzeit-Energiedifferenzen vorhanden. Dafür sind nochmals erhebliche Ausbaufaktor-Zuschläge anzusetzen. Zusätzlich sollen im EEG-Paradies dann auch ausschließlich reine Elektroautos fahren dürfen – wie es die Grünen aktuell fordern -, welche dann nicht unerheblich zusätzlichen Strom verbrauchen.

Beim Wandern in der Natur (natürlich nicht in Oberbayern, das davon „zufällig“ konsequent freigehalten wird) darf man sich beim Anblick von Wind- und Solarparks ganz grob im Jahr 2050 die Anzahl mal 4 … 7 vorstellen. Wer sich von Windparks besonders angesprochen fühlt und Lust-Wandeln im Solarpark erregend findet, hat solche dann sicher in ausreichender Zahl nahe vor seiner Haustüre.

Die Elektroenergie im Jahr 2050

Fall A: Grünstrom-Einspeisung = Verbrauch

Im Folgenden die Grafiken des Jahres 2050 mit den Daten von Bild 1 hochgerechnet. Es sind Nettowerte, also ohne Verlustzuschläge berechnet.

Bild 2 zeigt:

·       Verbrauchsleistung (MW)

·       Angebotene Leistung aller Grünstrom-Quellen (MW)

 

Bild 2 Ganglinien des Jahres 2050 wenn die Jahres-Grünenergie-Einspeisung dem Verbrauchswert entspricht

Man sieht deutlich, wie die Einspeisung ständig zwischen viel zu viel und viel zu wenig Energieangebot pendelt. Welche Probleme das alleine im Verteilsystem bedeutet, wurde im Artikel "Neue Energien für Dummies, Teil 2 Versorgungsnetze" erklärt. Das folgende Bild 3 zeigt dazu die Verläufe von Leistungs-Über- / Unterangebot und die daraus resultierende Energiebilanz (Differenz aus Einspeisung und Verbrauch).

Bild 3 zeigt:

·       Verbrauchsleistung (MW)

·       Verlauf der Angebots- / Verbrauchs-Differenz (MW) (Leistungs-Über- / Unterangebot)

·       Resultierende Energiedifferenz (MWh) als Energiebilanz-Kurve

 

Bild 3  Ganglinien des Jahres 2050 mit Differenzwerten der Leistung und Verlauf der Energiebilanz

(Jahres-Einspeisung = Verbrauchswert)

Im Bild 4 sieht man den Verlauf der Energie (Summierung der Leistung) sowie Einspeisung und Verbrauch. Gut sichtbar ist, dass die Energieverläufe optisch geringe Differenzen zeigen, die man kaum erkennen kann. Die extrem hohen Zahlenwerte der Energiesummen (GWh) „kaschieren“ jedoch, dass diese niedrigen relativen Differenzen absolut betrachtet ebenfalls gewaltige Zahlengrößen bedeuten.

Bild 4 zeigt:

·       Verlauf Energieverbrauch (GWh)

·       Verlauf Energie-Einspeisung (GWh)

·       Energiebilanz (Differenz: Energieeinspeisung – Energieverbrauch)

 

Bild 4  Energiebilanz des Jahres 2050  (Jahres-Einspeisung = Verbrauchswert)

Nicht fehlen darf dazu das Histogramm der Leistungs- Bereitstellung der grünen Energieen.

Bild 5 zeigt:

·       Histogramm der Leistungs-Bereitstellung, klassifiziert in 5 % Schritten
Bezug: installierte Leistung. Die Säulenhöhe ist der Zeitanteil des Jahres 2050.

·       Histogramm-Summen-Verlauf (Zeitwerte der Klassensäulen addiert)

 

Bild 5 Histogramm des Leistungsangebotes grüne Energien im Jahr 2050 (Jahres-Einspeisung = Verbrauchswert)

Fazit

·       Es sind Kurzzeitspeicher erforderlich, welche die vielen Spitzen von Bild 3 mit 40.000 … 80.000 MW über Stunden verarbeiten  können. Anm.: Ein Akkuspeicher kostet alleine als Startinvestition ohne Betriebs- und Akku-Austauschkosten (mindestens alle 10 Jahre) 1 … 2.000 EUR / kWh. Um 80.000 MW nur 1 Stunde zu speichern sind das 80 … 160 Milliarden EUR. Man benötigt aber viele Stunden.

·       Zusätzlich sind in erheblichem Umfang  Langzeitspeicher über Monats-Zeiträume erforderlich (Bild 4). Diese haben ähnliche Investitionskosten, aber Wirkungsgrade um 40 %

Schwankungen von Solar und Windkraft

Die grüne Energie ist bekanntermaßen direkt vom Wetter abhängig. Der dem Autor zur Verfügung gestellte Datensatz eines  „Windmüllers“ zeigt die folgenden Jahresschwankungen um den Mittelwert (Bild 5.1): 

·       Ideal ausgerichteter, großer Solarpark über 9 Jahre: – 10,4 … + 8,2 %, Spannweite: 18,6 %;Standardabweichung: +- 5,7 %. Die größte Differenz innerhalb von zwei aufeinander folgenden Jahren waren 16,6 %

·       Windanlage über 14 Jahre: -16,6 …. + 21 %, Spannweite: 37,6 %; Standardabweichung: +- 10 %.
Dabei betrug die Differenz vom Minimal- zum Maximalwert (37,6 % Jahresdifferenz)  gerade einmal 3 Jahre.

 

Bild 5.1 Relativer Jahresertrag einer Windanlage und Solaranlage im klimatisch „ruhigen“ Franken

Wind hat im kommenden EEG-Schlaraffenland den wesentlichen Leistungsanteil und gleichzeitig die höchsten Langfrist-Schwankungen. Zudem zeigt sich auch eine deutliche Korrelation im „Wetterverhalten“ beider Energiequellen. Damit sind die Differenzszenarien B und C mit denen in der Folge gerechnet wird realistisch und noch weit niedriger als die 2,5 … 3 x Standardabweichung, mit der man „für Sicherheit“ rechnen müsste.

Fall B: Wind und Solar Einspeisung +15 %, Verbrauch -5 %

Simulation des Jahres 2050 unter der Annahme, dass sich durch stärkere Wetterschwankungen und unterschiedliche Verluste die Einspeisung von Wind und Solar eines Jahres um + 15 % erhöht und gleichzeitig der Verbrauch um -5 % zurückgeht. 

 

Bild 6  Ganglinien des Jahres 2050 mit Differenzwerten der Leistung und Verlauf der Energiebilanz

(Wind und Solar  + 15 %, Verbrauch – 5 %)

Bild 7  Energiebilanz des Jahres 2050  (Wind und Solar  + 15 %, Verbrauch – 5 %)

Was hat sich durch die moderate Erhöhung des Energieangebotes verändert?

·       Die Kurzzeitspeicher werden verstärkt benötigt. Sie werden aber nicht mehr leer, um sie erneut aufladen zu können.

·       Das ganze Jahr herrscht Energie-Überschuss. Langzeitspeicher für Energiemangel werden nicht mehr benötigt. Wollte man den Überschuss speichern, bräuchte man Längstzeit-Speicher mit extrem hohen Voluminas

·       Findet man für den nicht marktfähigen Grünstrom-Überfluss keine (zwangs-)Abnehmer, muss er abgeregelt werden

Fall C: Wind und Solar Einspeisung -15 %, Verbrauch +5 % 

Simulation des Jahres 2050 unter der Annahme, dass sich durch stärkere Wetterschwankungen und unterschiedliche Verluste die Einspeisung von Wind und Solar eines Jahres um – 15 % verringert und gleichzeitig der Verbrauch um +5 % erhöht, entsteht das folgende Szenario.

 

Bild 8  Ganglinien des Jahres 2050 mit Differenzwerten der Leistung und Verlauf der Energiebilanz

(Wind und Solar  – 15 %, Verbrauch + 5 %)

 

Bild 9  Energiebilanz des Jahres 2050  (Wind und Solar  – 15 %, Verbrauch + 5 %) 

Was hat sich durch die moderate Verringerung des Energieangebotes verändert? 

·       Die Kurzzeitspeicher werden weiterhin benötigt

·       Fast das ganze Jahr herrscht Energiemangel. Die Langzeitspeicher sind nutzlos. Sie können keinen Ausgleich vornehmen, da sie nicht mehr geladen werden.

·       Der Energiemangel muss durch Fremdquellen ausgeglichen werden.

Fazit

Im EEG-Paradies 2050 pendelt die Energie fortwährend zwischen schlimmem Mangel und erheblichem Überfluss. Abhilfe-Maßnahmen für den einen Zustand werden beim Wechsel in den anderen Zustand oft überflüssig.

·       Da niemand den Zustand vorhersagen kann und dieser auch nie stabil bleibt, müssen für alle Szenarien die nötigen Infrastruktur-Maßnahmen errichtet werden.

·       Konsequenz: Zwingend notwendiger Aufbau mehrfacher Infrastrukturen, die dann wechselnd Überauslastung haben oder gar keine Verwendung finden.

Wie werden diese Probleme in Studien „gelöst“ 

Die VDE-Speicherstudie von 2015

Das im vorherigen „Fazit“ Beschriebene ist auch in der VDE-Speicherstudie erkannt. Beschrieben wird es wie folgt:

[5] Im 100 %-Szenario ruft die notwendige leistungsmäßige Überinstallation erneuerbarer Energien Erzeugungsüberschüsse von bis zu 80 GW hervor, während die maximale Residuallast gegenüber 2010 nur um bis zu ca. 10 GW oder 12,5 % reduziert wird. Die Leistungsbandbreite wächst deutlich. 

Als Lösung steht dazu:

[5] Der Flexibilitätsbedarf liegt sowohl im Kurzzeitbereich (< 1 Tag) als auch im Langzeitbereich (> 1 Tag) vor. In allen Varianten (A bis E) der Studie konnte dieser Flexibilitätsbedarf im Kurzzeit- und Langzeitbereich stets durch einen flexiblen Einsatz von fossilen Kraftwerken und KWK-Anlagen, durch Einsatz der Kurzzeit- und Langzeitspeicher oder durch Abregeln der EEG-Einspeisung befriedigt werden. Dabei wurden Flexibilitäten auf der Verbrauchsseite (Demand Side Management) im Rahmen dieser Studie als Ausgestaltung eines Kurzzeitspeichers betrachtet. 

Wozu auch die folgenden Erkenntnisse gehören:

Neben der Bilanzierung sind weitere Fragen im zukünftigen Stromversorgungssystem ungelöst , zu denen Speicher einen Beitrag leisten können. ….

Viele weitere Fragen in Bezug auf das zukünftige Stromversorgungssystem bleiben offen …

Damit die notwendigen Speichertechnologien zukünftig wirtschaftlich und großtechnisch einsetzbar sind sowie rechtzeitig zur Verfügung stehen, sind heute technologieneutrale Forschungs-, Entwicklungs- und Demonstrationsprojekte zur Weiterentwicklung der Speichertechnologien dringend zu empfehlen. 

Dazu die Darstellung der simulierten Speicherbedarfe.

 

Bild 10 [5] VDE-Speicherstudie: erforderlicher Speicherausbau

Um die Probleme der grünen Energie bei höherem Ausbau „in den Griff“ zu bekommen, wurde in der Studie angenommen:

·       Es gibt weiterhin konventionelle Kraftwerke, obwohl die von unserer Regierung geforderte  100 % De-Karbonisierung durch das Verbot konventioneller Kraftwerke erzielt wird.

·       Abregeln wird als „sinnvolle“ Maßnahme in die Szenariensimulationen einbezogen.

·       „Flexibilitäten auf der Verbrauchsseite (Demand Side Management)“  wird im Rahmen dieser Studie als Ausgestaltung eines Kurzzeitspeichers betrachtet.

Artikel von Prof. Jarass „Neue Netzstrukturen für die Energiewende“

Wenige werden diese Publizierung kennen – außer Trassengegner, für die sie geschrieben wurde. Der Professor ist überzeugt, dass alleine der Kohlestrom der Kern des EEG-Übels ist. 

[6] Neue Netzstrukturen für die Energiewende

·       Kohlestromeinspeisung bei Starkwindlagen führt zu überdimensioniertem Netzausbau

·       Kritische Versorgungssituationen sind NICHT durch Erneuerbare Energien bedingt, sondern durch den Export von Kohlestrom

·       Privilegierung von unnötiger Kohlestromproduktion beenden!

·       Für seltene Windenergiespitzen ist kein Stromnetzausbau erforderlich

Als „Beleg“ ist dann beispielhaft ein Ganglinienverlauf über zwei Wochen im Jahr 2022 hinterlegt (Bild 11). Dass die „EEG-Wende“ danach erst richtig anfängt, wird vollkommen unterschlagen.

Bild 11 [6] Darstellung „seltener“ Energiespitzen von Wind + Sonne

Der Verlauf sieht im Jahr 2050 vor allem bezüglich der Dimensionen jedoch vollkommen anders aus (Bild 12).

Bild 12  Darstellung des Zeitraums 16. – 31.03. von Bild 11 im Jahr 2050 für Windkraft + Solar simuliert mit den Daten des Autors (Jahres-Einspeisung = Verbrauchswert)

Bild 13 Simulierter Verlauf der Windleistung (MW) im Jahr 2050 (Jahres-Einspeisung = Verbrauchswert) mit den Daten des Autors

Sieht man sich Bild 12  und Bild 13 mit dem Verlauf der Windenergie alleine an, fragt man sich, wie ein Professor daraus ableitet, solche „aneinander-gereihte Zaunlatten“ als „seltene Windenergiespitzen“ zu bezeichnen. „Seine“ Darstellung (Bild 11) zeigt (ganz bewusst) nicht entfernt die zukünftige Wirklichkeit. Ganz schlimm dabei, dass die wichtigen Größenordnungen so vollkommen daneben liegen und zwar mit den Faktoren 3 bis 5. Im Artikel selbst wird dann als Lösung formuliert, dass man mehr abregeln soll, um dieses Problem zu „lösen“. Wie viel Leistung dann vom Kunden bezahlt werden muss, aber weggeworfen wird, verschweigt er.  

Seine Lösung bleibt ganz einfach:

Zu viel Strom wegwerfen, zu wenig Strom durch Gaskraftwerke zufügen. Zudem hat der Bürger keinen Anspruch auf billigen, konventionell erzeugten Strom (denn zu dessen Transport benötigt man Trassen).  Ansonsten strotzt der Artikel nur so von Vereinfachungen und Weglassen – eben ein Gefälligkeitsgutachten mit dem Namen einer Universität.

efzn Niedersachsen „Szenarienbereitstellung und –berechnung zur Analyse von Transportkapazitäten

Wenn heute einer Gemeinde die Landes- oder Bundespolitik nicht passt, bestellt sie ein eigenes Gegengutachten. Jeder kleine Stadtrat weiß schließlich besser, was die Welt wirklich braucht.  So auch die Stadt Pegnitz[7] welche gerüstet mit einem eigens bestellten Gutachten aktiv am nordbayerischen Trassenprotest teilnimmt. Die inhaltliche Darstellung der bestellten Studie erspart sich der Autor, da sie nichts weiter aussagt als sinngemäß: Wenn man genügend Geld ausgibt ist bestimmt jeder Wunsch (von Trassengegnern) lösbar – vermuten wir. Ob es realistisch ist, war nicht gefragt.

Zitate [7]:  „Verlagerung der Windstromerzeugung von der Ostsee nach Bayern“

„… zusätzliche Kapazitäten an regional verteilten Gaskraftwerken“

„… eine (Langzeit-)Speicherung von Überschussenergie und –Leistung in der norddeutschen Starkwindregion“

Diese Aussagen fielen nicht schwer, denn das Wichtigste war nicht Gegenstand der Untersuchung. Zum Schluss wird sogar erklärt, dass die Aussagen auch nicht stimme könnten:

[7]: „Die Bewertung dieser Maßnahmen hinsichtlich ökonomischer, ökologischer, rechtlicher, politischer und/oder gesellschaftlicher Kriterien bleibt in dieser Studie unberücksichtigt.“

„ … werden Gegenstand weiterführender Untersuchungen sein müssen, um belastbare Aussage treffen zu können“.

DIW Berlin Politikberatung Kompakt Nr. 97 

Diese Publizierung des DIW[8] – unter der Mitarbeit von C. Kemfert – behandelt vorwiegend das Trassenthema in Nordbayern, beschreibt dabei aber auch einige globale Gesichtspunkte. Interessant ist sie vor allem, da in ihr über-deutlich wird, wie stark politische Vorgaben in die angeblich technisch begründeten Aussagen einfließen und damit das Ergebnis bestimmen. In Nord-Korea dürfte das Erfüllungsniveau „wissenschaftlicher Institutionen“ unwesentlich abweichen.

[8] „Traditionell erfolgte der Stromnetzausbau mit dem Ziel, die Erzeugung mit der Nachfrage zu verbinden.“

„Gemäß den oben dargestellten Rahmenbedingungen von Energiewende und Klimaschutz ändert sich jedoch die Rolle der Stromnetze, die eine „dienende“ Funktion einnehmen müssen: Netzausbau dient demnach vor allem der Systemsicherheit, aber eben auch dem Klimaschutz.“

„Stromnetzausbau ist nur dann sinnvoll, wenn er den Zielen der Energiewende dient, u.a. der Integration Erneuerbarer und der Treibhausgasemissionsreduktion.“ 

„Solange der Netzausbau ausschließlich zur kostenminimalen Erfüllung des Marktergebnisses geplant wird, können die Ziele der Energiewende nicht erreicht werden; es bedarf daher entsprechender Instrumente, um das „Marktergebnis“ in Richtung von klimapolitischen Zielen zu beeinflussen.“ 

Zum Schluss wird das Paper dann pragmatisch.  Wenn alles schief geht, kann man die fehlende Energie immer noch im Ausland kaufen oder wieder mit Kraftwerken anfangen.

[8] Sowohl die benötigte Strommenge als auch die benötigte Leistung können durch unterschiedliche Maßnahmen sichergestellt werden, u.a. Kraftwerksneubau, Speicherentwicklung, Reduktion der Lastspitze, Teilversorgung im Verbund mit Österreich, etc. Zusätzliche Kraftwerkskapazitäten in Bayern können u.a. durch eine „Strategische Reserve“ oder durch eine „Kraftwerksreserve“ mit regionaler Komponente angereizt werden.

Fazit Energiestudien

Es darf wirklich jeder eine Studie schreiben (der Autor macht es ja auch in kleinem Umfang). Leider sind die von „Experten“ nicht entfernt richtiger als die von Laien (mit Fachkenntnis). Der Unterschied ist nur, dass „Experten“ häufig Geld dafür bekommen, wofür sie dann vergleichbare Aussagen liefern wie „der Sozialismus wird siegen – damals hatte man nicht genügend Geld dafür, aber mit dem von Gesamtdeutschland wird es doch möglich sein“.

Und die Qualitätsmedien

Die Change: Jeder kann künftig Kraftwerk, und alles wird elektrisch

Der Satz der Überschrift ist an mangelnder Kompetenz kaum überbietbar. Man kann ihn beliebig ergänzen: Jeder kann künftig Gemüse, – Fallobst, – Elektroauto usw. Und wo stand diese Aussage: Im „Amtsblatt der Ökokirche“, der SZ.

Als hätte es die Süddeutsche Zeitung geahnt, dass ein EIKE-Artikel zum EEG am Enstehen ist, kam darin (wieder) ein EEG-bejubelnder Artikel „Stromschlag“ [9]. Irgendjemand in der dortigen Chefetage (ohne Erlaubnis von „Oben“ schreibt man nicht über Jahre so konsequent diesen Dauerunsinn zu EEG und Klima) muss einfach unbändigen Spaß am Zerschlagen funktionierender Strukturen haben und darf diesen beliebig ausleben: [9] „… Es liegt in der Natur von Revolutionen, auch technischen, dass sie keinen Stein auf dem anderen lassen“. Die Darstellungen im Artikel zur Energie sind mager und vorwiegend von ideologischen Vorurteilen geprägt, doch an Neusprech-Worthülsen herrscht dafür kein Mangel:

[9] SZ-Artikel „Stromschlag“

Der Befund: Ökoenergie und Digitalisierung stellen den Strommarkt auf den Kopf

Die Change: Jeder kann künftig Kraftwerk, und alles wird elektrisch

Die Risiken: Wenn Politik den Umbruch nicht gestaltet, wird der Strukturwandel wehtun 

Es kann einem richtig Angst werden. Doch keine Sorge. Unsere Kanzlerin wird diesen Umbruch gestalten und alles wird gut! Auf der Titelseite der gleichen SZ-Ausgabe stand dazu die erlösende Information: 

Der CDU-Politiker Martin Patzelt hat eine Inititative (der sich lt. SZ schon mehrere Abgeordnete angeschlossen haben)  gestartet um auf zu zeigen, wie unsere Kanzlerin agiert:

[10] „Sein Vertrauen in die Klugheit und Weitsicht der Kanzlerin, so Patzelt in einem Schreiben an alle Kollegen, sei „ungebrochen und über persönliche Unsicherheiten erhaben“.

Solche Sätze meint der Autor auch schon in Geschichtsbüchern gelesen zu haben, allerdings verbunden mit einem belehrenden Nachspann. Im EIKE-Artikel "Munich Re Presseinfo 2015"  schrieb er zum Schluss ironisch, dass unsere Abgeordneten wohl „ein Verbot zum eigenständigen Denken“ bekommen haben. Dass das aber gar nicht mehr erforderlich ist, weil der Verstand bereits freiwillig abgegeben wurde, hat er nicht vorhergesehen.

Fazit

Wie in den vielen EIKE Artikeln des Autors zum EEG immer wiederholt: In Deutschland ist der grüne Wahnsinn ausgebrochen. Und die „Experten“ machen dabei fleißig mit. 

*Der für diese Ausarbeitung erforderliche Datensatz wurde freundlicher Weise von Herrn Rolf Schuster zur Verfügung gestellt.

Hinweise auf ergänzende Publizierungen zum EEG

Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies

Das Positionspapier des CSU Arbeitskreises Energiewende keine Vernunft mehr nirgendwo

Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

Quellen

[1]

Vernunftkraft Dezember 2015: Energiewende Erfolgreich Gemacht? – 4 Jahre Energiewende in Rheinland-Pfalz und andernorts

www.vernunftkraft.de

[2]

Umweltbundesamt: Energieziel 2050 100% Strom aus erneuerbaren Quellen

http://www.umweltbundesamt.de/publikationen/energieziel-2050

[3]

Fraunhofer ISE, 11.01.2016  Publikation: Stromerzeugung aus Solar- und Windenergie im Jahr 2015

[4]

Fraunhofer IWES  29. März 2012, Bericht: BMU – FKZ 03MAP146, Tabelle 4-3, Scenario 2011 A[4])

[5]

VDE 2015, Studie: Energiespeicher für die Energiewende Speicherungsbedarf und Auswirkungen  auf das Übertragungsnetz für Szenarien bis 2050

[6]

Sonnenenergie Heft 1/2015, Hochschule RheinMain Wiesbaden Prof. L. Jarass: Neue Netzstrukturen für die Energiewende

[7]

efzn Niedersachsen, Prof. Dr.-Ing. Hans-Peter Beck Technische Universität Clausthal, Pegnitz 9.7.2015, Publikation: 2015078-Kurzfassung_Szenarien_D-Korridor;  Szenarienbereitstellung und –berechnung zur Analyse von Transportkapazitäten

Mittelgeber/Auftraggeber: Stadt Pegnitz

[8]

DIW Berlin Politikberatung Kompakt Nr. 97, 2015: Perspektiven für eine sichere, preiswerte und umweltverträgliche Energieversorgung in Bayern

[9]

Süddeutsche Zeitung Nr. 12 2016: „Stromschlag“

[10]

Süddeutsche Zeitung Nr. 12 2016: „Merkels Schicksalstage“




Bjørn Lomborg: Glauben Sie an den Osterhasen und die Zahnfee? Teil 2 Hier seine Aussagen zu Kosten und Nutzen der Erneuerbaren

Teil 1 brachte die Einleitung dieses Beitrags von STT zu Lomborgs Ansichten – zu finden auf Eike

Wir werden die globale Erwärmung bekommen, wenn wir eine Energiequelle billiger als Kohle haben.

Die nächsten Klimagipfel in Paris nähern sich und die Erwartungen sind wieder hoch – obwohl es das 21. seiner Art ist, nach 20 Gipfeln die fast nichts erreicht haben.

In Wirklichkeit, Paris – wie Kopenhagen, Lima, Warschau, Doha und all die anderen – ist sehr unwahrscheinlich, dass signifikante Fortschritte zu erzielen sind.

Dies ist das Dilemma: Wir wissen, Klimawandel ist ein Problem, aber leider versuchen wir es immer wieder mit einer Lösung, die immer wieder gescheitert ist. Wie das Sprichwort sagt, „Wahnsinn ist es, die gleiche Sache immer und immer wieder zu tun und ein anderes Ergebnis zu erwarten“.

Die CO2-Emissionen werden weiter steigen, denn es gibt eine sehr enge Verbindung zwischen Energieverbrauch und Bruttoinlandsprodukt. Denken Sie daran, wir verbrennen keine fossilen Energieträger um die Umweltschützer zu ärgern, sondern weil sie alles antreiben, was wir an der modernen Zivilisation so lieben, von Licht, Hitze und Kälte bis zur Mobilität, Strom und Nahrung.

Das Wachstum des BIP in den letzten 20 Jahren ging einher mit dem CO2-Wachstum, und es gibt fast eine Eins-zu-Eins-Übereinstimmung.

Die Erkenntnisse aus der Weltbank über zwei Jahrzehnte ist klar: Wachstum um 1 Prozent des BIP im Jahr, und die CO2-Emissionen bleiben konstant – wie in Italien. Wachstum von 3 Prozent und die CO2-Emissionen wachsen um 1,5 Prozent – wie Neuseeland. Oder das Wachstum Ihrer Wirtschaft beträgt 10 Prozent wie China, und Sie steigern Ihre Emissionen um 6,3 Prozent.

Ja, ist es möglich, Emissionen zu reduzieren und die die Wirtschaft wächst noch immer – aber sie wird weniger wachsen, was bedeutet, es sind echte Kosten. Einige Nationen wie Deutschland sind in der Lage, den Trend einzudämmen – wachsende Wirtschaft um 1,3 Prozent, während die Emissionen um 1,2 Prozent abnehmen [D hat eher erhöhte CO2 Emissionen, seit die KKW abgeschaltet werden; AD] – eine ähnliche Anzahl von Nationen haben ihre Emissionen aber noch weiter erhöht. Indien ist 6,5 Prozent gewachsen und steigerte seinen Ausstoß um fast eben so viel. Australien ist ein wenig unterhalb der Kurve mit 3,2 Prozent Wirtschaftswachstum und nur 1,3 Prozent CO2 Wachstum.

Die traditionelle Klima Ansatz ist das Versprechen der Politik CO2 zu reduzieren. Natürlich, nur wenige werden für Politiker stimmen, die das Wirtschaftswachstum absichtlich beschneiden, anstelle von Politikern, die üppige Subventionen für erneuerbare Energien wie Solar-und Wind versprechen. Doch die Montagekosten für erneuerbare Energien sind schließlich eine Belastung für die Wirtschaft geworden. Und sie lösen wenig, da diese neuen Technologien für erneuerbare Energien noch nicht ausgereift sind.

Entgegen dem, was viele Menschen glauben, werden erneuerbare Energien uns in absehbarer Zeit nicht von fossilen Brennstoffen unabhängig machen.

Gemäß den Daten der International Energy Agency, kamen im Jahr 1971  13,1 Prozent der weltweiten Energie aus „Erneuerbaren“; im Jahr 2012 war der Anteil mit 13,2 Prozent nahezu unverändert. Die überwiegende Mehrheit dieser Energie kam aus Biomasse oder Holz und Pflanzenmaterial, die älteste Energiequelle der Menschheit. Während Biomasse erneuerbar ist, ist es oft weder gut noch nachhaltig.

Das Verbrennen von Holz im vorindustriellen Westeuropa verursachte massive Entwaldung, wie es in weiten Teilen der Dritten Welt von heute auch ist. Die Raumluftverschmutzung, die Biomasse produziert tötet 4,3 Millionen Menschen pro Jahr. Und moderne Energiepflanzen erhöhen die Entwaldung, verdrängen die Landwirtschaft und treiben die Nahrungsmittelpreise hoch.

Trotz des Hypes, ist der Beitrag von Sonne und Wind im Wesentlichen trivial. Heute, nach endlosen Klimagipfeln, guten Absichten und großzügigen Subventionen, bekommt die Welt nur 0,4 Prozent ihrer Energie aus Sonne und Wind, nach Angaben der IEA. Es wird auch in einem Vierteljahrhundert noch immer unbedeutend sein, ab jetzt gerechnet. Im optimistischen, grünen IEA Szenario werden Solar- und Wind nur 2,2 Prozent der weltweiten Energie bis 2040 beitragen.

Trotz des allgegenwärtigen Kulturverständnisses, dass Sonne und Wind nur am Rande zur Lösung des Klimawandels beitragen – sogar auch Klima-Panikmacher, wie Jim Hansen, Al Gores-Klima-Berater, weiß, dass dies falsch ist: „Unterstellend, dass erneuerbare Energien uns schnell von fossilen Brennstoffen unabhängig machen in den Vereinigten Staaten, in China, in Indien oder in der Welt als Ganzes,  ist das fast das Äquivalent von Glauben an den Osterhase und die Zahnfee“.

Die einfache, aber unbequeme Wahrheit ist, Sonne und Wind sind nicht ausgereift – sie sind zu teuer und erfordern teures Back-up, wenn der Wind nicht weht oder die Sonne nicht scheint.

Wenig Einfluss, hohe Kosten

Was bedeutet das für Paris? Auch in dem Szenario, auf das Aktivisten hoffen, in dem die Regierungen einen Vertrag unterzeichnen, um jeden zu den Kohlensenkungs-Versprechungen zu zwingen, die sie bisher gemacht haben, wird der Gipfel sehr wenig bringen.

In einem neuen peer-reviewed Forschungs-Paper, finde ich, dass, wenn alle Nationen  ihre Kohlenstoff-Reduzierungsversprechen alle halten, für die sie sich im Vorfeld des Gipfels verpflichtet haben, werden die Temperaturen bis 2100 nur um 0,05°C reduziert. Und sogar, wenn jede Regierung der Welt nicht nur die Versprechen von Paris einhalten und alle die Emissionen bis zum Jahr 2030 reduzieren, keine Emissionen in andere Länder verschieben, sondern diese Emissionsreduktionen für den Rest des Jahrhunderts beibehalten, werden die Temperaturen nur um 0,17°C bis 2100 reduziert werden.

Doch die UN-Klima-Chefin Christiana Figueres ist zuversichtlich, dass die Pariser Zusagen den Temperaturanstieg auf über 2,7°C bis zum Jahr 2100 begrenzen könnten. Das ist nichts als Wunschdenken und eine falsche Darstellung von weltweiten Optionen. Die 2,7°C kommt von der Internationalen Energieagentur und geht davon aus, dass, wenn die Regierungen in Paris wenig tun und dann aber gleich nach 2030 mit unglaublich ehrgeizigen Klimasenkungen anfangen, könnten wir 2,7°C erhalten. Figueres eigene Organisation schätzt, die Paris Versprechungen werden die Emissionen um 33Gt CO2 insgesamt zu reduzieren. Um den Anstieg auf 2,7°C zu begrenzen, müssten etwa 3000 Gt CO2 reduziert werden – oder etwa 100-mal mehr als die Pariser Verpflichtungen.

Und die immer noch armseligen Senkungen, die versprochen werden, sind nur mit erheblichen Kosten erreicht. Nehmen Sie die EU 20-20-20 Klimapolitik, die Temperaturen nur um 0,007°C reduziert hätte. Selbst wenn man das auf das gesamte Jahrhundert erweitert, würde die Reduzierung 0,026°C bis zum Ende dieses Jahrhunderts betragen, nach einem der IPCC eigenen Klimamodelle.

Das Stanford Energie Modelling Forum, der Goldstandard für die Ökonomie von Klima und Energie, hat mehrere Studien über Kosten gemacht, die uns zwei Dinge zeigen.

Erstens, und vielleicht nicht überraschend, sind die offiziellen Kostenvoranschläge oft viel niedriger als die Realität. Die EU schätzt die Gesamtkosten ihrer 2020 Politik könnte so wenig wie ein jährlicher 0,4 Prozent BIP Verlust oder 64 Mrd. € pro Jahr sein. Die peer-reviewed‘ten Kosten betrugen 1,3 Prozent oder 209 Mrd. € pro Jahr, mehr als dreimal so viel.

Zweitens Politiker nehmen selten die intelligenteste Klimapolitik [Variante], die CO2 effektiv reduzieren könnte. Dadurch verdoppeln sich in der Regel die Kosten. Die EU könnte ihre Emissionen durch die Umstellung auf Gas und der Verbesserung der Effizienz für einen BIP Verlust von 0,7 Prozent reduziert haben. Allerdings, die phänomenal ineffiziente Solarförderung und Bio-Kraftstoffe sind zu verlockende Duftstoffe für Politiker, weshalb die tatsächlichen EU Kosten fast auf 1,3 Prozent des BIP verdoppelt sind. Die EU plant nun, seine Emissionen um 40 Prozent gegenüber 1990 im Jahr 2030 zu beschneiden.

Zwar gibt es keine direkte Schätzungen der Kosten dieser Politik – außergewöhnlich an sich – das neueste peer-reviewed Stanford Energie Modelling Forum für die EU betrachtet die Kosten für eine Reduzierung auf 80 Prozent im Jahr 2050, was eine Reduzierung von 41 Prozent im Jahr 2030 ergibt. Diese Reduzierung würde das BIP der EU um 1,6 Prozent im Jahr 2030 beschneiden oder € 287 Mrd. nach 2010er Kaufkraft des Euros. Dies setzt voraus, dass Kohlenstoff so effektiv wie möglich reduziert wird.

Ohne diese Annahme, werden die Kosten wahrscheinlich näher an 860 Mrd. Euro sein. Und es wird zu Temperaturen bis zum Ende des Jahrhunderts insgesamt nur um 0,053°C reduzieren.

Die Entwicklungsländer

Jedes Gespräch um Klima muss auf China schauen. In den neun Jahren von 2004 bis 2013 haben sich Chinas Emissionen verdoppelt und im Jahr 2013 hat China fast ein Drittel aller CO2 Emissionen produziert. China emittiert doppelt so viel wie die USA und drei Mal der EU-Emissionen.

Wir hören verführerische Reden von China als den „grünen Riesen“ und wie es den „weltweit größten Schub für Windenergie“ erzeugt. Doch die Fakten der IEA zeigen, dass China nur unbedeutende 0,28 Prozent seiner Energie aus Wind und eine nahezu unermessliche 0,02 Prozent aus Solar bekommt.

Bis 2040, geht die IEA optimistisch davon aus, dass China noch triviale 2,6 Prozent seiner Energie aus Sonne und Wind bekommt. China hat für das Jahr 2030 versprochen, seinen Energieverbrauch um mindestens 60 Prozent gegenüber 2005 zu reduzieren.

Diese Klimapolitik, die nur unter den optimistischsten Umständen vollständig erreicht und im Laufe des Jahrhunderts eingehalten werden kann, wird die globale Temperatur nur um 0,048°C reduzieren bis 2100.

Indien hat klargestellt, dass sie ihre Emissionen nicht reduzieren werden. Trotz anhaltender Behauptungen, dass es „grün“ wird, ist das ein dünnes Brett. Heute, erhält Indien 0,31 Prozent seiner Energie aus Wind und 0,02 Prozent aus Solar und Solar-und Wind werden sogar bis 2040 wahrscheinlich weniger als 2 Prozent beitragen.

Afrika ist der weltweit am meisten „erneuerbare“ Kontinent. Es erhält 50 Prozent seiner Energie aus Erneuerbaren verglichen mit nur 12 Prozent in der EU. Aber das liegt daran, Afrika ist arm und hat wenig Zugang zu moderner Energie.

Die knapp 900 Millionen Menschen die in Afrika südlich der Sahara leben (ohne Südafrika) brauchen nur 185kWh pro Jahr, weniger als ein typischer Kühlschrank. Fünfunddreißig Afrikaner verbrauchen weniger Energie als der durchschnittliche Deutsche. Nicht überraschend wollen Afrikaner viel mehr Energie verwenden, überwiegend aus fossilen Brennstoffen. Solar- und Windenergie machen triviale 0,03 Prozent Energie jetzt aus und weniger als 1 Prozent bis 2040.

Die Obama-Regierung plant, Milliarden von Dollar ausgeben, um Afrika zu elektrifizieren. Die Overseas Private Investment Corporation, die wichtigste US-Entwicklungs-Finanzierungsinstitution, zieht es vor allem vor, in Solar-, Wind- und andere emissionsarme Energieprojekte zu investieren. In den vergangenen fünf Jahren hat OPIC in mehr als 40 neue Energieprojekte investiert und alle bis auf zwei waren in erneuerbare Energien.

Eine Untersuchung von Todd Moss und Ben Leo vom Zentrum für globale Entwicklung hat gezeigt, dass, wenn die US die nächsten 10 Mrd. Dollar für die Elektrifizierung durch Gaskraftwerke spendiert, könnte es helfen, 90 Millionen Menschen aus der Armut zu heben. Wenn es nur erneuerbare Energien nutzt, können die gleichen 10 Mrd. Dollar nur 20 – 27 Millionen Menschen helfen.

Verständlicherweise ist Wirtschaftswachstum um Millionen aus der Armut zu befreien viel wichtiger als CO2 in China, Indien und Afrika zu reduzieren. In den vergangenen 30 Jahren hat China 680 Millionen Menschen aus extremer Armut befreit, mit billiger, wenn auch umweltschädlicher Kohle. China zu erzählen, diesen Prozess mit unreifen und teuren erneuerbaren Energien zu verlangsamen, ist wahrscheinlich nicht erfolgreich. Bei 800 Millionen extrem Armen in Indien und Afrika, zu erwarten, dass Indien und Afrika auf Erneuerbare gehen, ist offenbar Wunschdenken.

Das Klima der Entwicklung

Der Klimawandel ist nicht unsere einzige Herausforderung und die Armen der Welt sehen sich vor wichtigeren Problemen.

Die Weltgesundheitsorganisation schätzt, dass die globale Erwärmung etwa 141.000 Todesfälle pro Jahr verursacht und es erwartet, wenn die globale Erwärmung fortschreitet, wird es zu 250.000 jährlichen Todesfälle bis zum Jahr 2050 führen. Dies unterstreicht auf jeden Fall die Tatsache, dass die globale Erwärmung ein Problem ist. Doch es verblasst auch im Vergleich zu jetzt sieben Millionen Todesfälle pro Jahr durch Luftverschmutzung, 800 Millionen hungernden und 2,5 Milliarden in Armut lebenden Menschen ohne sauberes Wasser und sanitäre Einrichtungen.

Doch im Einklang mit der Mitteilung von Klimagipfel, bestehen die meisten Führer der Ersten Welt immer darauf, dass ihre Hilfsgelder für das Klima gespendet werden sollten. Die OECD schätzt, dass etwa einer von vier Dollar aller gemessenen, bilateralen Entwicklungshilfe, heute auf klimabezogene Beihilfen wie die Reduzierung von Treibhausgase wie CO2 verwandt wird. Dies ist jedoch nicht das, was die Entwicklungsländer wollen.

Die Vereinten Nationen haben mehr als 8,5 Millionen Menschen aus der ganzen Welt nach ihren Top-Prioritäten befragt. Nicht überraschend, sie wollen bessere Bildung und Gesundheitsversorgung, weniger Korruption, mehr Arbeitsplätze und erschwingliche Lebensmittel. Sie stellen die globale Erwärmung an den letzten Platz, als Priorität Nr. 16 von 16.

Das Problem mit der globalen Erwärmung als übergreifendes politisches Gespräch ist, dass die Führer der reichen Länder, von Barack Obama und Angela Merkel zu Justin Trudeau oder John Key, immer scheinen sie den weltweit 2,5 Milliarden Armen und Hungernden zu sagen: hier ist Geld, um euer CO2 zu reduzieren. Während es zweifellos gut gemeint ist, ist es moralisch unvertretbar.

Innovation ist der Schlüssel

Klima-Aktivisten argumentieren oft, dass der Einsatz von erneuerbaren Energien auch grüne Innovation anstößt. Durch den Aufbau von vielen Windkraftanlagen, sollten wir mehr Innovation bei Wind erhalten.

Allerdings ging eine deutsche parlamentarische Kommission der Frage nach und hat eindeutig festgestellt, dass die Subventionen keine grüne Innovationen schaffen, weil es viel sicherer für Unternehmen ist, sich an die stark subventionierten Windkraftanlagen, Solaranlagen und Biomasse zu halten, anstelle der Weiterentwicklung bestehender Technologien und der Entwicklung neuer, tragfähiger Alternativen zu fossilen Brennstoffen.

Die Subventionen erzeugen einfach die falschen Anreize und der Kommission ist es „nicht gelungen, signifikante positive und innovative Auswirkungen zu zeigen“. Subventionierte Verwendung ist eindeutig nicht der richtige Weg, die benötigte Innovation zu schaffen.

Eine Lektion auf Innovation kann bei Computern gefunden werden. Wir haben die Computer von heute nicht durch Massenproduktion in den 1950er Jahren erhalten, um billigere Vakuumröhren zu bekommen. Wir haben keinerlei hohe Subventionen gezahlt, so dass jeder Westler in seinem Haus des Jahres 1960 einen haben könnte. Noch haben wir auch Alternativen wie Schreibmaschinen nicht besteuert. Die Durchbrüche wurden ein dramatisches Hochfahren von Forschung und Entwicklung erreicht, was zu mehreren Innovationen führte, die Unternehmen wie IBM und Apple schließlich aktiviert haben, um Computer zu produzieren, die die Verbraucher auch kaufen wollten. [Elektroautos!?, AD]

Und wir haben jetzt ein großartiges Beispiel dafür, wie Innovation CO2 reduzieren kann. Die Schiefergasrevolution in den USA wurde durch die Ausgabe von 14 Mrd. Dollar für Forschung und Entwicklung in den vergangenen drei Jahrzehnten durch die US-Regierung möglich. Fracking hat die Gaspreise nach unten gedrückt, ersetzt schmutzige Kohle durch weniger umweltschädliches Gas und reduziert die CO2-Emissionen um rund 300 Millionen Tonnen im Jahr 2012.

Das ist mehr als dreimal so viel wie teure Windkraftanlagen und Solarzellen in der EU jedes Jahr erreichen. Und während die EU etwa 53 Mrd. Euro an Subventionen für Solar-und Wind jedes Jahr zahlt, erzielt die USA 390 Mrd. Dollar pro Jahr durch den Schiefergas Durchbruch. Dies zeigt das Potenzial für „Klima-Durchbrüche“ wenn die Politik die Notwendigkeit für Innovation entdeckt.

Während des Kopenhagener Konzils für Klima-Projekte, fanden 28 Klimaökonomen und eine Fachjury, darunter drei Nobelpreisträger, dass es die beste langfristige Klimastrategie ist, Investitionen in grüne F & E drastisch zu erhöhen. Dieses macht letztlich grüne Energie billiger, damit sich jeder umstellt. Die Schätzungen zeigen, dass jeder Dollar für grüne F & E aufgewendet, ihnen helfen wird Klimaschäden im Wert von $ 11 zu vermeiden. Das ist 100-mal besser als die Investition in die heutigen ineffizienten Solar- und Windenergie-Technologie.

Die vorliegende Klimapolitik hat seit 20 Jahren versagt und wird wahrscheinlich weiter scheitern. Wir würden gerne glauben, dass grüne Energie gerade dabei ist zu übernehmen, aber auch 25 Jahre weiter sind Sonne und Wind nur winzige Spieler. Wir würden gerne glauben, dass Erneuerbare gerade dabei sind, konkurrenzfähig zu werden. Aber die eigentliche Rechnung wird nur immer größer. Im vergangenen Jahr zahlte die Welt 184 Mrd. Dollar für Subventionen in Erneuerbare. Im Jahr 2040, werden diese voraussichtlich noch mehr kosten, etwa 297 Mrd. Dollar.

Die gegenwärtige Klimapolitik basiert auf Wunschdenken, dass sich nur sehr reiche Länder wie Deutschland leisten können. Für die Entwicklungsländer zählt es mehr, sich aus der Armut zu lösen, um Malaria und Hunger zu stoppen.

Anstatt auf die Welt zu zählen, sich plötzlich für eine Politik zu entscheiden, die sich direkt gegen die wirtschaftlichen Interessen jedes Landes richtet, sollte der Pariser Klimagipfel den Schwerpunkt auf eine drastisch erhöhte Finanzierung von grünen F & E fokussieren, um die nächsten, billigeren Generationen von grüner Energie zu entwickeln.

Wenn wir den Preis der grünen Energie unter den Preis für fossile Brennstoffe innovieren, werden wir endlich mit der Bekämpfung der globalen Erwärmung anfangen.

Bjørn Lomborg ist ein außerordentlicher Professor an der Copenhagen Business School und leitet das Copenhagen Consensus Center.

Gefunden auf STT vom 19. November 2015

Lomborgs Beitrag wurde duch STT übernommen vom The Australian vom 14.Nov. 2015

Übersetzt von Andreas Demmig

http://stopthesethings.com/2015/11/19/bjorn-lomborg-believe-in-the-easter-bunny-and-tooth-fairy-then-youll-probably-believe-wind-power-replaces-fossil-fuels-too/




Klimawandel, Energiewende und Rationalität – eine unbequeme Beziehung Der Blick eines Niederländischen Nachbarn

Angeblich sind sich alle einig: Der Klimawandel ist eine entscheidende Bedrohung für die Menschheit. Wir müssen alles tun, um ihn aufzuhalten. Die größte Befragung von deutschen Klimaforschern von Hans Kepplinger und Senja Post, die im 2006 stattgefunden hat, zeigt aber ein ganz anderes Bild. 

Unter dem Titel, „Die Klimaforscher sind sich längst nicht sicher“, schrieben sie zur Zeit in „Die Welt“: 

„Der Klimaschutz ist zu einem der wichtigsten Rechtfertigungsgründe von politischen Entscheidungen geworden. Als parteiübergreifende Letztbegründung von Macht– und Gestaltungsansprüchen hat er hierzulande die Funktion übernommen, die Nation und Religion in der Vergangenheit besaßen und in anderen Weltregionen noch besitzen. Der Klimaschutz legitimiert. Er legitimiert staatliche Eingriffe in die Energieversorgung, die Technologieförderung, den Wohnungsbau. Mit dem Klima kann man alles begründen – von Subventionen für Wind– und Solarenergie über Vorschriften für den Bau von Eigenheimen bis hin zur steuerlichen Behandlung von Dienstwagen.“

Im Sommer 2006 haben 133 Deutsche Klimaforscher an einer Online–Befragung teil genommen. Ihre Antworten liefern die bisher breiteste Übersicht über die Einschätzung des Klimas und der Klimaforschung in Deutschland.

Zitat:

„Die Ansichten der Klimaforscher hierzu sind ernüchternd. Die Mehrheit der Wissenschaftler ist der Ansicht, die Voraussetzungen für die Berechenbarkeit des Klimas seien gegenwärtig noch nicht gegeben. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken.“

„Nur eine Minderheit von zehn bis zwanzig Prozent der Klimaforscher ist der Meinung, die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas seien heute schon gegeben.“

Also schrieben Kepplinger und Post im 2007. In diesem Jahr war die sogenannte Erwärmungspause oder der „Hiatus“ 10 Jahre alt. Jetzt ist er mehr als 18 Jahre alt. Kein einziges Klimamodel hat diese Pause vorhergesagt oder – besser – projektiert.

Sehr oft hört man dass 97% der Klimaforscher sich einig sind über die Bedrohung von menschengemachte Erwärmung der Atmosphäre: der sogenannte Klimakonsenses. Das Ergebnis dieser Umfrage zeigt dass das Quatsch ist.

Also stellt sich die Frage, ob etwas falsch ist mit unserem Verständnis vom Klima. Ich werde später darauf zurück kommen.

Warum hat Deutschland seine Energiewende und die Niederlande etwas ähnliches: sein Energieabkommen?

Die Legitimierung lautet so ungefähr, dass die menschengemachte Erwärmung der Atmosphäre durch den Ausstoß von CO2 eine große Bedrohung für die Menschheit ist. Deshalb müssen wir in unserer zukünftigen Energieversorgung umwandeln von fossil nach erneuerbar. Manche Leute, wie zum Beispiel Hans–Joachim Schellnhuber (der Direktor des Potsdam Instituts für Klimafolgenforschung), wollen noch weiter gehen und wünschen eine große Transformation in einen Öko–Sozialistischen Heilstaat. Aber das ist nicht das Ziel der Bundesregierung, so weit ich verstanden habe.

Das wichtigste Instrument dabei ist die Energiewende.

Wikipedia berichtet das folgende darüber:

„Als Energiewende wird der Übergang von der nicht–nachhaltigen Nutzung von fossilen Energieträgern sowie der Kernenergie zu einer nachhaltigen Energieversorgung mittels erneuerbaren Energien bezeichnet. Ziel der Energiewende ist es, die von der Energiewirtschaft verursachten ökologischen und gesellschaftlichen Probleme zu minimieren und die dabei anfallenden, bisher im Energiemarkt kaum eingepreisten externen Kosten vollständig zu internalisieren. Von besonderer Bedeutung ist angesichts der maßgeblich vom Menschen verursachten Globalen Erwärmung heutzutage die Dekarbonisierung der Energiewirtschaft durch Ende der Nutzung von fossilen Energieträgern wie Erdöl, Kohle und Erdgas. Ebenso stellen die Endlichkeit der fossilen Energieträger sowie die Gefahren der Kernenergie wichtige Gründe für die Energiewende dar. Die Lösung des globalen Energieproblems gilt als zentrale Herausforderung des 21. Jahrhunderts.“

Mit der Energiewende wünscht Deutschland eine Vorreiterrolle zu spielen, nicht nur in Europa sondern weltweit. Der Amerikanische Kolumnist Thomas Friedman hat Deutschland neulich sogar als Grünen Superstaat bezeichnet! Aber wenn man Vorreiter sein will, ist es manchmal gut sich umzugucken, um zu sehen ob jemand noch hinterher reitet. Das ist kaum der Fall.

Aber worüber sprechen wir? Meistens über Wind und Sonnenenergie. Was ist der Anteil von Sonne und Wind im Deutschen Endenergieverbrauch. Passt auf! Ich rede nicht vom Stromverbrauch, sondern vom Endenergieverbrauch! Die meisten Leuten haben aber davon keine Ahnung.

Na, wer bietet? 50%? Vielleicht ist das ein bisschen zu viel. 40%? Nein? Dann 30%? Auch nicht? 20% vielleicht? 10%? Auch nicht! Es sind 2,8 Prozent! Die Frage stellt sich ob die Zukunft unseres Planeten dadurch beeinflusst wird.

Trotzdem kostet es eine ungeheure Menge Geld. Bei radikalen politischen und gesellschaftlichen Entscheidungen wie die Energiewende, ist eine gründliche Kosten–Nutzen–Analyse unerlässlich. Aber, so weit ich weiß hat eine solchen Analyse bisher nicht statt gefunden.

Lassen wir uns zunächst auf die Kosten und dann auf die Nutzen konzentrieren. In der offiziellen Propaganda beschäftigt man sich im allgemeinen nur mit den Vorteilen. Aber jetzt sollen wir ein mehr komplettes Bild schildern. 

Also was sind die Kosten und andere Nachteilen?

Die Strompreise stiegen in Deutschland seit dem Jahrtausendwechsel massiv. Hier liegen die Kostentreiber in der Energiewende. Vor allem die EEG–Umlage und die Stromsteuer verteuerten den Strompreis.

Die Haushaltsstrompreise in Deutschland liegen bei 29 ct pro Kilowatt Stunde. In Frankreich fast die Hälfte: 15 ct. (2013). In den Niederlanden ungefähr 20 ct.

Die Industrie hat man bislang ausgenommen. Die bezahlt viel weniger. Aber das könnte sich ändern, weil die EU ein Verfahren eröffnet hat gegen die Bundesrepublik Deutschland, die diese Ausnahme der Industrie verbietet. Das ist ein wichtiger Wettbewerbsstandortfaktor. Dann wird die Hölle los gehen. 

Da kommt hinzu dass die EEG vollkommen wirkungslos ist bezüglich des CO2–Ausstoßes. Wenn Deutschland grünen Strom fordert dann kommen im gleichen Umfang Emissionszertifikate in Deutschland frei. Die werden verhandelt und werden in anderen Europäischen Ländern zur extra Emissionen führen. Alles was hier eingespart wird, wird in anderen EU–Ländern zusätzlich emittiert. Das wird das Wasserbettmechanik genannt. 

Hohe Stromkosten untergraben die Wettbewerbsfähigkeit der Industrie, besonders die von energieintensiven Exportunternehmen. Viele von ihnen erwägen ihre Aktivitäten nach dem Ausland zu verlagern oder sind bereits dabei. 

Auch die Bevölkerung leidet unter Energiearmut. Jährlich sind hunderttausende von Haushalten nicht in der Lage ihre Energierechnungen zu bezahlen. Bei ihnen wird das Gas und Licht gesperrt. 

Kein Licht, keine Heizung, kein heißes Wasser, kein Kühlschrank, keine Waschmaschine, kein TV und kein Internet. Sie müssen sich das mal vorstellen … in einem reichen Land wie Deutschland! Aber wird es in unserem Land, die Niederlande, besser sein? Ich weiß es nicht. Man hört, liest und sieht darüber kaum etwas in den Medien. 

Überdies gibt es wachsenden Sorgen über die Gefahr des Stromausfalls in Deutschland. Bis jetzt hat Deutschland noch immer einer der sichersten Stromversorgungen in der Welt. Aber die Anzahl der Eingriffe um Stromstörung vorzubeugen ist die letzten Jahren dramatisch gestiegen, wie Tennet hat erklärt. 

In diesem Zusammenhang dürfen auch die menschliche Gesundheitsprobleme, durch Infraschall, das Massaker der Vögel und Fledermäusen, die Zerstörung von Natur und Landschaft und der Abwertung oder nicht–Verkaufbarkeit von Häuser in der Nähe von Windenergieanlagen nicht vergessen werden. 

Oft wird von den EW Befürwortern die Zahl der Jobs angeführt, die durch die Subvention der „EE“ „geschaffen“ wurden bzw. noch werden. Deutschland wird dadurch Weltmarktführer bei den EE-Technolgien, so sagt man. Aber bei der PVA hat Deutschland geholfen, dass China das wurde, bei Wind wird es nicht viel anders sein.

In Deutschland jedenfalls sind die Zahlen was Jobs anbelangt erschütternd schlecht. Hier die Details http://www.eike-klima-energie.eu/climategate-anzeige/das-ende-des-gruenen-jobwunders-das-es-nie-gab/ 

Darüber hinaus führt die Energiewende zu den größten Einkommenstransfer von Arm nach Reich der Zeitgeschichte. Schließlich können die unteren Einkommenskategorien nicht von den Zuschüssen profitieren. Bisher hat diese riesige Umverteilung in der Klimadiskussion noch keine Rolle gespielt. Wahrscheinlich weil die Bürger es noch nicht bemerkt haben und weil kein Politiker es ihnen noch erzählt hat.

Aber damit sind die Nachteile nicht erschöpft.

Das Ertragsmodell der fossilen Stromproduzenten ist auch in Gefahr. In der heutigen Lage wo Wind– und Sonnenstrom Vorrang haben bei der Einspeisung, ist die Produktion von fossilen Energien oft verlustbringend. Die diesbezügliche Produktion wird zu jeder Zeit beendet werden können, weil die Produzenten Bankrott gehen werden. Während der letzte sechs Jahren sind die Aktienkurse der großen Deutschen Energieproduzenten denn auch dramatisch gesunken.

Manche Sachverständigen fürchten, dass sie das nicht lange aushalten können. Und was wird dann geschehen wenn es keinen fossilen Backup mehr gibt wenn der Wind nicht weht und die Sonne nicht scheint?

Die Industrie braucht gleichmäßigen Strom. Die können sich die ganzen Stochastik nicht leisten. Deshalb braucht man entweder fossile Backup oder Speicherungen um die fluktuierende Wind- und Sonnenstrom zu glätten.

Der Deutsche Topökonom, Hans Werner Sinn, der Direktor vom IFO in München, hat alle theoretische Speicherungsmöglichkeiten untersucht.

Er kommt zu dem Schluss dass man hunderte bis tausende Speicherkraftwerken (Wasserbecken) braucht, um intermittierenden Wind– und Sonnenstrom zu glätten. Das ist eine vollkommen utopische Idee und ungeheuer teuer. Es gibt theoretisch auch andere technische Lösungen. Zum Beispiel Speicherung in Autobatterien, Methanspeicher oder Smart Grids. Aber al diese Lösungen sind utopisch, so hat Hans Werner Sinn durchgerechnet. Daher seine Schlussfolgerung: Energiewende ins Nichts!

Wenn die Speichertechnologie fehlt, bedeutet das, dass wir die fossile Stromerzeugungskapazität nicht entbehren können.

Das ist noch nicht alles. Es gibt noch eine andere, wichtige Dimension zu dieser Frage: Die Ordnungspolitischen Konsequenzen!

Neulich hat Wolfgang Weimer, ehemaliger Chefredakteur des Politik–Magazins Cicero, darauf hingewiesen dass es heute eine neue Öko–Planwirtschaft mit einem öko–industriellen Komplex gibt, in denen gewaltige Milliardenbeträge an Subventionen verschlingt werden. Nicht weniger als 22 Milliarden Euro EEG–Gesamtumlage im Jahr. Und doch ist Strom aus erneuerbaren Quellen, auch nach mehr als fünfzehn Jahren Dauerförderung, teurer als der aus Kohle, Öl, Kernenergie und Gas. Sie hat die größte Subventions–Abzockerei der neueren Geschichte in Gang gesetzt, bei dem am Ende die Natur Schaden nimmt, die Wirtschaft belastet wird und alle Verbraucher unter steigenden Strompreisen leiden. Die schlimmsten Verzerrungen im Markt müssen schließlich durch immer neue Reglementierungen wieder ausgeglichen werden. So rechtfertigt ein Staatseingriff den nächsten. Der real existierende Sozialismus ist hierzulande seit 1989 gottlob Geschichte. Der energetisch-existierende Sozialismus ist hingegen stark im Kommen. Sagte Weimer. 

Unterdessen schreitet die klimatologische Wissenschaft weiter. Die Amerikanische Klimatologin, Judith Curry, war neulich Zeuge in einem ‚Hearing‘ des Kongresses. Sie hat dort erklärt:

Die zentrale Frage in der wissenschaftlichen Debatte ist das Ausmaß in dem die menschengemachte CO2–Emissionen an der globalen Erwärmung beitragen im Vergleich zu natürlichen Klimaschwankungen, durch Fluktuationen der Sonnenaktivität, Vulkanausbrüche und Änderungen der Ozean Kreisläufen usw.

Die jüngsten Daten und Forschung bestätigen die Bedeutung der natürlichen Klimavariabilität. Sie stellen die Schlussfolgerung im Frage, dass der Mensch die Hauptursache des jüngsten Klimawandels ist. Die wichtigsten Argumente sind:

• die Verlangsamung der globalen Erwärmung seit 1998;

• die reduzierte Schätzungen der Empfindlichkeit des Klimas für Kohlendioxid;

• die Berechnungen der Klimamodellen, die viel mehr Erwärmung projektiert haben als bisher zu beobachten war;

• die Definition von "gefährlichen" Klimawandel ist nicht eindeutig;

• katastrophalen Kipp–Punkte die im 21. Jahrhundert als äußerst unwahrscheinlich betrachtet werden können;

• die Kausalität zwischen extremen Wetterereignissen und die menschengemachte Erwärmung ist nicht belegt.

So sagte Judith Curry.

Es ist heute zu Tage leichter Information zu bekommen über Privatsachen unserer Regierungsleiter als über die Effektivität der Klimapolitik. Das fällt unter der Omertà der zuständigen Behörden und der mainstream Klimatologen. Sie schweigen darüber in allen Sprachen.

Aber vor kurzem hat die Judith Curry relevanten Zahlen auf ihrer Website veröffentlicht – nicht über die Klimapolitik von Deutschland, sondern über die der USA. Sie zeigte, dass – selbst wenn man die Klimamodellen glauben möchte (was man nicht tun soll) – die von Präsident Obama vorgeschlagene Klimapolitik keinen messbaren Effekt haben wird. Wenn es gelingen würde insgesamt 80% Emissionsreduktion bis 2050 zu realisieren, dann würde die Reduzierung der Erwärmung 0,01 Grad Celsius betragen. Diese theoretische Reduzierung ist viel kleiner als die Messunsicherheit.

Und was ist das Effekt der Deutschen Energiewende? Das ist der Elefant im Raum.

Wenn Deutschland seine CO2-Emissionen bis 2050 um 80% reduziert, ist das theoretische Effekt dieser Reduzierung auf dem berechneten mittleren globalen Temperaturanstieg maximal 0,006 Grad Celsius weniger Erwärmung. Also überhaupt nicht messbar! Aber das gilt nicht für die Kosten. Die sind von einem ungeheuren Größenordnung, fast ohne Präzedenz.

Gibt es noch andere zutreffende Tiermetaphoriken?

Ja, der Berg kreißt und gebiert eine Maus.

Und dann ist zu bedenken, dass die angeblich schreckliche menschengemachte Erwärmung vor mehr als 18 Jahren aufgehört hat und es noch immer keine Indizien gibt, dass sie wieder zurückkehrt! Eben der bekannte Deutsche Klimatolog Mojib Latif, der im Jahre 2000 noch behauptete dass es in Deutschland keinen Winter mit starkem Frost und viel Schnee mehr geben würde, hält es für möglich dass sie noch 10 Jahre ausbleibt.

Man kann sich fragen, warum die Bürger das nicht wissen? Das gilt nicht nur für Deutschland sondern auch für die Niederlande. Die Antwort ist die gleiche. Weil die Behörden dass verzweigen und die grün angehauchte Medien darüber nicht berichten. 

Aber wie sehen diejenigen die auf der höchsten Ebene politisch verantwortlich sind für die Wende?

Der Vize-Bundeskanzler Sigmar Gabriel hat wörtlich gesagt. Ich zitiere: 

„Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.“ „Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.“ „Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

Wenn die höchste Führung so etwas sagt, dann erwartet man Folgemaßnahmen. Aber nachher blieb es still. Ausnahme war zwar die Ankündigung, dass die Kohleproduktion schwerer belastet wird, was zur ersten großen Demosntration gegen die Energiewende geführt hat. 

Aber die Politik macht noch keine Kehrt-Wende. Es ist der klassische Gegensatz zwischen Gesinnungsethik und Verantwortungsethik.

Uns was können wir schließlich erwarten von der Klimakonferenz, die am Ende dieses Monats in Paris stattfinden wird? Wahrscheinlich wird diese Konferenz unter viel Ach und Weh-Klagen der Teilnehmer scheitern, weil die meisten Ländern in der Welt sich nicht verpflichten wollen ihre CO2–Ausstöße zu reduzieren. Die Planetenretter und Klimaschützer müssen sich also allmählich andere Ziele aussuchen für ihren Weltrettungs-Aktivismus.

Wer weiß? Vielleicht kann die menschengemachte Erwärmung innerhalb einiger Jahren beerdigt werden in derselben gemütlichen Ecke des Friedhofs, wo auch andere apokalyptische Vorhersagen liegen, wie die globalen Abkühlung der siebziger Jahren, die Ressourcen Erschöpfung, das Massen–Aussterben, das Aussterben der Eisbären, das große Waldsterben und der Millennium–Bug. Dann passt nur noch: Ruhe in Frieden! 

– – –

Hans Labohm

Über den Autor 

Hans H.J. Labohm (* 1941) ist ein niederländischer Ökonom und Publizist. Er ist Mitglied der niederländischen Partei VVD. Er ist Mitgleid des EIKE Fachbeirates

Er studierte Ökonomie und Wirtschaftsgeschichte an der Universität von Amsterdam. Von 1987 bis 1992 war er ständiger Vertreter der Niederlande bei der OECD und Mitglied des DACder OECD in Paris. Er schreibt u.a. für de VolkskrantHet Financieele DagbladTrouw und NRC Handelsblad. Er war zudem Expert Reviewer des 4. IPCC Sachstands-Berichtes von 2007




Jagen wir IMAGINÄREN Zahlen nach?

[Vorab-Hinweis des Übersetzers: In diesem Beitrag gibt es viele verschiedene Hervorhebungen. Alle diese Hervorhebungen sind aus dem Original!]

Anfang Oktober hat der unermüdliche Willis Eschenbach von WUWT einen Gastbeitrag veröffentlicht, in dem er sich einen Radiobericht vorknöpft von Ira Flatow, der sich unter dem Motto zusammenfassen lässt „Einige jüngste Überschwemmungen in Miami, Florida, sind der Beweis, dass der Klimawandel real ist und Florida bereits beeinflusst“. Als Erwiderung auf einen Kommentar von mir zu diesem Beitrag stellte Eschenbach diese sehr interessante Frage:

…wie Sie sagen, wir können den Meeresspiegel mit einem „hohen Grad an Genauigkeit“ vermessen … messen wir also etwas Imaginäres? Und falls wir jene hoch akkuraten Messungen mitteln, warum bekommen wir nicht einen globalen mittleren Meeresspiegel? Was übersehe ich hier?“

In der Wissenschaft gilt, dass das Stellen der richtigen Frage oftmals, vielleicht immer, wichtiger ist als die richtige Antwort. Schauen wir mal auf Eschenbachs Fragen um herauszufinden, was in der Welt und in der Welt der Wissenschaft los ist.

Um welche Fragen geht es hier?

1. Können wir den Meeresspiegel mit einem „hohen Grad an Genauigkeit“ messen?

2. Messen wir etwas Imaginäres (wenn wir das tun)?

3. Falls wir jene hoch akkuraten Messungen mitteln, warum bekommen wir nicht einen globalen mittleren Meeresspiegel?

4. Was übersehe ich hier?

Hier kommt mir der Gedanke, eine allgemeinere Frage zu stellen – was messen wir in der Klimawissenschaft, und: messen wir etwas Imaginäres, wenn wir das tun? – Aber wir können „Meeresspiegel“ als Beispiel für das Gedankenexperiment heranziehen.

Zuerst zur ersten Frage: Ist es wirklich möglich, so etwas wie den Meeresspiegel (oder die Lufttemperatur in 2 m Höhe oder die Wassertemperatur) mit „einem hohen Grad an Genauigkeit“ zu messen?

Als ich in meinem Originalkommentar feststellte, dass wir seit Jahren den Meeresspiegel mit einem hohen Grad an Genauigkeit gemessen haben, wollte ich damit sagen, dass wir wussten, welcher Meeresspiegel an verschiedenen Plätzen in Zukunft zu erwarten wäre. Hintergrund war der Gedanke, was ein allgemeinerer „globaler Meeresspiegel“ wohl sein könnte und welche Änderungen über längere Zeiträume hinweg wie dem vorigen Jahrhundert oder so aufgetreten sein könnten. Aber für unser Gedankenexperiment in diesem Beitrag wollen wir „hoher Grad an Genauigkeit“ definieren als die üblicherweise erwähnte „jährliche Anomalie“ in der wissenschaftlichen Literatur. Für „globalen mittleren Meeresspiegel“ sind diese einstellige Millimeterzahlen, gewöhnlich 1,7 oder 1,8 mm bis zu 3,4 mm pro Jahr, irgendwo in diesem Bereich. (…)

Bevor wir sehr viel weiter gehen, wollen wir fragen „warum wollen wir (sie) den globalen Meeresspiegel messen“? Der Hauptgrund scheint es in unserer politisierten Welt der Globale-Erwärmung-Politik zu sein, dass Viele ihn messen wollen um zu zeigen, dass er steigt (was er schon seit einiger Zeit tut, zumindest während der letzten 20.000 Jahre) und dass dieser fortgesetzte Anstieg 1) gefährlich und 2) dem jüngsten Temperaturanstieg während des vorigen Jahrhunderts geschuldet ist und 3) folglich nur die globale Erwärmung dafür in Frage kommt. Das Motto lautet, den Anstieg des Meeresspiegels auszuschlachten als einen Beweis für die zunehmende thermische Ausdehnung des Wassers sowie der zunehmenden Hinzufügung von Wasser durch schmelzende Landeismassen. Beides soll vermeintlich die Folge der globalen Erwärmung sein, verursacht durch steigende atmosphärische Konzentrationen von Treibhausgasen, hauptsächlich CO2, seit den achtziger Jahren des 19.Jahrhunderts. Wir werden später in diesem Beitrag sehen, dass dies Bestandteil einer größeren modernen wissenschaftlichen Bewegung ist, um „Einzelzahlen“ zu erzeugen, die dynamische Systeme repräsentieren sollen (wobei man von einigen davon weiß, dass sie nichtlineare dynamische Systeme sind).

Können wir den Meeresspiegel bis zu jener Genauigkeit von ± 3 bis 4 mm messen? Nun, für den Meeresspiegel lautet die Antwort selbst an einer einzigen präzisen Stelle Nein, können wir nicht!“ Nein, ich versuche hier nicht, provokativ zu sein – es ist schlicht und ergreifend eine Tatsache. Falls das Meer so freundlich wäre und stillstehen würde, selbst nur für wenige Augenblicke, könnten wir mit einer sehr genauen Messung an einer einzelnen Stelle oder vielleicht auch vielen Stellen aufwarten. Aber ach, das Meer ist niemals ruhig, es bewegt sich immer auf- oder abwärts: Gezeiten Strömungen, Wellen, Schiffe, steigender bzw. fallender Luftdruck und – an den meisten Stellen – alles zusammen. Folglich können wir es aus physikalischen Gründen nicht; das Meer ist einfach nicht lange genug ruhig, um diese Messung bis zu diesem Genauigkeitsgrad durchführen zu können. Das wird sogar noch schlimmer, wenn wir dieser Information sowohl das Land selbst als auch den Meeresgrund hinzufügen, die sich fast überall in vertikaler Bewegung befinden und emsig dabei sind, die Volumina der Ozeanbecken zu verändern.

Viele werden protestieren: „Schauen Sie mal hier, Mr. Hansen, das können Sie nicht sagen. Es gibt eine Unmenge sehr wissenschaftlicher Tabellen, Graphiken und Zeitschriftenartikel, die uns sehr sorgfältig darüber belehren, dass wir jene Messung nicht nur durchführen können, sondern das wir das auch getan haben über lange Zeiten der menschlichen Historie und seit 1992 mit Satelliten!“

Mein Punkt hier lautet, dass das, was wir tun und wo wir es tun, keine Messung ist, sondern Ableitung. Viele Messungen werden durchgeführt, an vielen und unterschiedlichen Stellen zu verschiedenen und unterschiedlichen Zeiten. In einigen Fällen gibt es fast kontinuierliche Zeitreihen von Messungen für bestimmte Stellen. Von diesen zahlreichen individuellen Messungen misst beispielsweise die Tidenstation am Battery Park in New York City, dann wird eine interessante Formel zur Anwendung gebracht, um eine Zahl abzuleiten, die die mittlere Differenz zwischen der Meeresoberfläche und einem geodätischen Punkt über einen bestimmten Zeitraum repräsentiert. Der Punkt wurde schon vor Jahren im Felsgrund von Manhattan Island errichtet. Wir werden die fast infinitesimalen Details weglassen, ob die abgeleitete Zahl einen einfachen Mittelwert zwischen Höhen und Tiefen repräsentiert oder ob es ein Mittelwert mit der Zeit ist.

Ich möchte hier darauf hinweisen, dass das NOAA CO-OPS-System von Tidenstationen ein wichtiges und pragmatisches Ziel hat. Schiffe und Boote müssen die Wassertiefe an einer bestimmten Stelle kennen – auf einem Dock im Hudson River oder auf einer Sandbank in der Bucht – und zu einer bestimmten Zeit. Folglich sind die Gezeitentabellen für zur See fahrende kommerzielle Schiffe und auch Freizeitboote sehr wichtig. Wichtige Fragen werden durch sie beantwortet, etwa: „Kann ich dorthin fahren ohne diese bösen Felsen auf dem Grund zu berühren? Kann ich dort bleiben, ohne dass mich die Gezeiten auf den Felsen am Grund absetzen?“ Dieses System war niemals dafür gedacht, den „Anstieg des Meeresspiegels“ zu messen. Nichtsdestotrotz wird es jedoch herangezogen, um Änderungen des relativen Meeresspiegeltrends zu berechnen. Zwei Artikel bei Wikipedia hierzu gibt es hier und hier. Im zweiten Artikel findet sich die folgende Abbildung:

Man beachte bitte die Differenz zwischen dem Trend berechnet aus Tidenmessungen (orange Linie mit grauer Fehlerbandbreite) und den blauen Satellitenmessungen. Daten von Tidenmessungen (welche den Relativen Meeresspiegel an jeder Messstelle zeigen) zeigen einen sich beschleunigenden Anstieg, während Satellitendaten, welche den absoluten Meeresspiegel messen, bei dem seit einem Jahrhundert zu beobachtenden Trend bleiben.

Aber was ist mit diesen wunderbaren Satelliten? Die offizielle NOAA-Behauptung lautet: „Eine Reihe von Satelliten-Missionen, die mit TOPEX/Poseidon im Jahre 1992 begannen und mit Jason-1 (2001 bis 2003) und Jason-2 (2008 bis heute) schätzen den globalen mittleren Meeresspiegel alle 10 Tage mit einer Unsicherheits-Bandbreite von 3 bis 4 mm“. Ergebnisse in graphischer Form kann man der Website der NOAA Laboratory for Satellite Altimetry einsehen. Es ist interessant, den Unterschied sichtbar gemacht zu sehen, der sich aus dem Gebrauch alternativer Kolorierungs-Schemata ergibt sowie die klumpige Beschaffenheit [lumpiness ?] der Ozeane.

Ich weiß, dass viele Leser hier mit dem Meer vertraut sind – Willis Eschenbach und ich selbst haben einen großen Teil unseres Lebens auf dem Meer verbracht und einen sogar noch größeren Teil am Rande der Meere. Drei oder vier Millimeter, das ist etwa die Dicke von zwei amerikanischen Pennies übereinander gelegt. Es ist selten und schön sowie äußerst inspirierend, den Ozean glatt wie eine Butterstulle bis zum Horizont zu sehen, oder auch nur über eine Bucht oder einen Hafen hinweg. In meinen 20 Jahren, auf dem Meer habe ich nur sehr selten eine so ruhige See gesehen – die kleinste Brise bringt Rippelwellen weit über 3 bis 4 mm hinaus. Diese Wellen können sich rasch auf Zentimeter und Meter hochschaukeln. Falls ein Wasserreservoir zum Ozean hin offen ist, wandern schwingende Ozeanwellen von einem Horizont zum Anderen, und nicht immer unbedingt in der Richtung, in der der Wind weht. Dies alles addiert sich zu einer großen vertikalen Bewegung der Meeresoberfläche – manchmal anregend, manchmal einfach zum Fürchten.

Falls also die NASA behaupten möchte, dass deren Satelliten in ihren perfekten Orbits irgendwie die sich ständig ändernde, unebene Oberfläche der Ozeane der Welt zu einer Auflösung von ± 3 bis 4 mm transformieren kann, dann bitte sehr. Wer bin ich, der ich zu sagen wage, dass sie das nicht kann, selbst falls ich mir nicht vorstellen kann, wie sie das selbst theoretisch tun könnten. Wie auch immer, für unsere Zwecke hier möchte ich folgende Unterscheidung treffen: sie messen den globalen Meeresspiegel alle 10 Tage nicht – sie behaupten das noch nicht einmal. Ihre Behauptung lautet, dass sie ihn schätzen. In jeder wirklich pragmatischen Hinsicht leiten sie irgendwie eine einzelne Zahl aus einer sagenhaft großen Datenmenge ab – Daten, die selbst keine direkten Messungen sind, sondern Rückschlüsse aus anderen Datenarten.

Aber zurück zu Ernsterem. Obwohl es möglich wäre, den Meeresspiegel an individuellen Stellen zu messen, ist dies schwierig; und selbst wenn man das tut, ist es keine wirkliche Messung, sondern eine Ableitung aus akkumulierten Daten und Abhängig von mathematischen und statistischen Verfahren und Definitionen. Falls man jemals eine spezielle Sektion des Meeres „auf Meeresspiegel-Höhe“ findet, wäre dies total augenblicklich und zufällig.

Der Meeresspiegel, selbst der „Meeresspiegel am Battery-Park in New York“ wird nicht angemessen repräsentiert durch eine einzelne Zahl über und unter irgendeiner geodätischen Eckmarke. Was wir Meeresspiegel nennen, ist eine abgeleitete, berechnete Zahl – Ein Mittel von Mittelwerten eines Bündels von Messungen und Zeitreihen. In dieser Hinsicht ist die Zahl als berechneter Mittel-Punkt einer Bandbreite mit der Zeit, im praktischen Sinne eine imaginäre Zahl, die im Alltagsleben des Hafens von New York keine Existenz aufweist.

Es gibt jedoch einen „pragmatischen Meeresspiegel am Battery-Park in New York“ – welcher selbst eine vorhersagbare Bandbreite über und unter irgendeiner Wassertiefe an einem bestimmten Punkt ist (den man als den Mittleren Meeresspiegel vor Ort [Local Mean Sea Level] bezeichnet), den man modifiziert durch erwartete, vorhergesagte Gezeiten extrapolieren kann auf andere Punkte in dem Hafen. Das ist für Seefahrer nützlich, trotz seines Weniger-Als-Real-Aspektes. Er kann verwendet werden in Rohform (Bruchteile von Metern), um die Wassertiefe zu bestimmen über Grund an einer Stelle und zu einer Zeit, die für Kapitän und Mannschaft eines Schiffes von Interesse ist. Hier folgt die Vorhersage von Wasser-Niveaus relativ zum MLLW vom 9. bis zum 11. Oktober:

Unter dem Strich steht, dass der Meeresspiegel, überall und zu irgendeiner Zeit, keine direkte Messung ist. Niemals. Es ist eine berechnete, abgeleitete Zahl, die einen präzise definierten, aber tatsächlich ziemlich komplizierten Gedanken zur Grundlage hat.

Um einen globalen Meeresspiegel zu definieren, muss man sich in Imagination üben entlang folgender Umrisse: Man stelle sich vor, dass der Planet aufgehört hat zu rotieren; dass der Mond niemals existiert hat; dass der Planet eine perfekte Sphäre ist; dass kein Wind weht; dass die Atmosphäre gleichmäßig verteilt und der Luftdruck überall gleich ist; dass die Wassertemperatur der Meere genau gleich ist, überall und in allen Tiefen; dass es keine Strömungen gibt und keine Eiskappen; dass die Flüsse aufgehört haben, ins Meer zu fließen und dass die Gravitation wie durch Zauberhand an allen Punkten der Erde genau gleich ist (dem ist mitnichten so). Unterall diesen Bedingungen könnten wir sagen, dass der globale Meeresspiegel präzise „da“ ist, innerhalb von 3 oder 4 mm. Liebe Freunde, DAS ist es, was den globalen mittleren Meeresspiegel in dieser speziellen Hinsicht zu einer imaginären Zahl macht.

Also haben wir jetzt Frage 2 beantwortet: Messen wir etwas Imaginäres (wenn wir das tun)? Ja, wir „messen“ in gewisser Weise etwas Imaginäres, wenn wir sagen, dass wir den Meeresspiegel messen. Die sich daraus ergebende berechnete, abgeleitete Zahl ist ein Produkt unserer Vorstellungen, eine imaginäre Zahl.

Frage 3 beantwortet sich fast von selbst. „Falls wir jene hoch genauen Messungen mitteln, warum bekommen wir dann keinen globalen mittleren Meeresspiegel?“ Man kann eine sinnverwirrende Vielfalt statistischer und mathematischer Schritte vornehmen und zu irgendeiner Zahl kommen – je mehr Schritte man vornimmt, umso präziser wird die Zahl aussehen. Man kann jedweden Datensatz mitteln. In diesem Falle – wird man eine Zahl erhalten, die der „mittlere globale Meeresspiegel“ ist? Schauen wir aber erst mal auf Frage 4, bevor wir hierauf noch einmal zurückkommen.

Frage 4 lautete: „Was übersehen wir (ich) hier?“

Das ist eine Frage der Logik und folgt irgendwie einem früheren Beitrag von mir hinsichtlich der „Unsicherheits-Bandbreiten“ (Uncertainty Ranges). Wenn man eine Reihe von Zahlen mittelt, von denen jede einzelne in Wirklichkeit eine Bandbreite repräsentiert, muss das Ergebnis ebenfalls eine Bandbreite sein. In unserem Falle hier muss das Ergebnis einer Mittelung einer von Computern ausgespuckten Masse von imaginären Zahlen eine andere imaginäre Zahl sein, in der gleichen Weise wie die Zahlen im Original-Datensatz. Man kann Messfehler im Original nicht hinweg mitteln, ebensowenig wie die Tatsache, dass die Ausgangsdaten selbst in Wirklichkeit Bandbreiten und nicht einzelne Zahlen sind. Und man kann auch nicht die Tatsache hinweg mitteln, dass die Originalzahlen im hier diskutierten Sinne imaginär sind.

Bevor wir hier zu weit abschweifen, möchte ich noch einmal klarstellen, wo ich die Unterscheidung sehe zwischen einer realen Zahl und dem, was ich hier eine imaginäre Zahl nenne. Diese Diskussion läuft ab vor dem Hintergrund der Messungen von Charakteristika der physikalischen Welt. Wenn das Ergebnis einer Messung eine reale Zahl sein soll, muss das Gemessene selbst messbar sein, und das diese Messung repräsentierende numerische Ergebnis muss etwas repräsentieren, das in irgendeiner Weise bedeutsam und nützlich existieren muss. Allerdings ist das Ergebnis einer Messung von etwas, dass selbst nicht physikalisch messbar ist, sondern nur auf der Grundlage einer mathematischen Definition abgeleitet werden kann, ein Gegenstand unserer Vorstellungen (etwas, dass in der realen Welt nicht wirklich zu finden ist). Dann sollte dieses Ergebnis in dieser speziellen Hinsicht ebenfalls als imaginär angesehen werden, trotz der vermeintlichen Präzision.

Es gibt unzählige Mittelwerte von Dingen, die abgeleitet und berechnet werden können. Unabhängig davon sind viele jener Mittelwerte selbst imaginär, und deren Bedeutung und Nützlichkeit muss immer sorgfältig bedacht werden. Derartige imaginäre Zahlen können einige interessierende Bedeutung haben, andere eine gewisse pragmatische Nützlichkeit, aber man muss sehr vorsichtig sein bei der Anwendung dieser Zahlen, weil sie – alles in allem – imaginär sind und in der realen Welt nicht existieren.

Folglich kann die mittlere Körpergröße amerikanischer Bürger nützlich sein bei der Bestimmung der Bettengröße, die man den Amerikanern verkauft, oder zumindest kann man eine Bandbreite betrachten. … Hingegen wäre es närrisch, mit so einer Zahl Bedrohungen der öffentlichen Gesundheit zu belegen, wenn sich eine solche Zahl auch nur geringfügig ändert über einen eng gefassten Zeitraum.

Noch schlimmer ist – und ich hoffe, dass zumindest dieser Gedanke Zustimmung finden wird – einfache Mittelwerte von Mittelwerten von Mittelwerten (die alle mit gemittelten, imaginären, abgeleiteten Zahlen anstatt mit tatsächlichen Messungen beginnen), sind grässliche Absurditäten (z. B. Simpson’s Paradox, etc.)

Hier folgt ein lächerliches Beispiel: Falls wir die mittlere Höhe des Landes im Bundesstaat South Carolina über NN berechnen und dabei erst die Höhe jedes Landkreises, dann die Höhe von Regionen mit mehreren Landkreisen und schließlich regionale Höhen mitteln, würde das Ergebnis eine Zahl sein von (einfach Pi mal Daumen) 125 Fuß [ca. 38 m] über dem Meeresspiegel. Wenn man dann einen Trend ermittelt vom höchsten Punkt in den Blue Ridge Mountains zum Meer, könnte man sagen, dass der Staat ein Gefälle von XX Fuß pro Meile aufweist. Es ergibt in dieser Hinsicht keinen Unterschied, falls wir die Mittelwerte wichten, die fehlenden Punkte irgendwie ersetzen oder das Ganze homogenisieren oder glätten. Diese Prozedur berechnet und/oder leitet eine imaginäre Zahl ab im genauen Sinne unserer Arbeitsdefinition hier. Folglich könnte man mit unserer magischen neuen imaginären Zahl behaupten: während einige Gebiete von South Carolina durch extreme Fluten zusammen mit 600 l/m² Regen überschwemmt werden könnten, würden die Menschen dort im Mittel keiner Katastrophe ausgesetzt sein, selbst wenn die wenigen Gebiete mit der erwarteten Überflutung rasch im Atlantik versinken würden. Die Anwendung einer solchen mathematisch absolut korrekten, jedoch imaginären Zahl in der realen Welt kann zu abwegigen Schlussfolgerungen führen. Es war genau diese von der Macht imaginärer Zahlen getriebene Logik, dass einen Journalisten der New York Times irrig behaupten ließ, dass der durch die globale Erwärmung steigende Meeresspiegel (ein wirklicher Anstieg, aber mit einer imaginären Zahl) erhebliche Schäden in New York City durch den Hurrikan Sandy verursacht habe. Den gleichen Fehler machte Ira Flatow hinsichtlich einer Überschwemmung in Miami, wo die Überschwemmung, auf die sie sich bezog, an einer Stelle erfolgte, die unter der langfristigen mittleren Hochwasser-Marke lag. Das war auch schon so, als die Straße gebaut worden ist.

Und jetzt zurück zu Frage 3: „Falls wir jene hoch akkuraten Messungen mitteln, warum bekommen wir keinen mittleren globalen Meeresspiegel?“ Falls wir den sehr großen Datensatz imaginärer Zahlen zu einem speziellen Zeitpunkt mitteln, werden wir eine neue, womöglich noch imaginärere Einzelzahl erhalten, die man, wenn jeder dem zustimmen kann, den „mittleren globalen Meeresspiegel“ nennen könnte. Wäre diese Zahl pragmatisch, praktisch, bedeutsam und nützlich? Vielleicht, aber dann nur in sehr begrenztem Maße … und wir müssten sehr sorgfältig überlegen, welche Bedeutung wir dieser Zahl beimessen.

Warum? Dazu schaue man auf meinen Beitrag vom vorigen Jahr (hier) über Hurrikan Sandy und den Schäden in NYC. Der proklamierte Anstieg des Meeresspiegels in dem 50-jährigen Zeitraum von 1960 bis 2010 „getrieben durch die globale Erwärmung“ sollte etwa 4 Inches [ca. 10 cm] betragen haben (etwa die Hälfte der 8 Inches im vergangenen Jahrhundert). Die Wirklichkeit ist: nur wenn wir die niedrigste Schätzung des Absinkens für den Battery Park koppeln mit der höchsten Schätzung der lokalen relativen Änderung des Meeresspiegels, sehen wir irgendeinen positiven Beitrag der absoluten globalen Änderung des Meeresspiegels am Battery Park: die 0,59 Inches [ca. 15 mm] in der oberen rechten Ecke:

Was ist hier los? Der akzeptierte geschätzte Anstieg des Meeresspiegel über ein Jahrhundert zeigt sich am Battery Park nicht, nicht einmal über die letzte Periode von 50 Jahren. Dies sollte uns nicht überraschen – Versuche, eine einzelne Zahl, den „globalen Meeresspiegel-Anstieg“ anzuwenden, ist völlig abwegig – und gleicht der Anwendung einer imaginären Zahl auf eine reale Situation.

Die heutige Diskussion ist eine Möglichkeit, auf den gegenwärtigen Trend in der Wissenschaft zu schauen, in der Versuche gemacht werden, sehr komplizierte dynamische Systeme auf eine Einzelzahl zu reduzieren, die man dann graphisch über die Zeit darstellen kann, für gewöhnlich, um eines oder mehreres des Folgenden zu versuchen:

1. Die Schuld für eine zu- oder abnehmende Zahl von irgendetwas einer Substanz, einer Maßnahme oder einer Gruppe in die Schuhe zu schieben, meistens fälschlich,

2. die Verwendung zweier derartiger Graphiken von Einzelzahlen, um irgendeine Einzelzahl mit irgendeiner anderen Einzelzahl zu korrelieren, um eine gewünschte Story zu verkaufen, gewöhnlich um etwas zu verurteilen oder zu begrüßen, meistens fälschlich,

3. Aufmerksamkeit (lies: öffentliche Besorgnis hervorzurufen) auf das Steigen oder Fallen einer Einzelzahl zu lenken in der Hoffnung, Fortschritte zu erzielen (hinsichtlich Forschungsgeldern, Ruhm, öffentlichem Wohlwollen, öffentliche oder politische Unterstützung), gewöhnlich nicht garantiert.

Diese Einzelzahlen, dazu erdacht, irgendwie einige Vorgänge in der realen Welt zu beleuchten, sind oftmals, vielleicht immer, keine realen Zahlen, die reale Dinge repräsentieren, sondern imaginäre Zahlen, die existierende Konzepte repräsentieren auf einem pragmatischen praktischen Niveau, nur in unseren Vorstellungen, welchen Bedeutung und Nützlichkeit fehlen könnte, oder beides. In dieser Speziellen Hinsicht könne wir diese Zahlen imaginäre Zahlen nennen. Und weil sie fast niemals als imaginäre Zahlen angesehen werden, welche besondere Sorgfalt hinsichtlich deren Anwendung erfordern, wird jeder einzelne der drei Punkte gefolgt von „gewöhnlich fälschlich“ oder „gewöhnlich nicht garantiert“.

Selbst wenn Sie mir nicht zustimmen, dürfte es interessant sein, in Kommentaren einige der fortgesetzten Bemühungen zu kommentieren, diese spezielle Art von abgeleiteten Zahlen zu (miss-)brauchen, die imaginäre Zahl, um die öffentliche Meinung auf differierenden wissenschaftlichen Gebieten zu beeinflussen.

———————————————

Schlussbemerkung des Autors: In diesem Beitrag geht es nicht wirklich um den globalen Meeresspiegel, aber ich bezweifle, dass wir über dieses Thema sprechen können, ohne gleichzeitig die Punkte zu berühren, die das Thema globaler mittlerer Meeresspiegel umgeben.

Lieber würde ich das Konzept von „Jagen wir imaginären Zahlen nach?“ diskutieren.

Nur mal so… reden wir darüber!

Link: http://wattsupwiththat.com/2015/10/09/are-we-chasing-imaginary-numbers/

Übersetzt von Chris Frey EIKE