1

„Ich könnt kotzen!“ Klammheimlich zerstört die Windmafia seltene Storchennester, um den Weg frei zu machen für Windkraftanlagen

Das Video beginnt mit Herrn Kieling, der, offensichtlich betroffen, erklärt:

„Innerhalb von nur 15 Min. hat [Hund] Kleo einen Mäusebussard, zwei Wacholderdrosseln, eine Singdrossel und die Überreste von zwei Fledermäusen gefunden. Das ist unglaublich und das allein an einer einzigen Anlage, die hier allerdings ziemlich nah am Waldrand steht. Jedoch, wenn man am nächsten Morgen diese Grasfläche hier absuchen würde, würde man wahrscheinlich kein einziges Tier mehr finden, weil die Kleinpredatoren, also Kleinraubwild wie Fuchs, Marder und Dachs natürlich diese Tiere [Vögel] abtransportieren und auffressen. Offensichtlich haben viele Vögel keine direkte Feindwahrnehmung was diese großen Generatoren angeht, d.h. sie sehen sie irgendwie als Gebilde, als Bäume, die sich sehr schnell bewegen und fliegen durchaus einfach auf sie zu und rechnen nicht damit dass sie von so einem Propeller getroffen werden.“

Video nicht mehr verfügbar

Video Der Naturfilmer Andreas Kieling schrieb am 14.07.2016 zu seinem Video auf FACEBOOK: „Drama am Himmel, Windkraft ist ein Symbol für saubere, umweltfreundliche Energie. Tote Fledermäuse und Vögel sind ein hoher Preis dafür! Was meint ihr dazu? Bitte teilt das Video so oft wie möglich! Es geht alle Menschen an. Nachdenklich, euer Andreas“Die Vögel haben kaum eine Chance gegen die WKA, denn die Schaufelspitzen laufen mit Geschwindigkeiten von bis zu 270 km / h umher.

„Bei Fledermäusen kommt noch dazu, dass durch diesen Unterdruck der hier herrscht, man kann es richtig fühlen, Kleo fühlt sich hier auch total unwohl… offensichtlich können Fledermäuse ihr Ortungssystem dann nicht mehr einsetzen … und werden dann auch eben zum Opfer…. Bei Greifvögeln kommt noch hinzu, dass wenn sie so eine Anlage anfliegen, in der Regel nicht nach vorne schauen, sondern… nach unten zur Beute hinunter.“

Das endet dann damit, dass die Vögel geshreddert werden.

„Was am Standort dieser [„Windindustrieanlagen”] am schlimmsten ist, es sollen noch mehr davon dorthin gebaut werden, vor allem noch größere. Ungefähr 1000m von hier war ein Schwarzstorch Nest von der Windmaffia einfach abgebaut worden. Es ist nicht mehr existent.“

An Zeitmarke 2:05 zeigt Kieling auf eine alte Eiche:

„… haben über 40 Jahre lang Schwarzstörche gebrütet, es war quasi ein Mehrgenerationsnest und auf einmal ist das Nest spurlos verschwunden, … dasselbe ist mit dem Ausweichnest passiert, Schwarzstörche haben oft zwei Nester …, der Windpark ist gerade mal 1 km entfernt und das ist wahrscheinlich der Grund dafür. … Schwarzstörche bauen sehr gerne ihre Nester an einen Bachlauf. Meistens sind es eben solche alten, knorrigen Bäume, wie eine Rotbuche oder eben so eine alte Eiche und sie bauen ihre Nester nie in die Krone rein, sondern immer auf einen schweren Seitenast …“

Die Nester werden wieder und wieder benutzt, manchmal bis zu 30 Jahre lang, sie werden jährlich verbessert, weiter aufgepolstert und ausgebaut und können sie bis zu 500 kilo wiegen, sodass sie einfach abbrechen

… aber nicht hier, denn man müsste dann die Überreste des Nestes oder den abgebrochenen Ast finden. In der ganzen Nachbarschaft der ehemaligen Nester findet man keine Spuren mehr. Und im Dorf wo ich wohne, Ahrenberg, dort ist ein Schwarzstorchnest seit langer, langer Zeit. Dieses hier war das letzte Schwarzstorchnest in der Nordeifel. In der Zwischenzeit geht es glücklicherweise wieder aufwärts mit der Anzahl der Störche. … ich frage mich, wie verborgen und zurückgezogen müssen diese Vögel leben, dass sie nicht behelligt werden. Und das was hier passiert ist, ist kriminell, und es waren Profis, am Wald, am Baum sind keine Kletterspuren zu sehen, die Astgabel ist noch oben drin, das Nest ist komplett weg, das heißt es wurde abgebaut, wahrscheinlich mit [leichten] Aluminiumleitern und das Nestmaterial wurde im weiten Umfeld verstreut. An den anderen Nestern genau dasselbe. Ich bin so wütend, ich könnte kotzen…. Es ist irgendwie ein Kampf gegen Windmühlen“

In der Zwischenzeit kommt kein Pieps des Protests von WWF oder anderen, hochkarätigen Umweltgruppen. Kielings Frustration und das Gefühl der Verzweiflung sind verständlich. Wir können ihn nur das Beste wünschen im Kampf gegen diese Kumpanei der „Wind Mafia“ und den beklagenswerten Politikern, die wegschauen.

Gefunden auf NoTricksZone am 16.07.2016

Übersetzt bzw. vom Video abgeschrieben durch Andreas Demmig

“I Could Throw Up”…”Wind Power Mafia” Clandestinely Destroys Rare Stork Nests To Clear Way For Turbines!

Hinweis zum Video: Bei mir ist das Video einwandfrei mit Google Chrome zu sehen und zu hören, Mit Egde und InternetExplorer klappt es nicht.

Bei facebook muss man nicht angemeldet sein.




EIKE 9. IKEK Marcel Crok: Oversensitive – How Equlilibrium Climate Sensitivity Shrinks Over Time

Nachdem Marcel Crok, der jahrelang für ein bekanntes niederländisches Wissenschaftsmagazin schrieb, auf die berüchtigte „Hockeyschläger-Kurve“ stieß und zusammen mit anderen Wissenschaftlern einen Artikel darüber erarbeitete, wurde er plötzlich als Klimaskeptiker abgetan. Er forschte weiter und schrieb dann sein Buch, „De Staat van het Klimaat“ (leider nur auf niederländisch erhältlich).

Video des Vortrags von Marcel Crok anlässlcih der 9. IKEK am 11.12.15 in Essen 

Hier stellt er die Frage: Wie empfindlich reagiert das Klima auf CO2? Bzw: Wie viel CO2 erwärmt das Klima wie stark? Das IPCC hält diese Sensitivität für sehr hoch – aber seine Modelle zeigen beim näheren Hinsehen große Probleme. So enthalten sie veraltete Daten oder verdrehte Zahlenreihen.

Korrigiert zeigen die Modelle natürlich ganz andere – weniger bedrohliche – Ergebnisse. Das IPCC jedoch versteckt anscheinend systematisch solche „guten Nachrichten“ in Fußnoten oder ganz.

Marcel Crok zeigt dies beispielhaft an einem Rechenbeispiel, das IPCC-Formeln verwendet. Viele angesehene Wissenschaftler sind bei eigenen Messungen auf Basis der IPCC-Methoden zu anderen Ergebnissen als das IPCC gekommen. Doch auch wenn sie diese Ergebnisse in Fachzeitschriften veröffentlichen, passt das IPCC seine Modelle nicht an diese unabhängige Messungen an – warum nicht?

Tatsächlich kann gezeigt werden, dass das Klima weitaus weniger auf einen CO2-Anstieg reagiert, als das IPCC uns weis machen will. Die Beobachtungen stimmen nicht mit den Modellen überein. Wahrscheinlicher als die Schreckensszenarien des IPCC, die auf den falschen Modellen basieren, ist eine weitaus geringere Erwärmung – selbst ohne verringerte CO2-Emissionen sprechen wir von höchsten 2°C bis 2100. Das sind gute Nachrichten, aber warum will sie niemand hören?
—–
EIKE auf facebook:
www.facebook.com/Europäisches-Institut-für-Klima-und-Energie-EIKE-279105925453555/




Einsatz der „Öko-Garotte“ gegen das Auto Dieselverbote? – Der Vernichtungsfeldzug gegen eine deutsche Top-Industrie

Bild rechts: Das geforderte Verbot des Diesel-PKW ist nur der erste Schritt zur Vernichtung der deutschen Automobilindustrie 

„Am sinnvollsten wäre ein Fahrverbot für alle Fahrzeuge mit Verbrennungsmotor. Nur so kann in den Städten der kollektiven Körperverletzung mit vielfacher Todesfolge Einhalt geboten werden“, schrieb ein perfekt auf diese Ideologie getrimmter Forist im „Spiegel Online“ zu einem Artikel über geplante Fahrverbote für ältere Dieselfahrzeuge wegen der angeblich enormen Gesundheitsgefährdung durch ihre Abgase [SPON]. Konkrete Folgen seien unter anderem erhöhte Risiken von Schlaganfällen oder Krebserkrankungen. Mit letztlich ähnlichen Begründungen haben sich bereits im April 2016 alle Umweltminister der Länder für eine „blaue Plakette“ und damit für mögliche Fahrverbote für ältere Dieselautos ausgesprochen. Besonders im Visier hat man dabei die Stickoxide, weil diese besonders häufig oberhalb der geforderten Grenzwerte liegen. In der Presse kursieren im Zusammenhang hiermit regelrechte Horrorzahlen. So wird in einem Bericht der „Deutschen Welle“ behauptet, dass in Deutschland nach Angaben von Forschern jährlich 35.000 Menschen durch Luftverschmutzung stürben, davon 7000 durch Abgase, fast doppelt so viele wie an Verkehrsunfällen [DEWE]. Auch werde das Gesundheitssystem dadurch mit immensen Kosten belastet: Nach Berechnungen des internationalen Währungsfonds (IWF) lägen die jährlichen Gesundheitsschäden durch Motorabgase weltweit bei über 200 Milliarden Euro. Nicht erwähnt werden in solchen Meldungen dagegen Todesfälle durch Rauchen, Alkohol oder falsche Ernährung, auch die geschätzt 18.800 jährlichen Todesfälle durch ärztliche Kunstfehler [KUFE] finden selbstverständlich ebensowenig Erwähnung wie die zahlreichen, oft tödlich verlaufenden Infektionen durch Krankenhauskeime. 

Ein „ökologisches“ Zerrbild der Realität

Die Diesel-Gegner erwecken den Eindruck, als habe die Menschheit bis kurz vor dem Siegeszug des Automobils überwiegend gesund und glücklich in einer Art Luftkurort-Umgebung gelebt, die erst seit einigen Jahrzehnten durch rücksichtslose Autokonzerne und andere „schmutzige“ Industrien in eine Gesundheitshölle verwandelt wurde. Wer von den jung-dynamischen Weltrettern, die solche Thesen vertreten, interessiert sich denn schon für Fakten? Beispielsweise für die Tatsache, dass der Mensch selbst in den Ballungsräumen der westlichen Welt eine Luft atmet, die sauberer und gesünder ist als jemals zuvor, seit man vor ca. einer Million Jahren das Feuer erfand. Seitdem musste jeder, der nicht frieren oder sein Essen roh zu sich nehmen wollte, sich in Höhlen, Jurten, Wigwams oder Katen einer stark verrauchten Umgebung aussetzen, in der die Luft von krebserregenden Schwebeteilchen nur so wimmelte. Besonders übel war der berüchtigte Londoner Smog, den es schon gab, als im Transportwesen noch das Pferd dominierte und in ganz Europa erst einige Dutzend LKW fuhren. Erst seit den 50er Jahren des letzten Jahrhunderts wurde sehr viel für die Luftreinhaltung getan, wurde beispielsweise der „blaue Himmel über der Ruhr“ zur Realität. Dies trug ebenso wie der wachsende Wohlstand auch zur steigenden Lebenserwartung bei, Bild 1.

Bild 1. Entwicklung der Lebenserwartung in Deutschland von 1871 bis 2004 (Grafik: Statistisches Bundesamt)

Der Diesel: Kein Beelzebub, nur ein bequem erreichbarer Prügelknabe

Die Tatsache, dass man sich bei der Kampagne gegen die Automobilindustrie vorerst auf den Diesel konzentriert, hat einen ganz einfachen Grund: Der Diesel-PKW ist den US-Autoherstellern, die nichts vergleichbares entwickelt haben, schon lange ein Dorn im Auge. Man suchte daher seit Jahren nach einer Möglichkeit, dieser ausländischen „Schmutzkonkurrenz“ etwas am Zeug zu flicken. Der Durchbruch gelang dank der intensiven Zusammenarbeit eines amerikanischen U-Boots im Bundesumweltministerium mit einer von regierungsnahen US-Großkapitalisten finanzierten NGO namens International Council on Clean Transportation (ICCT) sowie diversen US-Umweltbehörden. Dank des von dieser Koalition hochgekochten VW-Skandals ist der Diesel jetzt auch für deutsche Schmierenpolitiker, denen hiesige Arbeitsplätze schnurzpiepegal sind, zum leichten Ziel geworden.

Zu den Besonderheiten moderner Diesel zählt die Tatsache, dass sie erheblich sparsamer sind als Benziner vergleichbarer Leistung, aber prinzipbedingt mehr Stickoxide (vor allem NO und NO2) pro km ausstoßen. Diesen Punkt hatten die US-Autohersteller und die entsprechend gepolten Behörden deshalb schon lange im Visier. Eine Reduzierung des höheren Stickoxidausstoßes ist nur mit hohem Aufwand möglich und macht das Antriebsprinzip vor allem für kleinere Aggregate wirtschaftlich uninteressanter. Also wurden vorrangig zwei Ziele verfolgt: Die Stickoxide sollten als besonders gesundheitsschädlich verteufelt werden, um dann – gestützt auf diese Kampagne – dafür zu sorgen, dass staatliche Stellen die entsprechenden Grenzwerte solange nach unten schrauben, bis die Motorentwickler an den Grenzen der Physik bzw. der Wirtschaftlichkeit scheitern mussten. Nachdem dies dank gütiger Mithilfe üppig finanzierter NGO’s und ideologisierter Behördenvertreter auf beiden Seiten des Atlantiks erreicht war, brauchte man nur noch abzuwarten, bis irgendjemand sich nicht mehr anders zu helfen wusste als zu tricksen, und schon konnte man die „gewissenlosen Betrüger“ fertigmachen.

Tendenziöse „Gutachten“

Zunächst wurde deshalb dafür gesorgt, dass die Kfz-Abgase und hiervon insbesondere die Stickoxide durch entsprechende „wissenschaftliche” Gutachten als besonders schädlich eingestuft wurden. Dabei sind Stickoxide weder die einzigen noch die wichtigsten Luftschadstoffe. Sie wirken weniger als Gift-, sondern eher als Reizstoffe und können im Zusammenwirken mit Sonnenlicht auch das ebenfalls atemwegsreizende Ozon bilden. Bei empfindlichen Personen wie Asthmatikern verschlechtern sich dadurch die Krankheitsbilder, doch klingen die Symptome nach Abbau der Belastung auch wieder ab. Um dennoch die beabsichtigte Dämonisierung zu erzielen, wird in entsprechenden Untersuchungen häufig so vorgegangen, dass man zwischen Stickoxiden und Feinstäuben nicht sauber differenziert, sondern alles in einen Topf wirft. Das wird erreicht, indem man das leicht nachzuweisende Stickstoffdioxid als Leitsubstanz für verkehrsspezifische Immissionsbelastungen definiert und ihm dann mehr oder weniger undifferenziert sonstige gesundheitsschädliche Wirkungen anlastet, die eigentlich im Zusammenhang mit anderen verkehrsbedingten Emissionen wie Feinstäuben stehen [NRW]. Dabei scheint selbst beim Feinstaub für viele Gesundheitsbeeinträchtigungen noch unklar zu sein, welches die eigentlich ursächlichen Bestandteile des komplexen Staub-Luft-Gemisches sind. In einem zusammenfassenden Bericht aus Nordrhein-Westfalen [NRW] fällt sofort die häufige Verwendung des Konjunktivs ins Auge. Manche dieser Studien stammen – wen wundert es – direkt aus den USA.

Da es aus den bereits dargelegten Gründen gegen das Auto und insbesondere gegen den Diesel gehen soll, werden abweichende Erkenntnisse natürlich meist ignoriert. So auch die einer kürzlich erstellte Untersuchung, die 50 % der smogbedingten vorzeitigen Todesfälle dem landwirtschaftlichen Feinstaub, dagegen nur 20 % dem verkehrsbedingten Feinstaub zurechnet [FEIN]. 

Das Problem vieler dieser Studien ist, dass man keine wirklichen Nachweise führt, sondern mit statistischen Auswertungen arbeitet. Damit dokumentiert man jedoch lediglich Korrelationen statt tatsächlicher Wirkzusammenhänge. Die Ergebnisse werden dann wieder von NGO’s aufgegriffen, wo man dann Meldungen findet wie die folgende: „Besonders gesundheitsschädlich ist Stickstoffdioxid. Es schädigt die Atemwege, führt zu Entzündungen und Bronchitis. Bei länger andauernder, hoher Konzentration nimmt die Zahl der Herzrhythmusstörungen und Herzinfarkte zu. Auch Lungenödeme können die Folge sein. Allergien werden verstärkt. Nimmt die durchschnittliche Konzentration pro Tag um 100 Mikrogramm Stickstoffdioxid pro Kubikmeter Luft zu, erhöht sich die Zahl der Todesfälle um zwei bis 7,6 Prozent. Eine Studie aus den Niederlanden zeigt, dass Personen, die in der Nähe von stark befahrenen Straßen wohnen, ein fast doppelt so hohes Sterberisiko an Herz- und Lungenkrankheiten haben. Stickoxide verursachen Feinstaub und Ozon“ [VCOE]. Die Aussage, dass Stickoxide „Feinstaub verursachen“ sollen, wirft ein grelles Schlaglicht auf die Fragwürdigkeit vieler dieser „Erkenntnisse“.

…und die Realität

Macht man sich jedoch die Mühe, diese Behauptungen mit der Realität zu vergleichen, so stößt man auf eklatante Ungereimtheiten. Den erwähnten Gesundheitsstudien zufolge müsste die Bevölkerung in Ballungsräumen mit verkehrsbedingt hohen Emissionen besonders gefährdet sein. Dies sollte sich wiederum nachteilig auf die Lebenserwartung auswirken. Als deutsche Hauptstadt der Luftbelastung durch Verkehr gilt übrigens Stuttgart und hier insbesondere die Messstation „Am Neckartor“, wo regelmäßig die deutschlandweit höchsten Belastungen an Stickstoffdioxid gemessen werden. Laut interaktiver Karte in einem Artikel auf „Spiegel Online“ [SPON] liegt die Belastung dort mit 87 µg/m³ mehr als doppelt so hoch wie der aktuelle Grenzwert von 40 µg/m³. Auf die Lebenserwartung in Ballungsräumen scheint die erhöhte Belastung jedoch keine negativen Auswirkungen zu haben, wie ein Vergleich entsprechender Erhebungen für Gesamtdeutschland mit denen für mehrere deutsche Großstädte zeigt, Bild 2.


Bild 2. Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1990 und 2010 (Daten: [LEBE], Statista)

Interessanterweise scheinen die von Autoabgasen so stark gebeutelten Stuttgarter besonders lange zu leben, und zwar sowohl bei Betrachtung der 1990 geborenen Einwohner als auch mit Blick auf den Jahrgang 2010. Auch ist ihre Lebenserwartung im betrachteten Zeitintervall sogar ganz erheblich angestiegen. Im Vergleich liegen 2010 geborene Stuttgarter Männer nicht ganz drei Jahre über dem Durchschnitt in Deutschland, bei Frauen sind es knapp zwei Jahre. Dieser Trend gilt auch für andere Großstädte wie Frankfurt, München oder Hamburg. Ganz generell ist darüber hinaus festzustellen, dass sich die Lebenserwartung in den 20 Jahren zwischen 1990 und 2010 für alle betrachteten Standorte deutlich erhöht hat. Somit erscheint es gerechtfertigt, den im vorigen Kapitel erwähnten Gutachten sowie den daraus abgeleiteten Horrormeldungen mit einer gesunden Portion Skepsis zu begegnen.

Die Mär von sich ständig verschlechternder Luftqualität

Bei näherer Beschäftigung mit dem Thema „Luftverunreinigung durch Autoverkehr“ fällt zudem auf, dass NGO’s und Behördenvertreter gerne den Eindruck erwecken, als nähme die Belastung der Bevölkerung durch Luftschadstoffe ständig weiter zu. „Richtig durchatmen geht kaum noch” stand beispielsweise über einem Artikel von N-TV vom Oktober 2013 mit dem Titel „Dicke Luft in den Städten der EU“. Unter Berufung auf Hans Bruyninckx, immerhin Exekutivdirektor der EU-Umweltagentur EUA, war dort zu  lesen: „Dass das Leben in Großstädten nicht gerade gesund ist, ist schon lange kein Geheimnis mehr. Dass aber 90 Prozent der Großstädter gefährdet sind, ist neu“ [NTV]. Nur eine radikale Verschärfung der bestehenden Gesetze könne die Menschen schützen. Je nach Schadstoffklasse seien zwischen 88 und 98 Prozent der Stadtbewohner in der EU einer Luftverschmutzung ausgesetzt, die von der Weltgesundheitsorganisation WHO als gesundheitsgefährdend eingestuft wird. „Europa muss ehrgeizig sein und über die derzeitigen Rechtsvorschriften hinausgehen, um einen nachhaltigen Weg einzuschlagen“, so Bruyninckx. Zwar sei die Feinstaubbelastung in städtischen Gebieten seit 2002 zurückgegangen, doch lebe ein Großteil unserer Bevölkerung nach heutigem Standard nicht in einer gesunden Umwelt. Ähnliche Töne kommen auch von „Umwelt-NGO’s“ wie dem NABU. Dumm nur, dass auch hier die Aussagen nicht so recht mit den Ergebnissen langjähriger Messreihen z.B. für Stickoxide harmonieren, Bild 3.


Bild 3. Die in Deutschland ermittelten Stickoxid-Emissionen sind seit 1990 um mehr als 57 % gesunken (Quelle: Umweltbundesamt)

Die in Deutschland seit der Wiedervereinigung ermittelten Messreihen belegen nämlich, dass die Stickoxid-Emissionen seit 1990 deutlich rückläufig sind. Im so gerne und heftig gescholtenen Verkehrssektor liegt der Rückgang sogar überdurchschnittlich bei mehr als 66 %, während die Privathaushalte – wo Stickoxide beispielsweise beim Verfeuern von Holz in Kaminen entstehen – noch nicht einmal 40 % Rückgang schafften. Der Anteil des Verkehrssektors liegt inzwischen bei nur noch 40 %. Da Diesel-PKW nur ein knappes Drittel des Gesamtbestandes aller PKW ausmachen, dürfte ihr Anteil an den Gesamtemissionen wohl kaum mehr als 20 % betragen. Eine plausible Begründung für die von Politik und NGO’s aktuell massiv verschärfte Vernichtungskampagne speziell gegen den Diesel-PKW ist aus den Zahlen jedenfalls nicht abzulesen.

Stuttgart – eine grün verlogene Stadt

Wie locker grüne Politik mit der Realität umgeht, kann man auch am Beispiel der Stuttgarter Stadtverwaltung erkennen. So schreibt das Amt für Umweltschutz, Abt. Stadtklimatologie der Landeshauptstadt Stuttgart auf seiner Homepage zum Thema Stadtklima: „Die verkehrsbedingten Schadstoffe (z.B. Stickoxide, PM10, Ozon) verharren weiterhin auf einem hohen Niveau. In zahlreichen Stadtstraßen liegen die Schadstoffwerte für Stickstoffdioxid und PM10 (PM10 sind lungengängige Feinstäube mit einer Partikelgröße < 10 µm) über den Grenzwerten für verkehrsbeschränkende Maßnahmen“ [LUST]. Vergleicht man diese Anfang Juli 2016 auf der Homepage des Amtes für Umweltschutz der Stadt Stuttgart nachzulesende Aussage mit den vom gleichen Amt veröffentlichten Messdaten seit 2005, so fällt es schwer, dies nachzuvollziehen, Bild 4 und Bild 5.


Bild 4. Anzahl der Stunden, in denen die Grenzwerte für NO2 an verschiedenen Messstellen überschritten wurden (Quelle: [LUST]).

Die Daten in Bild 4 belegen – entgegen der Aussage der Stadtverwaltung – eine kontinuierliche Verbesserung der Luftqualität in Bezug auf Stickoxide. Zu mehrjährigen Überschreitungen der Grenzwerte kam es im Zeitraum zwischen 2005 und Mitte 2016 nur an zwei von insgesamt sieben Messstellen. Auch ist zu berücksichtigen, dass  die Grenzwerte ab 2009 drastisch verschärft wurden. Nach den bis 2009 geltenden Kriterien hätten alle Stationen ab 2013 einwandfreie Werte ausgewiesen, und die Messstelle „Am Neckartor“ hätte schon ab 2011 durchgängig im „grünen Bereich“ gelegen.


Bild 5. Anzahl der Tage, an denen der Grenzwert von > 50 µg/m3 für Feinstaub PM10 (Partikelgröße < 10 µm) an den verschiedenen Messstellen überschritten wurden (Quelle: [LUST]). 

Auch beim Feinstaub belegt Bild 5 eine stetige Verbesserung der Luftqualität. Lediglich eine von ursprünglich acht Messstellen zeigt über den gesamten Zeitraum eine über dem Grenzwert liegende Konzentration an, wobei auch hier eine langfristige Abnahme um ca. 50 % festzustellen ist. Allerdings ist zu beachten, dass bei diesen Feinstäuben der Diesel nur eine untergeordnete Rolle spielt, da die an der betreffenden Messstelle auftretenden Feinstäube nur zu 15 % den Verkehrsabgasen zuzuordnen sind [BAUM]. Die Abgase von Diesel-PKW tragen somit vermutlich zu höchstens 10 % zur Gesamtbelastung bei, so dass ein Fahrverbot für diese Antriebstechnik nur schwer zu rechtfertigen wäre.

Die Saat der grünen Gärtnerböcke…

Besonders verwunderlich ist die aktuell von allen möglichen Behördenvertretern, Politikern und selbsternannten Menschheitsrettern gegen den Diesel entfesselte Kampagne vor allem deswegen, weil doch gerade diese Leute seit Jahren für eine Verschärfung der Vorschriften gesorgt haben. Das Automobil und insbesondere der Diesel werden schon seit langem von den zuständigen Behörden gnadenlos in die Zange genommen und mit immer neuen Auflagen traktiert. Besonders deutlich zeigt sich dies bei der Entwicklung der Abgasvorschriften im Rahmen der aufeinander folgenden Euronormen, Bild 6.


Bild 6. Die schrittweise Einengung der zulässigen Gehalte von Kohlenwasserstoffen (HC) und Stickoxiden in den Abgasen von Diesel-PKW im Verlauf der verschiedenen Stufen der Euronorm (Quelle: [KIT])

Würde beispielsweise noch Euro 4 gelten, dann gäbe es heute für Alarmgeschrei keinerlei Grund mehr. Gerade an den Vorgaben zu den NOx-Gehalten im Abgas kann man erkennen, dass die Behörden die Automobilindustrie durch ständige Verschärfung regelrecht vor sich hergetrieben haben. Viele dieser Staatsvertreter sind in der Wolle gefärbte Anhänger „grünen“ Gedankenguts, die dank einer seit langem dominierenden politischen Grundströmung in fast allen Parteien auf solchen sicheren Pöstchen installiert wurden. Ihnen müsste sehr wohl bewusst sein, dass sich der Motorkonstrukteur gerade beim Diesel in einem ständigen Zielkonflikt zwischen Stickoxidemissionen, Rußemissionen und Verbrauch befindet. Anders ausgedrückt führt eine Reduzierung der Stickoxidemissionen bei sonst gleichen Parametern typischerweise zu einem Anstieg der Rußemissionen und des Verbrauchs. Den Ingenieuren gelang es zeitweilig, durch aufwendige (und entsprechend teure) Maßnahmen wie Erhöhung des Einspritzdrucks durch Common-Rail-Technologie, Mehrfacheinspritzung usw. diesen Zielkonflikt deutlich in Richtung niedrigerer Emissionen zu verschieben [KIT]. Doch die Behörden sahen in diesem Erfolg in erster Linie die Möglichkeit, die Vorschriften umso drastischer zu verschärfen, obwohl auch ihnen klar gewesen sein dürfte, dass die Stickoxide bei weitem nicht den entscheidenden gesundheitlichen Aspekt repräsentieren. Da sie jedoch leicht nachzuweisen sind, lassen sie sich wunderbar als Begründung dafür einsetzen, die Garotte um den Hals der Kfz-Hersteller immer weiter zuzuziehen. Sobald eine Verbesserung erreicht ist, verschärft man die Vorschriften und hat dann wieder einen Grund, wegen Überschreitung der Grenzwerte Zeter und Mordio zu schreien, siehe die obigen Aussagen von Hr. Bruyninckx. In dieses Alarmgeschrei stimmen NGO’s, Presse und Politik dann lautstark mit ein, und schon können sich windige Politiker durch den Ruf nach besserem Gesundheitsschutz für Witwen und Waisen profilieren. Dieses Spiel wird solange betrieben, bis man zum Todesstoß ansetzen kann, z.B. indem man die Vorgaben endgültig über jedes sinnvolle Maß hinaus verschärft. Beim Diesel erfolgte dies durch die willkürliche Absenkung des Stockoxid-Grenzwerts um mehr als 55 % (von 180 auf 80 mg/ km) beim Übergang von Euro 5 auf Euro 6.

…gebiert weiteres Unheil

Hinzu kommt eine typische Besonderheit grünideologisch geprägter Funktionäre. Weil deren fachlicher Kenntnisstand meist als eher gering einzustufen ist, glauben sie, dass Fachleute Wunder vollbringen und sich über naturgesetzliche oder ökonomische Zwänge hinwegsetzen können, sofern man sie nur genügend unter Druck setzt. Jeden Fortschritt, den die Ingenieure erzielen, quittieren sie deshalb mit nochmals verschärften Vorschriften. Dass man dabei irgendwann an nicht mehr überschreitbare Grenzen stoßen muss, können sie aufgrund fehlender Sachkompetenz nicht erkennen. Und man konnte sich immer darauf verlassen, dass sich die Automobilindustrie nicht zur Wehr setzen wird [ARBE].

Ein solcher Grenzpunkt zur Unerfüllbarkeit wurde mit Einführung der Euro 6-Vorgaben überschritten. Zwar kann man auch dann noch Lösungen durch externe Maßnahmen wie der Einspritzung von Harnstoff (AdBlue) finden, doch sind die Kosten hierfür so hoch, dass damit die Grenzen der Wirtschaftlichkeit insbesondere bei kleinvolumigen Fahrzeugen für den Massenmarkt unterschritten werden.

In ihrer Not griffen dann diverse Hersteller zu den bekannten Tricks – und schon konnte man in den USA einen prominenten Vertreter der deutschen Konkurrenz an den Pranger stellen und finanziell ausnehmen wie die sprichwörtliche Weihnachtsgans. Kenner der Szene sind deshalb auch alles andere als überrascht, dass ein maßgeblicher ehemaliger Mitarbeiter des deutschen Umweltbundesamtes von einer US-Behörde für seine „erheblichen Verdienste“ mit einer für Nicht-US-Bürger außergewöhnlich hohen Ehrung ausgezeichnet wurde. Auch dürfte es ihm wohl leicht fallen, von seiten seiner wohlbetuchten Förderer üppige Vortragshonorare einzustreichen. Die Zeche dafür werden etliche zigtausend deutsche Facharbeiter, Techniker und Ingenieure durch die bevorstehenden massiven Jobverluste zu zahlen haben.

Ausverkauf deutscher Interessen

In diesem Zusammenhang sei noch darauf hingewiesen, dass sich für Deutschland inzwischen die unerwünschten Folgen einer Entwicklung abzeichnen, die manchen unserer umwelt- und europabesoffenen Politikern noch sauer aufstoßen dürfte: Die Auslieferung deutscher Interessen an internationale und insbesondere europäische Gremien. Dort sitzen mehrheitlich Vertreter von Nationen ohne Autoindustrie, die genau wissen, wie hervorragend man mit einer solchen Machtposition ein Autoland wie Deutschland unter Druck setzen kann. In solchen Gremien werden dann in typisch Brüsseler Manier der deutschen Melkkuh noch ein paar zusätzliche Milliarden „Stütze“ aus dem prallen Euter geleiert. Natürlich spricht dabei kein Mensch von Erpressung, diese Herrschaften treibt lediglich die Sorge um die Gesundheit der Bevölkerung um.

Verschlimmert wird die Situation noch zusätzlich durch das Verhalten der deutschen Teilnehmer selbst. Da Deutschland insbesondere auf dem Gebiet des Umwelt- und Klimaschutzes als Vorbild dastehen möchte, wurden über Jahrzehnte Vertreter entsprechender Ideologien in die Schlüsselpositionen gehievt. Daher ist es kaum verwunderlich, dass die deutschen Repräsentanten in diesen Gremien Regeln akzeptiert haben, die jetzt als EU-Vorgaben unsere Städte dazu zwingen könnten, knappen 14 Millionen deutschen Wählern, die einen Vor-Euro-6-Diesel ihr eigen nennen, die Einfahrt zu verweigern. So hat sich Deutschland unter anderem verpflichtet, die jährlichen NOx-Emissionen seit dem Jahr 2010 auf knapp 1,1 Mio. Tonnen zu begrenzen und darüber hinaus bis 2020 eine weitere Reduktion um 39 % gegenüber dem Wert von 2005 zugesagt [POLI]. Diese Zusagen erweisen sich mittlerweile als große Herausforderung, deren Erfüllung nur mit Verzögerung und mit Ach und Krach möglich sein dürfte. Die derzeit diskutierten Minderungsziele von 65 % bis 2030 (Bezugsjahr 2005) dürften dem Diesel in der EU den Garaus machen. Aus Sicht der Politik kein Schaden, glaubt man dort doch offensichtlich an die „Wunderwaffe“ Elektromobilität. Ärgerlich ist aus Sicht dieser Leute lediglich das ungünstige Timing, denn neben den Herstellern sind auch die bereits erwähnten ca. 14 Mio. Wähler betroffen, deren Fahrzeuge etwas zu plötzlich erheblich an Wiederverkaufswert verlieren. Dies birgt natürlich politische Gefahren. Zumindest Verkehrsminister Alexander Dobrindt scheint inzwischen erkannt zu haben, welche Zeitbomben da auf ihn zukommen. Deshalb präsentiert es sich laut einem Spiegel-Online-Bericht als Retter des Selbstzünders: In einem Interview mit der Bild am Sonntag habe er klargemacht, dass er ein faktisches Einfahrverbot für Dieselfahrzeuge in großen Städten nicht akzeptieren werde [SPON]. Es wird spannend werden zu sehen, wann sich diese Erkenntnis auch bei Gabriel und Hendricks Bahn brechen wird und welche Verrenkungen sie dann dem staunenden Publikum vorführen werden.

Ohne Zivilisation keine Gesundheit

Abschließend sei noch klargestellt, dass es bei aller Kritik an heutigen grünkommunistischen Auswüchsen nicht darum gehen darf, eindeutige Gesundheitsgefahren für die Bevölkerung zu ignorieren. Auf dem Gebiet des Gesundheitsschutzes müssen Belastungen weiterhin gezielt vermindert werden. Allerdings ist hierbei Augenmaß einzufordern, weil sonst ganz andere und viel ernstere Konsequenzen drohen. Gerade die heutigen Maschinenstürmer-Zombies, die vorgeben, sich um die Gesundheit der Bevölkerung zu sorgen, gefährden diese selbst in höchstem Maße, indem sie alles tun, um unsere technische Zivilisation zu zerstören. Die Folgen wären katastrophal: Die in Bild 1 gezeigte Entwicklung würde umgekehrt. Es ist erst unsere technisch hochentwickelte Zivilisation, welche die Güter und Freiräume geschaffen hat, die der breiten Bevölkerung ein langes und gesundes Leben in Wohlstand ermöglichen. Wer dies durch Utopien einer „dekarbonisierten Gesellschaft“ oder Aufrufen zur Austerität und zur Vernichtung entscheidender Industriezweige bei gleichzeitiger Propagierung unausgereifter „E-Mobilitäts“-Konzepte gefährdet, versündigt sich millionenfach an Gesundheit und Leben seiner Mitmenschen. Wir würden wieder im Mittelalter landen, mit gesunden und satten Priestern des „rechten Glaubens“ auf der einen Seite und einer hungernden, früh sterbenden Bauernklasse auf der anderen Seite. Dies gilt es zu verhindern. In unserer freiheitlichen und demokratischen Gesellschaft steht es jedem frei, zurück in die Höhlen oder auf die Bäume zu ziehen. Aber man sollte diesen Leuten niemals gestatten, dies dem Rest der Bevölkerung zwangsweise zu verordnen.

Fred F. Mueller

Quellen

[ARBE] http://deutscherarbeitgeberverband.de/aktuelles/2016/2016_07_11_dav_aktuelles_shitstorm.html

[BAUM] Prof. Dr.-Ing. Günter Baumbach, Universität Stuttgart, Institut für Verfahrenstechnik und Dampfkesselwesen, Abt. Reinhaltung der Luft, Die Herkunft von Feinstaub-Immissionen, Vortrag beim Kamingespräch des Kompetenzzentrums Umwelttechnik in Stuttgart am 6. Juni 2005, Folie 14

[BMWI] Bundsministerium für Wirtschaft und Energie. EEG in Zahlen: Vergütungen, Differenzkosten

[DEWE] http://www.dw.com/de/mehr-tote-durch-abgasmanipulation/a-18756591

[FEIN] http://www.eike-klima-energie.eu/news-cache/abkehr-vom-co2-wahn-der-wahre-feind-heisst-smog/

[KIT] http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php

[KUFE] http://www.faz.net/aktuell/gesellschaft/gesundheit/aok-krankenhausreport-mehr-tote-durch-behandlungsfehler-als-durch-verkehrsunfaelle-12761937.html

[LEBE] http://www.lebenserwartung.info/index-Dateien/regdiff.htm

[LEHM] http://www.cheminee-lehmann.ch/Problematik%20Feinstaub.html

[LUST] https://www.stadtklima-stuttgart.de/index.php?luft_luftinstuttgart

[SPON] http://www.spiegel.de/auto/aktuell/fahrverbot-fuer-dieselautos-was-sie-wissen-sollten-die-fakten-a-1102417.html

[NRW] Gesundheitliche Wirkungen von Feinstaub und Stickstoffdioxid im Zusammenhang mit der Luftreinhalteplanung. Landesamt für Natur, Umwelt- und Verbraucherschutz Nordrhein-Westfalen. Oktober 2010.

[NTV] http://www.n-tv.de/wissen/Dicke-Luft-in-den-Staedten-der-EU-article11544536.html

[POLI] https://www.umweltbundesamt.de/daten/luftbelastung/luftschadstoff-emissionen-in-deutschland/stickstoffoxid-emissionen

[UBA] https://www.umweltbundesamt.de/themen/luft/luftschadstoffe/stickstoffoxide

[VCOE] http://www.kein-diesel.at/factsheet_stickoxide.pdf




China stoppt den Ausbau weiterer Windenergie, aus Furcht vor Blackouts

Bild rechts: Shanghai, eine aufstrebende Geschäftsmetropole in Asien – die Lichter der Großstadt lassen sich nicht mit Wind betreiben.

China schließt speziell den Ausbau in den windigsten Regionen des Landes, weil rund 26 Prozent der Windenergie im Jahr 2016 vergeudet wurde. Nicht genutzte und verschwendete Windkraft ist unglaublich problematisch, weil es das Stromnetz schädigt und potenziell massive Stromausfälle verursachen kann.

Die Regierung stoppt die Genehmigung von neuen Windkraftprojekten in den windigsten Regionen des Landes Anfang März, nach Aussage von Chinas Nationalem Energieministerium. In diesen Regionen sind bisher fast 71 Gigawatt Windkraftanlagen installiert, mehr als im Rest von China zusammen. Eine einzelne Gigawattstunde ist dem Verbrauch von 700.000 Haushalten äquivalent. Statistiken der Regierung zeigen, dass 33,9 Milliarden Kilowattstunden Windkraft oder etwa 15 Prozent aller chinesischen Windkraft, allein im Jahr 2015 verschwendet wurden.

„Wir schätzen, dass im Laufe der ersten sechs Monaten 4,2 Milliarden Kilowattstunden Wind- und Solarenergie verschwendet wurden, was Neuseelands Stromverbrauch im gesamten Jahr 2015 entspricht,“ sagte Peng Peng, Analyst bei der chinesischen Renewable Energy Industries Association, zu Reuters.

Windenergieanlagen sind extrem intermittierend und produzieren nicht viel Strom zu den Zeiten des Tages, wenn Strom am dringendsten benötigt wird. Dies stellt ein enormes Sicherheitsrisiko für Netzbetreiber dar und macht Stromnetze erheblich fragiler.

Peking wies Windbetreiber in den letzten fünf Jahren viermal an, den Ausbau zu stoppen, weil unzuverlässige Windkraft das Stromnetz des Landes schädigt und die Regierung enorme Mengen an Geld kostet. Der Bau der Infrastruktur, um Windenergie über weite Entfernungen zu übertragen, ist sehr teuer und beträgt ein Vielfaches des Preises für die Erzeugung der Elektrizität [auf konventionelle Weise]. Das ist ein großes Problem, weil die besten Gebiete für Windkraftanlagen in China weit weg sind von den Küstenprovinzen, wo die Mehrzahl der Bevölkerung lebt.

[Dort sind 36 neue Kernkraftwerke im Bau bzw. geplant, s.u.]

China gab mehr als $ 80 Milliarden Dollar für den Ausbau neuer grüner Energie im allein im Jahr 2014 aus, während die USA „nur“ 34 Milliarden Dollar ausgaben. Mehr als ein-Drittel aller Windenergieanlagen der Welt sind derzeit in China installiert. Auch mit dieser enormen Anzahl von Windstromanlagen produziert China noch weniger Strom aus Wind als Amerika, was darauf hindeutet, dass das Land so mit Windkraft übersättigt ist, dass diese das Stromnetz beschädigt, was potenziell zu Stromausfällen führt.

Trotz der Ausbaustopps, plant die chinesische Regierung immer noch 15 Prozent des Strombedarfs aus Ökostrom in 2020 zu erhalten.

Erschienen auf The Daily Caller am 21.07.2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/07/21/china-shuts-down-construction-of-new-wind-turbines/

Dank an unseren Leser Alwin Bruno, der in seinem Kommentar #4 auf diesen Bericht hinwies.

Ergänzung:

China plant den Ausbau der Nuklearenergie

http://www.chinabusinessreview.com/a-boost-for-nuclear-power/

Weltweite Übersicht über aktuelle und zukünftige Kernkraftwerke

http://www.world-nuclear.org/information-library/current-and-future-generation/plans-for-new-reactors-worldwide.aspx




Ist billiger Strom rechtsradikal?

So langsam erkennen diese normalen Kunden, dass bestimmte  „Energiefachpersonen“ immer die gleichen Sprüche vom billigen EEG-Strom verkünden „Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert“, was im Merkeldeutschland zum unaufhaltsamen Aufstieg als EEG-Wunderheilerin führt „Claudia Kemfert wird Sachverständige“, die Wirklichkeit aber eben doch an ihn keine Vergütungen, sondern massiv Rechnungen stellt „Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden“ und mucken dagegen auf. 

Video der Reden im Bundestag am 8.7.16 zur Novellierung des EEG. Noch mehr Fachleute melden sich zu Wort und erklären wie alles viel, viel besser wird. Anmerkung der Redaktion: Wer sich diese Reden antut, egal von welcher Partei sie kommen, kann nur feststellen: Der Zusammenbruch der Energieversorgung im Lande ist fest programmiert. Es ist nur noch eine Frage der Zeit. Mit Dank an Spürnase Hans Meier.

Nun hat auch der große Konzernlenker Teyssen der tatkräftig hilft, teuren EEG-Strom zu erzeugen und als grandiose Neuerung, ihn dank intelligenter Netze noch teurer zu verteilen, dies bemerkt. Aber nicht etwa den teuren Strom, sondern die deshalb mögliche falsche Wahl der Wähler und stimmt damit – politikaffin wie er ist – in die herrschende politische Meinung ein, dass der Wähler für die Regierenden inzwischen zu dumm geworden ist. Was jedoch bald nicht mehr stört, da nur noch Unisono-Koalitionen geplant sind um künftig unabhängig vom Wahlausgang allen Parteien die Fleischtöpfe sicher zu stellen. Störend sind da nur noch Parteien, von denen die Gefahr droht, dieses Spiel zu stören. Folgerichtig appelliert er  an das Volk, solche Störungen der Politik bitte zu unterlassen. Seine Argumentation ist zwingend, denn wer sich in Deutschland erdreistet, Unsinn der einzig wahren Politik anzuprangern, kann nur aus der rechten Ecke stammen. 

FOCUS ONLINE: [1] Eon-Chef Johannes Teyssen hat davor gewarnt, dass Rechtspopulisten eine Kampagne gegen die Energiewende fahren könnten, wenn die Strompreise nicht sinken.

„Die AfD hat die Energiewende bereits für sich entdeckt“, sagte der Vorstandsvorsitzende des Energiekonzerns der „Westdeutschen Allgemeinen Zeitung“ (Samstag). „Wenn das Thema von Populisten besetzt wird, sollten wir sprechfähig sein und belegen können, dass wir nicht Milliarden verschwendet haben.“ Den Menschen sei immer versprochen worden, dass die Energiewende langfristig auch mit günstigeren Strompreisen einhergehe. „Wenn wir das nicht halten können, gleichzeitig aber unsere Landschaft verspargeln, wird sich das rächen“, sagte Teyssen.

Herr Übervater Teyssen hätte natürlich (theoretisch) alle Möglichkeiten, das „… sollten wir sprechfähig sein“ zu erklären. Von einem Versorger-Vorstand hätte man schließlich erwartet, dass er es ist und nicht nur sollte. Und davon, dass Führungskräfte wie er „ … belegen können, dass wir nicht Milliarden verschwendet haben“ müsste eigentlich genügend Übung  vorliegen „E.on verzeichnet vor Aufspaltung Milliardenverlust„.

Was er aber damit meint:  “Den Menschen sei immer versprochen worden, dass die Energiewende langfristig auch mit günstigeren Strompreisen einhergehe.“ ist dem Autor ein Rätsel. Ist es für einen Versorger-CEO wirklich unzumutbar, mit einem Taschenrechner die Daten des von ihm getragenen EEG zu nehmen, die Zahlen zu addieren und dann Preise zu vergleichen? Der dann folgende Satz ist zwar richtig, aber aus seinem Mund so dumm, dass er nicht mehr kommentiert wird. 

Folgerung

Dümmer gehts nimmer. Es wäre ein Traum, dies in einer Wahl auch einmal zum Ausdruck bringen zu können.

Quellen

[1]

FOCUS ONLINE, 09.07.2016, 09:27: Eon-Chef warnt vor Anti-Energiewende-Kampagne der AfD

http://www.focus.de/regional/nordrhein-westfalen/energie-eon-chef-warnt-vor-anti-energiewende-kampagne-der-afd_id_5713087.html

[2]

EIKE 06.07.2016: EON verliert Schadensersatzprozess wg. erzwungener Abschaltung seiner KKW. Gericht: EON blieb zu lange untätig!

http://www.eike-klima-energie.eu/news-cache/eon-verliert-schadensersatzprozess-wg-erzwungener-abschaltung-seiner-kkw-gericht-eon-blieb-zu-lange-untaetig/ 

[3]

EIKE 01.07.2016: Die EEG-Wunder-App, Der Energiemix bestimmt inzwischen das Wetter sagt der Energiekonzern RWE auf seiner Bildungsseite und liefert gleich eine App dazu.

http://www.eike-klima-energie.eu/news-cache/die-eeg-wunder-app/ 

[4]

EIKE 06.06.2016: Wie Politiker ihre Kuh schlachten und sich danach beklagen, dass diese keine Milch mehr gibt

Thema E.ON-Zerschlagung

http://www.eike-klima-energie.eu/news-cache/wie-politiker-ihre-kuh-schlachten-und-sich-danach-beklagen-dass-diese-keine-milch-mehr-gibt/ 

[5]

EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

http://www.eike-klima-energie.eu/news-cache/eine-professorin-klaert-den-vdi-auf-wie-das-eeg-wirklich-funktioniert/

[6]

EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden

http://www.eike-klima-energie.eu/news-cache/muttertag-war-eeg-geschenktag-auf-kosten-der-nicht-privilegierten-stromkunden/




Professor Peter Wadhams wettet nicht auf seinem eigenen Vorhersagen zum Meeres-Eis

Sogar Gavin Schmidt hielt das für totalen Schwachsinn. Natürlich lag er [Wadham] damit falsch. Nun, seine vier Jahre Vorhersage von 2012 wird in diesem Jahr getestet und während das Meereis im Mai schneller schmolz als üblich (zum Teil wegen der von El Niño erhöhten globalen Temperaturen), ist es noch ein langer Weg komplett zu verschwinden und innerhalb von 2 Standardabweichungen  für diese Zeit des Jahres normal:

Quelle WUWT, Grafik: n_stddev_timeseries-21-july-2016

Don Keiller schreibt:


Professor Wadhams hat seine Form mit seinen Prognosen zur Ausdehnung des arktischen Meereises überschritten. Zuletzt im vergangenen Jahr sagte er voraus, dass das Meereis verschwinden würde

https://wattsupwiththat.com/2015/09/16/peter-wadhams-was-wrong-arctic-sea-ice-still-there-no-record-low-this-year/

Er greift wieder zu seinen alten Tricks, also forderte ich ihn heraus und setze £ 1000 gegen ihn, dass seine Prognose für dieses Jahr falsch ist;

Hier seine Antwort:

–Originale Nachricht–

Von: P. Wadhams

Sent Freitag, 22. Juli 2016 11.42 Uhr

An: Don & Selina

Subject: Re: Arctic eisfrei bis September

Sehr geehrter Herr Keiller, Vielen Dank, aber ich spiele nicht. Auch habe ich viele der mir von Zeitungen zugeschriebenen endgültigen Vorhersagen nicht getroffen, die, wie die Brexit Kampagnen zeigen, wenig Interesse an der Wahrheit haben aber viel an Sensationen. Der Trend [der Eisbedeckung] ist sicherlich auf dem Weg nach unten, und es wird nicht lange dauern, dass die Fläche unter 1 Million Quadratkilometer fällt, aber auf jeden Fall nicht in diesem Jahr.

Mit freundlichen Grüßen,

Peter Wadhams

Vorrausgegangen war

21. Juli 2016, Don & Selina schrieb:

> Sehr geehrter Herr Professor Wadhams,

> Ich las diesen Artikel mit Interesse und einem gewisses Maß an Skepsis.

> http://www.independent.co.uk/environment/climate-change/arctic-could-become-ice-free-for-first-time-in-more-than-100000-years-claims-leading-scientist-a7065781.html

> Sind Sie bereit, Geld auf „eine (Eis) Fläche von weniger als einer Million zu Quadratkilometer für September dieses Jahres“ zu setzen?

> Ich bin es.

> Ich fordere Sie auf eine öffentliche Wette von £ 1000 heraus, dass das [die Ausdehnung des] arktische Meereis bei mehr als 1 Millionen Quadratkilometer bis zum Ende September an allen beliebigen Stellen beträgt.

> Dieses sollte eine sichere Sache für Sie sein, denn Sie sind Professor für Ozeanische Physik und Leiter der Eismeer Physik an der Cambridge Universität.

> Und wer bin ich? Dr. Don Keiller, MA, PhD, Cantab.

> Ich habe diese E-Mail auch an „Tallbloke‘s Talkshop“ gepostet;

> https://tallbloke.wordpress.com/2016/07/20/hottest-june-not-according-to-the-satellites-roger/#comments

> Mit freundlichen Grüßen,

> Don Keiller


Ich persönlich denke, dass Professor Wadham Probleme hat, die Realität gegenüber der Fantasie zu unterscheiden. Immerhin meint er, dass die großen Ölmagnaten unterwegs sind, um ihn zu bekommen.

Erschienen auf WUWT am 22.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/22/professor-peter-wadhams-will-not-bet-on-his-own-sea-ice-predictions/

* * * *

Bei der Bearbeitung dieses Beitrages stieß ich auch auf eine Wiederholung alter Fehler der Warmisten:

Global Warming Expedition durch Arktisches See Eis blockiert

Tyler Durden, Jul 20, 2016

Zum Teil übernommen von Craig Boudreau via The Daily Caller,

Eine Gruppe von Abenteurern, Segler, Piloten und Klimaforscher, starteten vor kurzem eine Reise rund um den Nordpol, in dem Bemühen, den Mangel an Eis zu zeigen, wurden durch Eis an der Weiterfahrt blockiert.

Die Polar Ocean Challenge unternimmt eine zweimonatige  Reise, die sie von Bristol, Alaska, nach Norwegen, dann nach Russland durch den Nord-Ost-Passage zurück nach Alaska durch den Nord-West-Passage, nach Grönland und dann schließlich zurück nach Bristol führt. Ihr Ziel, wie auf ihrer Website dargelegt, war es zu zeigen, „dass die arktische Eisdecke jetzt in den Sommermonaten wieder soweit schrumpft, dass das Meer, dass dauerhaft blockiert war, nun passiert werden kann.“

Tyler Durden erinnerte an frühere, ebenfalls gescheiterte Versuche:

Real Climate Science bietet auch eine grafische Darstellung, der aktuellen Temperaturen in der Arktis – die nach Alarmistischen Behauptungen heißer als je zuvor sein soll – sie sind tatsächlich niedriger als normal.

Das Polar Ocean Challenge Team ist nicht die erste globale Erwärmungs Expedition die mit eisigen Schwierigkeiten konfrontiert wird. Im Jahr 2013 wurde ein Forschungsschiff  namens Akademik Shokalskiy im Eis der Antarktis gefangen. Das Problem so schwerwiegend , dass alle 52 Besatzungsmitglieder  gerettet werden mussten.

Im Jahr 2015 wurde ein kanadischer Eisbrecher, die CCGS Amundsen, gezwungen, ihr Ziel zu ändern und einer Reihe von Versorgungsschiffen zu helfen, die durch das Eis gefangen geworden waren.

Zusammengestellt und übersetzt von Andreas Demmig




Der Osten Europas setzt auf Kernkraft Kernenergie-Technologie: Russland hängt den Westen ab

In ihrem unter dem Titel „Atomenergie in Osteuropa Nicht ohne mein Kernkraftwerk“ erschienenen Artikel beweist die Historikerin umfassende technische Kenntnisse beim Vergleich des Standes der Kernkrafttechnologie in Russland und im Westen. Mit der im Mai erfolgten Inbetriebnahme des VVER-1200/392M im russischen Kernkraftwerks Nowoworonesch II sei erstmals in Europa ein Druckwasserreaktor der sogenannten Generation III+ in Betrieb genommen worden, dessen Sicherheitscharakteristika die der Anlagen im westlichen Teil des Kontinents übertreffen – auch die der deutschen. Merkmal dieser Reaktorgeneration der russischen Familie „AES-2006“ seien neben ihrer höheren Wirtschaftlichkeit vor allem die Sicherheitssysteme, die den neuesten EU-Anforderungen für Neuanlagen entsprechen müssen. Diese sind so ausgelegt, dass sie auch im „Fukushima-Fall“ – dem Totalausfall jeglicher interner wie externe Stromversorgung – eine sichere Abfuhr der Nachzerfallswärme aus einem Kernreaktor gewährleisten sollen. Hierbei kommen passive Systeme zum Einsatz, die ohne elektrisch betriebene Komponenten arbeiten. Dazu wird der im Dampferzeuger entstehende Dampf nicht im üblichen Wasser-Dampf-Kreislauf kondensiert und mittels Kondensat- und Speisewasserpumpen wieder in den Dampferzeuger zurückbefördert, sondern über ein außenluftgekühltes System kondensiert, und das Kondensat wird per Naturumlauf, ohne „aktive“ Pumpen, wieder dem Dampferzeuger zugeführt. Damit entspricht die Sicherheitsstufe des russischen Systems dem des französisch-deutschen EPR-Reaktors und ist den aktuell in Deutschland laufenden Vorkonvoi- und Konvoi-Anlagen von Siemens-KWU weit voraus. Allerdings ist der europäische EPR noch längst nicht in Betrieb, weil die EPR-Projekte in Frankreich, Finnland und China unter großen Anlaufschwierigkeiten durch Kostenexplosionen, Skandale, Rechtsstreitigkeiten und Bauverzögerungen leiden, während der russische Reaktor bereits läuft [ROSA]. Dr. Wendland hebt insbesondere die Effizienz in der Umsetzung hervor: Die russischen Reaktorbauer wickelten ihre nuklearen Großprojekte wesentlich kostengünstiger und zügiger ab als die Europäer, aber auch als Amerikaner und Japaner. In Russland, China, Indien und demnächst auch Finnland errichteten sie ihre Anlagen mit stoischer Routine und hoher Professionalität, scheinbar ohne durch die „klassischen“ russischen Probleme – Korruption, darniederliegende Infrastruktur, Bildungsmisere, fehlende Rechtssicherheit – beeinträchtigt zu werden.

Ihr Geheimnis sei nicht nur die Erfahrung, sondern auch die besondere Organisationsform ihrer Staats-Kerntechnik, die Lösungen aus einer Hand anbiete und keine komplexen Subunternehmensgeflechte an den Baustellen kenne. Gerade Auftraggeber aus Schwellenländern, die auf das Preis-Leistungs-Verhältnis schauen, bevorzugten daher russische Anlagen.

Historischer Wechsel der Technologieführerschaft

Deutschland, so Dr. Wendland, habe mit der Aufgabe seine frühere Spitzenposition im kerntechnischen Anlagenbau einen großen Fehler insbesondere mit Blick auf Osteuropa begangen. Dort staune man über die deutsche Selbstdemontage, habe man deutsche Kernkraftwerke dort doch lange als Goldstandard für kerntechnische Sicherheit angesehen. Vor drei Jahrzehnten, als die damals noch sowjetische zivile Kerntechnik in Tschernobyl in Trümmern lag, hätte niemand die Vorhersage gewagt, dass sich Osteuropäer einmal an die Spitze der Entwicklung setzen würden. Doch während Tschernobyl und Fukushima in Deutschland einen Stimmungsumschwung gegen Kernkraft bewirkten, habe man in Russland, der Ukraine und den Länder Ostmitteleuropas die Atomangst überwunden und die Krise als Chance genutzt. Weder in der Ukraine noch in Russland, weder in Tschechien, Polen, der Slowakei oder Ungarn gebe es starke Anti-Atom-Bewegungen. Dabei habe man in den nichtrussischen Ländern Osteuropas aufgrund der sich verschärfenden politischen Differenzen teilweise Lösungen gefunden, die sowohl auf russischer als auch auf westlicher Technologie beruhten.

Bild rechts oben:

Grafische Darstellung des modernen russischen Kernkraftwerks der Generation 3+ in Nowoworonesch (http://www.rosenergoatom.ru/media/files/magazine/REA0_0108.pdf (Seite 32/33)) Original uploader was TZV at de.wikipedia)

Die Bundesregierung „fordert in harschem Ton Gefolgschaft“

Wenig Gegenliebe findet die deutsche Energiepolitik nach Erkenntnissen von Dr. Wendland auch wegen ihrer Intoleranz und dem damit gepaarten Machtanspruch. Trotz unterschiedlicher Motive und politischer Präferenzen – Polen und die Ukraine setzten auf westliche Partner, Tschechen und Ungarn auf russische – seien sich die östlichen Nachbarn in ihrem Unmut über den deutschen Energiewende-Alleingang einig. In Windspitzenzeiten destabilisiere nicht gebrauchter deutscher Strom die Netze in Polen und Tschechien. Die Ostmitteleuropäer unterstützten EU-Initiativen zu innovativer Kernforschung, während Berlin dieselben als „rückwärtsgewandt“ abkanzele und in Brüssel sogar Druck mache, um sie zu stoppen. Deutschland fordere in harschem Ton Gefolgschaft, zuletzt mit einem Einmischungsversuch in Belange der belgischen Atomaufsicht. Die östlichen Nachbarn reagierten darauf zunehmend verärgert und stellten die Frage, warum  Berlin europäische Solidarität für seine stockende Energiewende einfordere, wenn es sich bei der entsprechenden Beschlussfassung nicht mit seinen Nachbarn beraten habe? Auch missfalle den Osteuropäern der „moralische Imperialismus“ in den deutschen Aussagen. So handele man ohne Konsultation Polens eine für die Sicherheit Europas sensible russisch-deutsche Gastrasse aus, weil dies dem Frieden und der Entwicklungspartnerschaft diene. Man tadele die Polen, Tschechen und Ungarn für ihre Kernenergiepläne und behaupte, diese Kritik erfolge im Interesse des Überlebens der Menschheit. So ertönt in ganz Europa das Berliner Gerassel, und ungern hört man dies.

Hoffnung für Deutschland

Das Bemerkenswerte an diesem Beitrag von Dr. Wendland ist, dass er Hoffnung macht. Noch scheint es in Deutschland unabhängige und ernstzunehmende Wissenschaftler zu geben, die sowohl Sachkunde als auch den Mut mitbringen, dem grünen Mainstream nicht nach dem Mund zu reden. Wenn der „Dekarbonisierungs“-Alptraum irgendwann hoffentlich vorbei ist, sollte man sich an solche Namen erinnern und dafür sorgen, dass das ganze speichelleckende Völkchen, das eine tonangebende Predigertochter als „Berater“ der deutschen Regierung in Sachen Energie- und Klimapolitik in den verschiedensten Gremien wie Ethikkommission, Sachverständigenrat für Umweltfragen etc. pp. installiert hat, in die Wüste geschickt und durch wirklich kompetente Leute ersetzt wird. Womit man gleichzeitig auch noch einen Beitrag dazu leisten könnte, das Verhältnis zu unserem größten Nachbarn im Osten zu entkrampfen.

Russland hat jedenfalls durch die erfolgreiche Inbetriebnahme in Nowoworonesch seine Bedeutung als weltweit ernstzunehmende Techniknation bestätigt, auf die bereits Mitte Mai in einem Artikel bei EIKE hingewiesen wurde [MUEL]. Immerhin sind weltweit über 570 Kernkraftwerke entweder im Bau, in der Planungsphase oder zumindest in der Diskussion, und mit diesem Erfolg hat es seine Chancen, an diesem Riesenmarkt zu partizipieren, deutlich verbessert.

Fred F. Mueller

Quellen

[FAZ] http://www.faz.net/aktuell/feuilleton/debatten/atomenergie-in-osteuropa-nicht-ohne-mein-kernkraftwerk-14311657.html?printPagedArticle=true#pageIndex_2

[MUEL] http://www.eike-klima-energie.eu/news-cache/fakten-die-man-nicht-ignorieren-sollte-russland-ein-kommender-globaler-energieriese/

[ROSA] http://wirtschaftsblatt.at/home/nachrichten/europa_cee/4981378/AtomExport_Rosatom-sieht-sich-technologisch-an-der-Weltspitze




EIKE 9. IKEK Isaac Orr: Fracking und seine Auswirkungen auf die Umwelt – Fracking and its Effects on Environment

Isaac Orr zeigt in seinem Vortrag im Detail, wie Fracking funktioniert: Verschiedene Arten der Bohrung, Sand, Wasser, Chemikalien, Einfluss auf die Umwelt. Er zeigt auch, dass die Rahmenbedingungen stimmen müssen: Privatinitiative muss sich dazu lohnen, weswegen zur Zeit die USA hier die Nase vorn haben, und einer der größten Gas- und Ölförderer sind. In Europa wird Fracking heute von Staats wegen behindert – so sind wir auf ausländische Förderer angewiesen. Dabei haben wir in Deutschland nicht nur wertvolle Gasvorkommen, sondern können sie durch Fracking auch sicher heben. Die Grüne Lobby übertreibt die Gefahren und berichtet selektiv und falsch über Fracking – so geistert noch immer das gefälschte Bild vom brennenden Wasserhahn durch die Medien.

 Video des Vortrags von Isaac Orr vom Heartland Insitute zu den Realiäten des Frackings. Aufgenommen auf der 9.IKEK am 11.12.16 in Essen. Das Video ist in Englisch

Im Gegenteil ist es sogar so, dass durch die Verbrennung von durch Fracking gewonnenem Gas weniger Treibhausgase als bei z.B. Kohle freisetzt. So fallen durch die Fracking-Revolution nicht nur Öl- und Gaspreise, was jedem Verbraucher zugute kommt, sondern auch die Emissionen sinken, was der Umwelt zugute kommt. Fracking ist eine Technologie, die es verdient, gefördert statt verteufelt zu werden.

Isaac Orr widerlegt die Mythen von Peak Oil und der Umweltgefährlichkeit dieser Technologie, und zeigt die Chancen von Fracking auf, ohne dabei aber einseitig zu berichten. In Deutschland brauchen wir mehr solche Stimmen, die ausgewogen, unaufgeregt und sachlich über dieses Thema berichten. Alarmisten haben wir genug.

—–
EIKE auf facebook:
www.facebook.com/Europäisches-Institut-für-Klima-und-Energie-EIKE-279105925453555/




ZDF-Wissenschaftserklärer Harald Lesch gegen die AfD: Mogeln, tricksen, täuschen.

Prof. Harald Lesch ist ein Wissenschafts-Advokat tiefgrüner Ideologie. Jeder TV-Zuschauer erkennt es beim Anschauen seiner gut aufgemachten TV-Sendungen. Lesch ist im Nebenberuf ein Wissenschaftsjournalist, der sich lieber ins Rampenlicht stellt als über die Natur zu berichten. Wenn er die Themen CO2, Klima oder Energiewende anschneidet, ist es auch mit seiner wissenschaftlichen Korrektheit vorbei. Mogeln, tricksen, täuschen und das Heraufbeschwören von fiktiven Katstrophen ist dann angesagt. Ob er aus Überzeugung oder Erwerbsgründen als grüner Propagandist für das ZDF auftritt, ist nicht zu entscheiden.

Video der Untersuchung von Prof. Dr. Harald Lesch (Email: lesch@usm.uni-muenchen.de ) zu den Klimaaussagen des AfD Programmes, produziert von Terra X der Wissenschaftsmarke des ZDF  

 

Im jüngsten YouTube Video von Lesch (hier), erstellt vom ZDf, deren Programmmarke TERRA X ihn darin zu Wort kommen lässt, versucht er den Programmpunkten der AfD zu Klima und Energiewende an den Kragen zu gehen. Das Video ist sehenswert. Nicht seines fragwürdigen Inhalts sondern seiner propagandistischen Methoden wegen. Machen wir den Faktencheck – solches haben wir anlässlich früherer Entgleisungen von Lesch bereits unternommen und veröffentlicht (hier, hier, hier)! Wo mogelt, trickst und täuscht Lesch wieder einmal? Wir folgen dem Zeitablauf des Videos.

Einleitend betont Lesch, er behandele ein Sachthema. Warum dann ein Video solchen Tons gegen eine Partei und warum kein Video gegen den nun wirklich unüberbietbaren Unsinn der GroKo in Sachen Energiewende? Lesch bezeichnet den Klimawandel und die Energiewende als die großen Themen des 21./22. Jahrhunderts. Wen meint er damit? Es kann nur Deutschland sein. Die Welt interessiert sich für diese Themen überhaupt nicht. Der so oft beschworene Pariser Vertrag ist eine reine Absichtserklärung, bei der jeder Unterzeichner tun und lassen kann, was er will. Sogar eine ausdrückliche Ausstiegsklausel ist (überflüssigerweise) in ihm enthalten.

Insbesondere die deutsche Energiewende kopiert aus guten Gründen kein Land dieser Welt. China baut in Reihe neue Kohle- und Kernkraftwerke, Indien schickt sich an dasselbe zu tun. Wenn es Lesch um ein Sachthema ginge, warum verschweigt er die Aussagen der beiden Physik-Nobelpreisträger Ivar Giaever und Robert Laughlin, des weltberühmten Physikers Freeman Dyson, die zahlreichen Manifeste und Deklarationen von Klimaexperten gegen den IPCC-Alarmismus (hier, hier, hier, hier, hier, hier, hier). Warum kennt er nicht wenigstens einige der vielen begutachteten Fachpublikationen, die der menschgemachten Erwärmungshypothese  widersprechen (hier, hier)? Wahrscheinlich deswegen, weil von Lesch selber keine wissenschaftlich begutachten Publikationen zu Klimathemen bekannt sind.Vielleicht sollte er sich ein wenig informieren?

Bereits in der Einleitung von Lesch’s Video passieren Lapsus (auch dort, wo er der AfD recht gibt), die ihn als wenig fachkundig erscheinen lassen. Klima ist nämlich im Gegensatz zu Lesch’s Definition das Mittel lokaler Wetterdaten über mindestens 30 Jahre. So definiert es jedenfalls die WMO. Daraus folgt zweierlei. Erstens gibt es kein Weltklima sondern nur Klimazonen, die das lokale Klima abzugrenzen versuchen. Zweitens ist die Dauer von 30 Jahren nur ein Mindestzeitabschnitt zur Bestimmung einer Klimaperiode. Es sollten aber deutlich mehr sein, um tragfähige Aussagen über seinen unaufhörlichen Wandel machen zu können.

Lesch berichtet korrekt, das IPCC würde keine eigenen Klimamodelle betreiben und nur die Arbeiten verschiedener Forschungsgruppen aufsammeln und publizieren und versucht hier der AfD eine Falschaussage anzuhängen. Diese sprach nämlich von Klimamodellen des IPCC. Das ist zwar sachlich nicht völlig richtig, denn die Klimamodelle stammen in der Regel aus den dem IPCC zuarbeitenden Forschergruppen. Nun schreibt man aber einem Fachwissen sammelnden Buchautor die Aussagen seines Buchs in der Regel ihm selber und nicht seinen Quellen zu.

Aber, wie zum Beispiel EIKE Spürnase Heinzow nachwies, werden die Ergebnisse von Forschungen wie Modellläufen so getrimmt, dass sie auf jeden Fall noch im IPCC Bericht berücksichtigt werden können. Wenn Lesch daher folgert die AfD Aussage Die Klimaschutzpolitik beruht auf hypothetischen Klima-Modellen basierend auf computergestützten Simulationen des IPCC („Weltklimarat“) sei falsch, ist dies lächerlich und versucht den Kern zu verschleiern. Es geht um Klimamodelle, nicht um Wortklauberei.

Ohne jede Hemmung verschweigt dagegen Lesch, dass das IPCC als politische Organisation  in seinen Veröffentlichungen nicht neutral ist. Es gibt zwei Arten von IPCC-Berichten, wissenschaftliche und politische. Letztere werden von den politischen Entscheidungsträgern der betreffenden Länder mit verfasst, was ausreichend über die Qualität ihres Sachinhalts aufklärt! Die wissenschaftlichen IPCC-Berichte sind dagegen weitgehend in Ordnung, sie liest ihres riesigen Umfangs wegen bloß kaum jemand. Nicht in Ordnung ist die politisch motivierte Selektion des IPCC. So werden etwa Ergebnisse von fiktiven Klimamodellen in den Vordergrund gestellt. Der Einfluss der aktiven Sonne auf Klimavorgänge wird dagegen heruntergespielt, indem das IPCC  die einschlägigen Fachveröffentlichungen unberücksichtigt lässt.

Im Gegensatz zur groben Falschaussage von Lesch über Klimamodelle kann von deren Zuverlässigkeit keine Rede sein. Sie können noch nicht einmal die Klimavergangenheit wiedergeben. Selbst eine verlässliche Berechnung der Eintrittszeitpunkte eines neuen El Nino ist mit ihnen unmöglich. Mit Klimamodellen Klimavorhersagen (Projektionen) für die nächsten 100 Jahre zu versuchen ist Kaffeesatzleserei. Allein im ersten Halbjahr 2016 erschienen 21 begutachtete Fachstudien, die diese Zuverlässigkeit in Frage stellten, bzw. sogar komplett verneinten (hier).

Abbildung 1: Modell Prognosen vs Beobachtungen (hier). 2 Modelle von 90 errechneten einen Verlauf der globalen Mitteltemperatur nahe den Beobachtungen durch Satelliten. Das liegt weit im Bereich des Zufalls. Nur 4 Modelle von 90 lagen unter den Trend der terrestrischen Messungen (Hadley CRU), die übrigens in Richtung Erwärmung zuvor „adjustiert“ wurden.  88 Modelle lagen zum überwiegenden Teil sehr massiv daneben. Gründe für die Abweichungen:unbekannt

Prof. Mojib Latif, hierzulande der bekannteste Klimamodellierer, lieferte uns im Jahre 2000 mit seiner Klimamodell-Prognose „In Deutschland würde es keine Winter mit Schnee mehr geben“ ein amüsantes Musterbeispiel (hier).

Lesch betont die sorgsamen Zusammenstellungen des IPCC, basierend auf begutachteten Fachpublikationen. Er unterschlägt dabei salopp, dass bei dieser Zusammenstellung das IPCC die vielen begutachteten Fachpublikationen außen vor lässt, welche mit der menschgemachten CO2 Erwärmungshypothese nicht zusammenpassen.

Stark verwirrt erscheint Lesch, wenn er versucht der AfD Inkorrektheit in der Aussage zum globalen Temperaturstillstand seit nunmehr 18 Jahren vorzuwerfen. Dabei zeigt er selber einschlägige Grafiken, jeder kann es sehen. Doch seine beginnt 1997 und endet schon 2012. Er behauptet, diese sei die Basis für die AfD Aussage bezüglich des Stillstands gewesen. Das ist eindeutig falsch. Das AfD Programm wurde am 1. Mai  2016 verabschiedet. In die Aussagen der AfD floss der wissenschaftliche Erkenntnisstand bis Ende 2015 ein. Und der sah so aus (Abb. 2).

Abbildung 2: Temperaturverlauf und Trend nach RSS für die untere Troposphäre bis November 2015. Lesch sagt also die Unwahrheit, wenn er behauptet, dass die AfD Programm-Aussage nur den Trend bis Ende 2012 berücksichtigt hätte,

Und außerdem: Niemand, auch die AfD nicht, behauptet, dass es sich ab etwa 1975 bis heute nicht erwärmt hätte. Lesch’s Ausführungen als Wissenschaftler sind hier nicht nachvollziehbar, denn der Stillstand (Hiatus) wird unter dieser Bezeichnung in der Fachwelt intensiv diskutiert (hier). Nochmal daher die korrekte Aussage der AfD:

Seit Ende der 90er Jahre des letzten Jahrhunderts gibt es jedoch im Widerspruch zu den IPCC-Prognosen keinen weiteren Anstieg, obwohl in diesem Zeitraum die CO2-Emissionen stärker denn je gestiegen sind.“

Der von Lesch gezeigte letzte Temperaturpunkt in seiner Graphik erzeugt Befremdung. Die zuverlässigsten Daten liefern seit 1979 Satelliten und die zeigen etwas völlig anderes (hier) oder direkt (hier). In den letzten Monaten ist die globale Mitteltemperatur nach dem El Nino Maximum dramatisch gefallen. Und selbst wenn es Lesch’s ungewöhnlichen Temperatursprung gäbe, widerspräche er sich selber. Ein einziger Punkt (Wetter) hat, wie von ihm ja richtig geschildert, nichts mit dem 30-jährigen Wetter-Mittel (Klima) zu tun. Natürlich ist auch das jüngste Absinken der globalen Mitteltemperatur kein Klima-Ereignis.

Abbildung 3: Temperaturverlauf und Trend nach UAH für die untere Troposphäre bis Juni 2016. Wichtig ist zu erkennen, dass die jeweils höchsten Spitzen 97/98;2009/2010; und 2015/2016 von der gesamten Fachwelt dem El Niño Ereignissen zugeschrieben werden, von denen bisher noch niemand behauptet hat, sie würden durch die CO2 Emissionen ausgelöst. Derzeit liegen die Juni Temperaturen unter denen des El Nino Jahres von 1998, sollte sich das die Folgemonate jeweils fortsetzen, wird 2016 nicht als wärmstes Jahr in die Geschichte eingehen, meint jedenfalls jemand der es wissen muss: Roy Spencer (hier)

Weiter sagt Lesch wissenschaftlich unrichtig aus, wenn er die die positive Wirkung von CO2 auf das Pflanzenwachstum durch Hinweis auf angeblich starke Abschwächungseffekte herunterspielt. Fachpublikationen widersprechen ihm. So zeigt beispielsweise die Publikation von Parry et al. vom Jahre 2004 [1], dass die Zunahme an Pflanzenmasse für Nahrungspflanzen bis zur Verdoppelung der heutigen atmosphärischen CO2 Konzentration in guter Näherung proportional dem CO2 Gehalt der Atmosphäre folgt [1] und Bild 4.

Abbildung 4: Zunahme des Ertrags von Nahrungspflanzen bei zunehmendem CO2 aus der begutachteten Studie von Parry et al. [1].

Eine gute Zusammenstellung aller Fachpublikationen zu diesem Thema (hier). Von maßgebender Abschwächung ist nichts zu sehen. Wortwahl und Betonung von Lesch belegen schlechtes Gewissen, wenn er  „manche“ (Pflanzen) und „vorübergehend“ betont. Selbstverständlich gibt es Unterschiede, aber ungefähre Proportionalität von CO2 zu Pflanzenwachstum ist zumindest bis zur Verdoppelung der heutigen CO2 Konzentration wissenschaftlich unbestritten. Über den von Lesch behaupteten „Hopfeneffekt“ ist uns keine wissenschaftliche Fachpublikation bekannt. Wir waren nach Lesch’s skurriler „Hopfenbehauptung“ auf den Beleg neugierig, aber es kam nichts.

Abschließend beschwört Lesch die „Wirklichkeit“ der globalen Erwärmung und „dass man dagegen etwas unternehmen muss„. Das ist unsinnig, weil niemand weltweit „etwas unternimmt“. Und zudem ist diese Forderung von unglaublicher Naivität. Deutschland hat mit grob 2% der weltweiten CO2 Emissionen aller Länder überhaupt keinen Einfluss auf das globale Geschehen – egal welchen CO2 Vermeidungsunsinn es immer anstellen mag.

Neben ihrer Unsinnigkeit und Naivität ist die Forderung Lesch’s auch noch die pure Hybris. Selbst wenn es der Menschheit gelänge, globale Temperaturen durch Geo-Engineering zu beeinflussen (was Gott verhüte), wäre kein Konsens darüber erzielbar. Länder im hohen Norden würden sich zu Recht dagegen verwahren, für sie ist Erwärmung grundsätzlich günstig. Und zudem: Was tun, wenn es wieder kalt wird? Die nächste Eiszeit kann jederzeit anbrechen. Im Übrigen waren in der Geschichte der Menschheit niemals Kaltzeiten günstig sondern immer nur Warmzeiten.Wir sollten uns über die hoffentlich nicht letzten warmen Jahre freuen.

Auch ändern Leschs vergebliche Versuche, die Programmaussagen der AfD im Hinblick auf das Klima zu widerlegen, nichts an der für alle, die sich an der Treibhaushypothese abarbeiten, misslichen Tatsache,  dass sie eben immer noch und ausschließlich eine Hypothese – also eine unbewiesene Spekulation- ist. Und dies auch nach Leschs Video weiterhin bleibt. Die gerade mal wieder durch das Auftreten der über 18 jährigen „Pause“, mal eben so, widerlegt wurde.

In einem Punkt ist Lesch freilich uneingeschränkt zuzustimmen: „Sich seines eigenen Verstands zu bedienen„. Diese Tätigkeit, nicht immer bei allen Zeitgenossen schmerzfrei, führt hier zur klaren Erkenntnis, dass Lesch’s Video Grün-Propaganda und bar jeden vernünftigen Sachinhalts ist.

[1] M.L. Parry et al.: Effects on climate change on global food production under SRES emissions and socio-economic scenarios, Global Environmental Change 14 (2004) 53-67

 




Brexit und der atomare Schirm

Großbritannien zählt zu den vier “echten Atommächten” in der Welt. Zwar mutet die Anzahl der Sprengköpfe (GB: 215, Frankreich: 300) klein gegenüber der von Rußland und den USA (USA: 7000, Rußland: 7290) an, sie verfügen aber ebenfalls über Atom-U-Boote mit Interkontinentalraketen. Alle vier, lassen diese U-Boote monatelang sich in den Weltmeeren verstecken. Sie sind dadurch nahezu unzerstörbar und es ergibt sich daraus die gesicherte Zweitschlagfähigkeit – das Fundament jeder nuklearen Abschreckung. Wenn jemand das Mutterland nuklear angreift, können diese Boote mit ihren zahlreichen Sprengköpfen auf den Interkontinentalraketen, den Angreifer ebenfalls schwer schädigen. Sowohl GB, wie auch Frankreich lassen sich diese Sicherheit zig Milliarden kosten.

Die Auswirkungen für Europa

Bisher hatte die EU also zwei schlagkräftige atomare Säulen. Zwar haben diese beiden schon immer sehr eng zusammengearbeitet z. B. bei der Abstimmung ihrer Einsatzpläne und gemeinsame Übungen abgehalten, aber auch hier galt: Doppelt hält besser, da die Kernwaffen ausschließlich in nationaler Verfügung stehen. Ein wichtiger Aspekt, wenn man die nächsten Präsidentschaftswahlen in Frankreich einbezieht. Wahrscheinlich sind dann die gleichen Kreise, die ihre Informationen nur über den Staatsrundfunk beziehen, wieder total erstaunt, wenn Marine Le Pen doch als Siegerin hervorgeht. Absehbar ist schon jetzt, daß aus dem anstehenden Wahlkampf der Front National so gestärkt hervorgehen wird, daß Frankreich in der “Europafrage” ebenso gespalten sein wird, wie einst Großbritannien. Vorher dürfte vielleicht noch der neue Präsident der USA “The Donald” gewählt worden sein.

Beide Politiker treten mit dem zentralen Wahlkampfslogan “Frankreich zuerst” bzw. “USA zuerst” an. Wahrscheinlich sind sie gerade deswegen für weite Bevölkerungsschichten so attraktiv. Jedenfalls stehen beide dem (derzeitigen) Europa äußerst skeptisch gegenüber. Wenn man über Kernwaffen nachdenkt, sollte man den alten KGB-Fuchs Putin nicht vergessen: Er hat Marine Le Pen finanziert und sieht auch (noch) in “The Donald” seinen Lieblingskandidaten. Ein möglichst schwaches und zerstrittenes Europa, das seinen Expansionsgelüsten nichts entgegensetzt, ist sein Traum. Erinnern wir uns nur an den “Maidan”. Genau der Wunsch nach Europa, war die einende Parole, die das Regime in der Ukraine zu Fall brachte.

Die Rolle Deutschlands

Deutschland hat keine eigenen Kernwaffen. Dies hat eine Menge Geld gespart. Zusätzlich stand es unter dem atomaren Schutzschild der USA. Noch heute sind Atombomben der USA auf deutschem Boden gelagert. Dies wird sich ändern. Zukünftig wird man für den Schutz bezahlen müssen. Donald Trump hat in seinem Wahlkampf bereits klare Aussagen dazu gemacht. Er fordert ein viel stärkeres Engagement der Bundeswehr nicht nur in Osteuropa, sondern auch im nahen Osten. Die Zeiten, in denen sich Deutschland auf seine Vergangenheit berufen und die Kriege den “cowboys” überlassen konnte – um sie anschließend auch noch heftig dafür zu beschimpfen – sind vorbei.

Eine Marine Le Pen wird aus der gleichen Einstellung heraus ähnlich reagieren. Selbst französische Sozialisten neiden immer mehr die “reichen Deutschen” und ihre mit dem Euro wedelnde “Madame Merkel”. Es wird einsam werden in Europa. Putin wird keine Gelegenheit auslassen unsere osteuropäischen Nachbarn weiter zu bedrohen. Er stellt gerade Kurzstreckenraketen – die sich auch mit Kernwaffen bestücken lassen – in Kaliningrad (Königsberg und nördliches Ostpreußen) auf. Eine alte sowjetische Taktik: Die selektive Bedrohung mit Kurz- und Mittelstreckenraketen um den “Schutzschirm” aus Interkontinentalraketen auszuhebeln und die Nationen zu spalten. Die Reaktion der USA ist erwartungsgemäß: Man prüft gerade, ob man nicht das israelische Iron Dome System anschafft um es an der polnischen Grenze zu stationieren. Das Wettrüsten ist auch in Europa wieder eröffnet. Wenn ihnen jetzt ein “Putinversteher” erzählt, dies sei nur eine notwendige Reaktion auf die Stationierung der Raketenabwehr in Rumänien, einfach mal einen Globus in die Hand nehmen. Rumänien liegt ziemlich genau in der Mitte einer ballistischen Flugbahn zwischen Teheran und Brüssel. Von diesem Standort aus, könnte man höchstens Raketen aus Moskau gegen Libyen abfangen. Man kann mit kinetischer Munition (der regenschirmartige Kopf der Abfangrakete muß möglichst frontal auf den einfliegenden Sprengkopf treffen um ihn sicher zu zerstören) nur in eng begrenzten Winkeln Wirkung erzielen.

Denkbare Szenarien

Es ist besser, sich im Vorfeld ausgiebig Gedanken zu machen, als Probleme aussitzen zu wollen und erst wenn die Hütte brennt der (ausschließlich) aktuellen Mehrheitsmeinung zu folgen. Wie politisch kontrovers Fragen besonders zu Kernwaffen in Deutschland ausgetragen werden, zeigte der “NATO-Doppelbeschluss”. Der damalige Kanzler Helmut Schmidt bezahlte seine Standfestigkeit letztlich mit dem Verlust seines Amtes und die SPD mit der Konkurrenz durch die Neugründung der Grünen-Partei. Auch heute erscheint es nicht unwahrscheinlich, daß die Linken wieder hunderttausende als Drohkulisse gegen “Atombomben” auf die Straßen bringen.

Die Rest-EU

Vielleicht muß man schon sagen: … Da waren es noch 27. Eins scheint fest zu stehen. Je stärker die brüsseler Bürokraten an ihren Sesseln kleben und ein “weiter so” proklamieren, um so mehr Nationen werden sich mit Grauen abwenden. Dies wird um so mehr geschehen, wenn sich der (wirtschaftliche) Untergang Großbritanniens als Wunschdenken herausstellt. Was wäre eigentlich, wenn im Gegenteil das Wirtschaftswachstum in GB stärker als in der EU wachsen würde? Eine wesentliche Argumentation der Brexit Befürworter war doch gerade, sich den Weltmärkten stärker öffnen zu wollen. Das letzte Argument der EU wäre auch noch weg. Warum sollte beispielsweise das Finanzzentrum London ausgerechnet in die Hoch-Steuerregionen mit sozialistischer Grundhaltung, Frankfurt und Paris abwandern?

Europa wird sich geographisch nicht verändern. Die Bedrohung durch Putin wird bleiben. Schon die Euro-Zone ist eine eigene Organisationsform innerhalb eines angeblich “vereinten” Europas. Selbst die Schweiz und Norwegen gehören eher zu einem Kerneuropa als ausgerechnet Griechenland. Demgegenüber hat Großbritannien eine – in jeder Beziehung – engere Bindung zu den USA, als es Frankreich je haben wird. Kommen noch sicherheitstechnische Überlegungen hinzu, könnte es schnell zu wesentlich engeren Bindungen zwischen Osteuropa, Skandinavien und den USA mit GB kommen. Demgegenüber wird die “Deutsch-Französische-Freundschaft” unter den ewigen Gegensätzen dieser beiden Kontinentalmächte auf eine harte Probe gestellt werden. Das Verhältnis zwischen “Madame Le Pen” und “Madame Merkel” wird eher zum Stutenbeißen generieren.

Die Schottland Frage

Wenn man sich anschaut, mit welcher Einfältigkeit Brüssel eine schottische Provinzpolitikerin hofiert, kann man nur staunen. Der Wunsch sich aus dem Vereinigten Königreich zu lösen, um sich ausgerechnet Brüssel anzuschließen, stärkt durchaus eine schottische Verhandlungsposition, befriedigt aber bestenfalls europäische Eitelkeiten.

In Schottland liegt die gesamte britische “Atomflotte”. Diese Tatsache hat schon in der letzten Abstimmung eine wesentliche Rolle gespielt. Würde sich Schottland wirklich vom UK abspalten, käme dies einer Errichtung des Hadrianswalls gleich.

Darüberhinaus besitzt Schottland eine außerordentliche geostrategische Bedeutung. Durch das Tor Grönland-Island-Schottland muß die russische Flotte durchschlüpfen – wie einst Hitlers Flotte – um in den Vorgarten der USA zu gelangen. Dies hat Konsequenzen bis Australien, Neuseeland und Indien. Jedes Schiff, was im Atlantik gebunden ist, fehlt im Pazifik gegen China. Schottland würde also seine herausragende Rolle innerhalb des Commonwealth mit einem Platz am Katzentisch der EU eintauschen.

Das Japanmodell

In Japan wird immer offener eine Bewaffnung mit eigenen Kernwaffen als Reaktion auf die Bedrohung durch China und Nordkorea diskutiert. Im Land der ersten Atombombenabwürfe wahrlich keine emotionslose Frage.

Bisher konnte diese Frage durch immer engere Bindung an die USA und prompte militärische Reaktionen auf Provokationen – insbesondere aus Nordkorea – im Zaum gehalten werden. Allerdings nur um den Preis massiver Aufrüstung mit den daraus resultierenden Militärausgaben. Japan unterhält heute (wieder) eine der schlagkräftigsten Flotten und Luftwaffen der Welt. Mal sehen, wie das in Deutschland, in dem immer noch vom Ende eines kalten Krieges und der Friedensdividende geschwafelt wird, durchsetzbar wäre. Je mehr sich Deutschland vom Westen isoliert, um so höher wird der Preis, den es zahlen muß.

Die Konsequenzen

Europa ist viel, viel mehr, als ein bischen Reisefreiheit und eine (noch einigermaßen) stabile Währung. England gehört zu Europa. Geographisch unverrückbar und historisch seit zwei Jahrtausenden. Es ist auch nicht die Idee eines freien und friedlichen Europa seiner Völker gescheitert. Gescheitert ist lediglich die Wahnvorstellung eines zentralistischen Staatenbreis, nach Vorbild der Sowjetunion. Genau dieses Modell eines Multi-Kulti-Gebildes, welches nur durch eine zweifelhafte (sozialistische) Ideologie zusammengepreßt wird, ist mit Jugoslawien und eben der Sowjetunion, blutig gescheitert. All die europäischen Diven, die jetzt aus gekränkter Eitelkeit eine schmutzige Scheidung herbeireden, seien eindringlich vor den Konsequenzen gewarnt. Auch hier ist GB wieder demokratisches Vorbild: Alle Politiker – oder sollte man besser Versager sagen – sind von ihrem Volk abgestraft worden und müssen sich nun nach neuen Posten umschauen. Oh, hätten doch Merkel, Junker und Co eine solche Größe.

 Zuerst erschienen bei NUKEKLAUS hier




Guter Vorschlag: Grüne fordern Überprüfung von BGR-Studie zur Klimawirkung der Sonne – ZDF Harald Lesch überprüft „wissenschaftlich“ das AfD Programm

Aus die kalte Sonne:

Im Januar 2016 gab die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) Entwarnung und erklärte Fracking für unbedenklich. Dies erzürnte die Anhänger der Erneuerbaren Energien so sehr, dass sie auf Rache sannen. Wie könnte man der BGR einen Denkzettel verpassen? Der Solar-Anhänger und WDR-Journalist Jürgen Döschner nutzte am 29. Juni 2016 seine Position, um auf Tagesschau.de gegen die BGR zu hetzen. Die Behörde hätte doch tatsächlich Industriegelder angenommen, um Klimawandelstudien kozufinanzieren, unerhört. Daher wären wohl alle Ergebnisse automatisch zu hinterfragen:
Die Bundesanstalt für Geowissenschaften und Rohstoffe ist einer der wichtigsten Beratungs- und Forschungsdienste der Bundesregierung. Doch wie unabhängig ist die BGR? Über eine Stiftung werden mit Geldern aus der Industrie “verdiente Mitarbeiter” belohnt.
Die Nachricht schlug damals ein wie eine Bombe: Nicht die Verbrennung von Kohle, Öl und Gas, nicht das üble CO2 ist hauptverantwortlich für den Klimawandel, sondern schlichter Wasserdampf und die Aktivitäten der Sonne. 1995 erschien eine Studie, die genau zu diesem Schluss kam.
Die Autoren: namhafte Wissenschaftler der ebenso namhaften Bundesanstalt für Geowissenschaften und Rohstoffe (BGR). Kurze Zeit später veröffentlichte die BGR auf der Basis dieser Studie das Buch “Klimafakten” – bis heute eine Art “Heilige Schrift” all jener, die den Klimawandel oder zumindest den Anteil des Menschen daran bezweifeln.
Was bislang nicht bekannt war: Die umstrittene BGR-Studie war seinerzeit von der Industrie bezahlt worden. Genauer gesagt von der “Hans-Joachim-Martini-Stiftung”, einer bis heute weitgehend unbekannten und im Verborgenen arbeitenden gemeinnützigen Stiftung. […]
[…] die atompolitische Sprecherin der Grünen im Bundestag, Sylvia Kotting-Uhl […] sieht durch die Existenz und das jahrzehntelange Wirken der Hans-Joachim-Martini-Stiftung “die Unabhängigkeit und Seriosität der BGR kompromittiert”. Das Bundeswirtschaftsministerium weist diesen Verdacht zurück. Der niedersächsische Umweltminister Wenzel von den Grünen fordert angesichts der Recherchen von WDR, NDR und “Süddeutscher Zeitung”, die bisherigen Studien und Stellungnahmen der BGR noch einmal zu überprüfen.
Offensichtlich hat sich Döschner mit der Thematik selber noch nie beschäftigt, ansonsten wäre ihm schnell klargeworden, dass die BGR in ihrem Buch lediglich den Stand der Wissenschaft wiedergegeben hat. Ob es Döschner gefällt oder nicht: Eine Vielzahl von begutachteten Studien hat eindrucksvoll den großen Einfluss von solaren Aktivitätsschwankungen belegt. Es ist daher in keinster Weise angebracht, nun mit dem Finger auf die BGR zu zeigen. Vielmehr sollte lieber der IPCC erklären, wie er angesichts der erdrückenden Faktenlage einen vernachlässigbar geringen Strahlungsantrieb für die Sonne rechtfertigt.
Das klimatische BGR-Mobbing ist keineswegs neu. Wir hatten an dieser Stelle bereits über die seinerzeit von Aktivisten und Politikern eingefädelte Kampagne berichtet (siehe unseren Blogbeitrag “Pioniere des Klimarealismus: Die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR)“). Das Wiederaufflackern dieser Kampagne spricht im Prinzip vor allem gegen die Seriosität von Döschner. Unter anderem verschweigt er dabei wichtige Kontextinformationen. So erhielt das Potsdam-Institut für Klimafolgenforschung (PIK) 2014/15 mehr als eine halbe Million Dollar von einem Greenpeace-nahen politischen Thinktank. Folgt man der Döschner-Logik, wären damit sämtliche Aussagen des PIK zu hinterfragen.
Die Tagesschau muss sich den Vorwurf gefallen lassen, dass sie Aktivisten eine öffentliche Bühne bietet. Ausgewogene Berichterstattung sieht anders aus. Vielleicht hat der ganze Vorfall aber letztendlich auch etwas Gutes. Man sollte den Vorschlag des niedersächsischen Umweltministers Wenzel aufgreifen und die BGR-Studie fachlich überprüfen. Man muss kein Hellseher sein, dass sich dabei die Aussagen der BGR zum Klimawandel bestätigen lassen werden. Das wäre ein schwerer Schlag gegen den grassierenden Klimaalarm in der Gesellschaft. Man darf gespannt sein, wie und ob sich dieser Fall weiterentwickelt.

Das Original finden Sie hier

Und hier Prof. Dr. Harald Lesch zum Klima-Programm der AfD

Es darf gelacht werden. Ausführlicher Kommentar folgt.




Teil 2 des Faktenchecks Vortrag von Prof. Thomas Stocker Vaduz 10.5.16

Teil 2

Die Pause

Nicht nur EIKE Leser wissen, dass die Erwärmung seit langem, beginnend irgendwo zwischen 1995 bis 1998, eine Pause eingelegt hat. Das wissen auch die Kollegen von Stocker und suchen verzweifelt nach Erklärungen dafür. Hier haben wir die ersten 66 davon zusammengetragen. Nur Stocker sieht die Pause nicht und versucht mit spitzfindigen Hinweisen auf Feinheiten der Trendbestimmung den Eindruck zu erwecken, dass es „die Pause „ gar nicht gibt.

Daher hier ein paar Kostproben seiner Einlassungen dazu:

Min 8:35 … es kommt sehr darauf an, wann sie beginnen die  15 Jahre zu berücksichtigen…Min 9:45 von 1998 bis 2012 kriegen Sie einen Trend von 0,05 pro Jahrzehnt … …Min 10:16 …das sollte genügend Hinweis sein, dass man nicht 15 Jahre nehmen darf um einen Klimatrend festzustellen. Min 10:41 nicht nur 2015 war ein Rekordjahr sondern auch 2014 war schon wärmer als alle Jahre zuvor – Anmerkung des Verfassers Widerspruch zu Minute 08:55   ….und zuvor nicht jedes Jahr ist wärmer, nicht jedes Jahrzehnt ist wärmer ….. Min 10:50– ich sage nicht, dass wir den Klimawandel beweisen mit 2015, das geht nicht….. es geht nicht einmal mit nur 15 Jahren. Wie ich zuvor ausgeführt habe… sie müssen die Trends genau ausrechnen aus genügend langen Zeitreihen (11:07)…

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Nun hat niemand von den Skeptikern behauptet, dass 15 Jahre für sich die Bestimmung eines Klimatrends erlaubten, d.i. eine Beachtung wissenschaftlicher Prinzipien, denen sich die Alarmisten um Stocker und Gefährten allerdings nicht verpflichtet fühlen, denn sie  ordnen ungerührt jeden Starkregen, jede Hitzewelle, jeden Sturm oder Tornado, jede Überschwemmung regelmäßig dem „Klimawandel“ á la IPCC zu. Div. Äußerungen zu den jüngsten Regenfällen und Überschwemmungen (Siehe auch Video des Teams von „Klimamanifest von Heiligenroth) dokumentieren das vielfach.  

Doch hier geht es um die „Pause“, also den Stopp weiterer Erwärmung trotz ständig steigenden CO2 Emissionen.  Und alle offiziellen Datenreihen zeigen sie. Mit einer Ausnahme, das ist die jüngste Datenreihe des Goddard Institute for Space Sciences kurz GISS.

Robert Brown  von der DUKE Universität hat sich deshalb die Zeitreihen daraufhin genau angesehen und  Werner Brozek und Walter Dnes haben sie in Auszügen veröffentlicht[11].

Dort finden wir: Zusammenfassung

For UAH[12]: There is no statistically significant warming since May 1993

For RSS: There is no statistically significant warming since October 1993

For Hadsst3: There is no statistically significant warming since July 1996.

For GISS: The warming is significant for all periods above a year.

Interessant dabei: RSS und UAH greifen auf denselben Datensatz zu, in diesem Fall von Satelliten erfasst, wie auch HadCrut[13] und GISS auf den terrestrisch erhobenen Datensatz

Da die Auswertungen von Hadcrut und GISS stark voneinander abweichen, aber nicht beide gleichzeitig richtig sein können, ist es möglich stundenlag darüber zu streiten welche der beiden richtig ist. Das GISS ist seit längerem  dafür bekannt, seine Datenreihen ständig in Richtung Erwärmung zu „adjustieren“[14]. Daher empfiehlt es sich der Vernunft zu folgen und die Satelliten-Werte von RSS und UAH als Schiedsrichter zu verwenden.

Und damit erkennen wir den Beginn der „Pause“ 

irgendwo zwischen 1993 bis 1996 und dauert bis heute

d.h die „Pause“ dauert nun schon zwischen 20 bis 23 Jahre!

Sie beginnt also deutlich vor der Stocker´schen Angabe von 1998

Rückgang der Gletscher

Stocker fährt fort die Auswirkungen des „Klimawandels“ nach IPCC Regeln in den schwärzesten  Tönen zu malen. Zunächst kommt der Rückgang der Gletscher und „Eiskörper“ dran.


Min 12:04
…der große Aletschgletscher, … der sehr stark zurückgegangen ist …Min  12:08 sicher eine Kombination der natürlichen Klimavariabilität und eine erste Reaktion von Eisköpern und Gletschern auf die Erwärmung

 

Abbildung 8 Folie von Stocker der Rückgänge einiger Alpengletscher seit 1880. Er führt sie auf eine Kombination von „natürlicher Klimavariabilität“ und (menschgemachter) Erwärmung zurück

 

Kleine Eiszeit vs. Aletschgletscher

Mehr bringt Stocker zu diesem Thema nicht, kann er sich doch sicher sein, dass in der Alpenrepublik Schweiz und dem eingelagerte Fürstentum Liechtenstein jede Erwähnung des Rückganges der Gletscher  als große Bedrohung empfunden wird.

Er erwähnt auch mit keinem Wort die „kleine Eiszeit“, also die Zeit vor der jüngsten Klimaphase, die in allen vorhandenen Berichten als sehr schlechte Zeit für Mensch und Tier beschrieben wurde und immerhin um die 500 Jahre dauerte. Auf dieses Manko von mir angesprochen weicht er aus und verweist fälschlich auf seine Aussagen zum Aletschgletscher

Doch die Gletscher-Geschichte hat mit der Erwärmung durch den „Klimawandel“ á la Stockers IPCC und anders als dieser behauptet, nichts Erkennbares zu tun.

Der inzwischen emeritierte Glaziologe  der Universität Innsbruck Prof. em. Gernot Patzelt, kommt daher auf eine ganz andere Erklärung. Seinen intensiven Gletscherforschungen nach, ist die momentane Erwärmung nichts Besonderes. So gab es sehr, sehr häufig in den letzten 10.000 Jahren sowohl wesentlich höhere Temperaturen, aber auch steilere Rückgänge als heute,. In mehr als 66 % der Zeit, lag die Sommertemperatur der Alpen z.T. deutlich über der heutigen.

Abbildung 9 Temperaturverlauf (Sommertemperaturen) der Alpen und in Grönland der letzten 10.000 Jahre. Es ist klar erkennbar, dass mehr als 2/3 der Zeit die Temperaturen deutlich höhere Temperaturen zu beobachten waren als heute. Grafik und Daten Gernot Patzelt. Aus Wald- und Gletscherentwicklung  in den Alpen in den letzten 10.000 Jahren, zur 9.IKEK 11.12 Essen

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat

Extremereignisse

Dann wurde vom Vortragenden vom  allgemeinen „Klimawandel“ ins Besondere übergegangen. Doch auch hier nur Schreckensbotschaften.

O-Ton Stocker Min 15:14 Der Klimawandel manifestiert sich nicht nur in der Temperatur (Bild Meerespiegelanstieg) es sind viele Größen, die sich verändern u.a. der Meeresspiegel (Bild der Msp ist seit 1900 um 19 cm angestiegen)

 Abbildung 10: zeigte   die Stocker Folie „nach verschiedenen unabhängigen Daten“ des Meerespiegelanstiegs von  1900 bis 2012 

Und….Min 15:40 Meereisbedeckung hat sich verändert (Bild Arktis) …und so gibt es viele Messungen …viel Größen im (16:15) Klimasystem  dann folgt (Min 16:17 ohne weitere Erklärung)… aus dem Synthesereport

… sie zeigt die Ursache des Klimawandels

Abbildung 11: zeigt die Ursachen  des Klimawandels  „nach genauen Messungen“ von  1850 bis 2013

…dann folgen Zahlen über den Anstieg.. (Tonstörung) von CO2, CH4 etc. Min 18:10 Bild: Die mensch-verursachten Emissionen sind die höchsten der Geschichte

(Anmerkung erst seit 1956 werden sie hinreichend genau gemessen, davor nur sehr ungenaue Messungen aus Eisbohrkernen)

…Der (globale) Meeresspiegel steigt…

Schauen wir uns zunächst den (globalen) Meeresspiegel an.  Zunächst einmal sollten wir fragen, ob es den denn gibt? Jeder weiß, oder glaubt zu wissen, dass es ihn gibt. Aber gibt es den globalen Meeresspiegel überhaupt? Und was macht die Erwärmung für seinen Anstieg aus? Weiß doch jeder, dass sich Wasser bei Erwärmung ausdehnt.

…durch Erwärmung…

Zunächst sollte man sich die Frage stellen: Kann eine äußerst geringe – und nur um die handelt es sich hier – und auch nur vermutete- Erwärmung der Luft, um 0,8 bis 1,0 C die Riesenwassermenge der Ozeane wirklich so schnell erwärmen? Wer das einfach so glaubt, möge bitte nur ein paar überschlägige Berechnungen mit Wissen aus der frühen Oberstufe vornehmen.

…gerade einmal um 3cm –pro Jahrhundert!

Hierzu ein Beispiel:

Erwärmt[15] sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm. d.h. die wenn sich die gesamte Erwärmung des letzten Jahrhunderts auf das Meerwasser übertragen hätte, wäre das gerade mal um 3 cm, zwar mit großer Verzögerung, aber insgesamt gestiegen. Mehr geht nicht. Doch auch diese Annahme ist unrealistisch denn…

…Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser die Nähe von 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt.

Und was liefern die Gletscher?

Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. es gäbe einen Anstieg um ca. 10 cm in einem Jahrhundert.

Nur, die weitaus größte Eismenge von über 90 % ist in der Antarktis gebunden. Doch die Antarktis denkt nicht daran zu schmelzen, was sie früher, als es dort deutlich wärmer war als heute – besser gesagt : deutlich weniger kalt als heute- auch nicht tat. Wie eine neue Studie herausfand[16] war die Antarktis häufiger in den letzten 8000 Jahren wärmer als heute. Ganz ohne anthropogenes CO2.

Nur in Grönland, das weitere 9 % der Eismasse beherbergt, tauen die Ränder. Die von Stocker als Beispiel gezeigte schmelzende Arktis taugt hingegen nicht dazu, denn es handelt sich um Meereis, dessen Schmelzen keinen Einfluss auf den Meeresspiegel hat.

Und dass das Schmelzen der Alpengletscher oder anderswo einen messbaren Einfluss auf den Meeresspiegel hat, glaubt Stocker sicher selber nicht.

Globaler Meeresspiegel

Und damit sind wir wieder bei der Frage gibt es ihn, oder gibt es ihn nicht. Man braucht ja nur an die Küste fahren, auf endlose Meer blicken, sich an die Schulphysik, mit der Sache von den kommunizierenden Röhren erinnern und schon ist klar, dass es

a) einen globalen Meeresspiegel gibt und

b) dass dieser – glaubt man Stocker und dem Rest des IPCC- steigt durch die globale Erwärmung.

Doch an diesen beiden Aussagen ist fast alles falsch. Es gibt den globalen Meeresspiegel ebenso wenig wie die globale Mitteltemperatur, sondern viele verschiedene Meeresspiegel, die an manchen Standorten[17] an der Küste seit vielen Jahrzehnten eher weniger als mehr genau – per Pegelmessung- gemessen werden. Und alle sind verschieden und verhalten sich auch sehr verschieden. Insgesamt definiert die Forschung ca. 15 Einflussgrößen, welche auf den Meeresspiegel wirken. Die thermische und der Zufluss von Gletscherwasser gehören zu den kleinsten.

Die lokalen Pegelstände werden – zwar nicht vollständig- seit 1933 in der PSMSL Datenbank erfasst und stehen dort der Forschung zu Verfügung Die dort abrufbaren  lokalen Pegelmessungen können allerdings nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen. Das ist mindestens so schwierig wie die Temperaturbestimmung. Manche meinen, es sei noch schwieriger, weil die Datenbasis noch viel dünner ist und es keinen absoluten Bezugspunkt gibt.

Abbildung 12:Anstieg des globalen Meeresspiegels seit dem Ende der Eiszeit. Deutlich zu erkennen, dass dieser seit ca 9.000 Jahren nur noch moderat und seit ca. 6000 Jahren sehr moderat ansteigt. (Weitere Details dazu u.a. hier ) Einen wunderbaren Überblick über den gegenwärtigen Stand der Meerespiegelforschung hatte zuletzt EIKE Autor Kuntz[18] zusammengetragen. Er untersuchte viele Forschungsergebnisse, welche die letzen 10.000 Jahre (Holozän) abdecken

Sein Fazit lässt an Deutlichkeit nicht zu wünschen übrig:

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbar, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezweifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Wer nun richtig liegt, Stocker oder der kritische Ingenieur Kuntz, mag sich der Leser aussuchen. Es bleibt die Frage, wie Stocker und Kollegen auf ihre spektakuläre Aussage vom gefährlich ansteigenden Meeresspiegel kommen? Dies ist nicht recht ersichtlich, dient aber dem Alarmismus.

Fazit:

Die Ausführungen von Stocker sind zwar IPCC konform, in der Sache aber völlig unbestimmbar und daher spekulativ übertrieben. Ihre Zuordnung zur Ursache ist daher rein alarmistisch und durch nichts begründbar

Hitzewellen und Starkniederschläge

Im Vortrag (etwa um Minute 30) und später zu meinem Kommentar (ca. Minute 49:00) äußerte sich Stocker auch zur Zunahme der Extremereignisse, namentlich von „Hitzewellen und Starkniederschlägen,  die als einzige dem Klimawandel zugeordnet werden können“.

Trotz Widerspruchs beharrte Stocker auf dieser Behauptung. Ich bat ihn daher in einer Mail zur Klärung der Fakten diese zu belegen. Diese Klärung erfolgte leider nicht.

Warum?

Weil  40 Jahre Klimawandel à la IPCC diese Erhöhung der Extremwetter bisher nicht erkennen lassen. Im Gegenteil, viele Extrem-Wetterphänomene wurden weniger und manche sogar schwächer. Im den IPCC Bericht zu „Extremereignissen“ zu lesen wir dazu:

Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “No robust trends in annual numbers…“

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends….”

Über außer-tropischeZyklone[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:  “In summary, confidence in large scale changes in the intensity of extreme extra tropical cyclones is low …“

Über Dürren [IPCC 2013, AR5, WGI, Technical Summery,

Seite 50]:”There is low confidence in a global-scale observed trend in drought or dryness …“.[IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present…“

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence …“

Über Hagel und Gewitter (Starkniederschläge)_ [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale ..“

Zusammenfassung des_[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]:

“There is limited evidence of changes in extremes  associated with other climate variables since the mid-20th century.”

Fazit:

Extremwetterzunahmen im jüngeren Klimazeitraum sind von den Wetterdiensten nicht auffindbar.

Zur kleinen Eiszeit bzw. der Rückerwärmung danach

Als ich dann in der Diskussionsrunde erwähnte, dass er die kleine Eiszeit in seinem Vortrag und die (u.E.n. völlig natürliche) Rückerwärmung danach nicht erwähnte, korrigierte Stocker mich und verwies auf Ihre Ausführungen zum Aletsch-Gletscher. Doch auch da erwähnten er die kleine Eiszeit mit keinem Wort – er stellte nur fest, dass der Rückzug des Aletsch „..sicher eine Kombination der natürlichen Klimavariabilität …und der ersten Reaktion von Gletschern und Eiskörpern auf die Erwärmung, die stattgefunden hat…..ist“.

Wieder zeigten er allein Klima-Phänomene, aber lieferte keinerlei Beleg für seine „wirkliche Realität“, (O-Ton Stocker) dass das CO2 ursächlich daran schuld sei. 

Zum Carbon Budget

Mit dem Aufzeigen des sog. Carbonbudget kam Stocker zum eigentlichen Ziel seines Vortrages. Nach den Schrecken des Klimawandels – ausgelöst durch das anthropogene CO2- und umgerechnet auf die seiner Meinung gerade noch zulässige Erzeugung desselben (wenn man das 2 ° Ziel noch halten will), forderte er dann die vollständige  

Dekarbonisierung der Wirtschaft.

Dazu zeigte er eine Folie mit der er das sog.  Carbonbudget einführte. Sie zeigt dessen Veränderung seit Beginn der Industrialisierung (was immer das heißen mag), sowie das, was nach Meinung „der Wissenschaft“ noch zulässig emittierbar wäre.  Ausdrücklich deklarierte Stocker das dort Gezeigte mit viel Nachdruck als „wissenschaftlich“ und damit als unabweisbar und wahr.

Abbildung 13:Bereits verbrauchtes  und noch zulässiges „Budget“ an Kohlenstoff Äquivalent  nach Stocker

Dann berichteten er kurz über die Idee des Budgets an Emissionen -je nach zulässiger Erhöhung um 2°, 3° oder gar 4,7 °- CO2. Doch wie er zu dieser Budget-Berechnung überhaupt gekommen waren (ab Min 32:25), erklärte er – auch auf Mail-Nachfrage- nicht.

Seine Konsequenz ist, dass für das 2° Ziel noch 195 Mio t Cequiv (Anmerkung: Ceqiv ist die Menge an Kohlenstoff C die im CO2 gebunden ist, sowie die aus anderen Treibhausgasen umfguerechnete CO2 Menge, bzw. deren Ceqiv) an Emissionen zur Verfügung stünden, dann wäre das „Budget“ von 790 Mio t Cequiv erreicht. 

Abgesehen von der nicht unwichtigen Frage, warum er dem Publikum den erheblichen Unterschied zwischen Emissionen und atmosphärischer CO­2 Konzentration und die Tatsache, das es einen um knapp zwei Potenzen größeren natürlichen CO2-Kreislauf gibt, nicht einmal im Ansatz zu erklären versuchte, bleibt auch offen, was ihn zu dieser Behauptung gebracht hat.

Ich vermute, dass er sich zur Berechnung des Budget im Wesentlichen der (Equilibrium) Climate Sensitivity (CS oder ECS) bediente. Die gibt an, um wieviel die Temperatur rechnerisch bei Verdopplung der Treibhausgaskonzentration ansteigt. Das Problem mit diesem rein hypothetischer Rechenwert  ist jedoch, dass er als Wert sich -bisher jedenfalls – jeder genauen Bestimmung entzogen hat. Das mussten auch seine Kollegen einsehen, welche die Summary für Policymakers  (SPM) schrieben bzw . redigierten, denn dort steht– wenn auch in einer Fußnote versteckt – auf S.16:

No best estimate for equlibrium climate sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies“.

Doch in seinem Vortrag ignorierte Stocker nicht nur dieses IPCC Eingeständnis, er beschäftigte sich nicht einmal mit dieser wichtigen Frage,  sondern stellte einfach die o.a. Behauptungen in den Raum.

Wir wollten versuchen dem Geheimnis auf die Spur zu kommen und baten Stocker um Aufklärung. Doch die kam nicht. Daher können wir nur vermuten, dass er mit großer Wahrscheinlichkeit den politisch „offiziellen“ IPCC Wert von 3 °C für seine Berechnungen einsetzte. Anders kommen die von ihm genannten Zahlen auch nicht zustande.

Also per THG Verdopplung ergibt sich eine Temperaturerhöhung von 3 °C.  

Thomas Stocker müsste jedoch wissen – und weiß es sicher auch – dass ein ECS mit 3 °C nach heutigem Wissen völlig unhaltbar ist, weil sich gerade in jüngster Zeit die Studien häufen, welche diesen Wert auf unter 1 °C verorten, manche gehen sogar bis auf 0,45 °C ± 30 % und noch weiter herunter.

Wendet man diese Werte an, dann erledigt sich das „Problem Klimaerwärmung“ von selbst. Auch deswegen, weil selbst bei Verwendung des sog. Berner Modells zur Berechnung der CO2 Konzentration aus den Emissionen, (ein Modell, welches erlauben soll, die Zunahme der CO2 Konzentration aus den anthropogenen Emissionen zu bestimmen – an dessen Definition Stocker vielleicht sogar beteiligt war- mit 3 verschiedenen Halbwertzeiten für den „Zerfall“ des CO2 in der Atmosphäre,) die Berechnungen zeigen, dass, selbst wenn man ein exponentielles Wirtschafts-Wachstum für die nächsten acht Jahrzehnte annimmt und man dafür jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würde,  der CO2-Gehalt immer noch nicht doppelt so hoch wäre wie heute.[19]

Auch die 600 ppm Marke, also eine Verdopplung gegenüber dem -auch nur vermuteten- vorindustriellen Wert, würde schwerlich erreicht werden. All diese wichtigen Ergänzungen fehlten leider in Stockers Vortrag.

Und last but not least ließ er auch die – im Gegensatz zur Klimahypothese- eindeutig belegte positive Wirkung des CO2 Anstiegs auf den Pflanzenwuchs und damit auf die Welternährung völlig unberücksichtigt. 

Angeblich fehlende Mitwirkung Skeptiker

Am Ende seiner Ausführungen sagte Stocker die folgenden Sätze

Min 50:45 ..Sie haben 3 x Gelegenheit gehabt unseren Bericht zu begutachten. Drei mal!… wir haben insgesamt 54.677 Kommentare erhalten,  …wir haben auf jeden Kommentar schriftlich reagiert…im Internet verfügbar…Ich hatte eigentlich gehofft als Vorsitzender der Arbeitsgruppe 1, als ich das Amt übernommen hatte..in einer turbulenten Zeit wie Sie sich erinnern können, dass ich sehr viele intelligente Kommentare von Klimaskeptikern kriege, die wir dann Punkt für Punkt adressieren können….leider hat es sich dann herausgestellt, dass niemand von diesen Leuten, die in den Blogs(?) sehr aktiv waren, bei uns beigetragen haben. Tut mir Leid! Wir konnten auf diese Expertise nicht zurückgreifen. (Zwischenruf Limburg) Das stimmt nicht

Und es stimmt auch nicht. Bspw. hat Dr. Vincent Gray aus Neuseeland überschlägig ca. 800 Kommentare eingereicht, ebenso reichten, um nur einige weitere zu nennen, Prof Singer und Lord Monckton viele tlw. umfangreiche Kommentare ein, aber erhielten nie eine Antwort.

Auf meine spätere Nachfrage räumte Stocker dies auch ein, hielt es aber nicht für angebracht sich für seine öffentliche Falschinformation zu entschuldigen. Er  sandte mir aber eine pdf Datei mit allen Kommentaren von V. Gray und deren Behandlung seitens seiner  Arbeitsgruppe. Nach erster Sichtung wurden die allermeisten Kommentare „rejected“.

Ob dies aus objektiven oder subjektiven Gründen geschah, ist für diese Thematik eigentlich jetzt nicht relevant. Denn Tatsache bleibt, dass entgegen seiner klaren Ansage vor dem LIFE Auditorium, die „Klimaskeptiker“ hätten „trotz dreimaliger Gelegenheit“ zu diesen 54.677 Kommentaren nichts dazu mit „ihrer Expertise“ beigetragen, falsch ist. Und, da er es besser wusste, sogar vorsätzlich falsch.  Auch die umfangreichen Kommentare von S.F. Singer und Ch Monckton räumte Stocker nachträglich ein, verwies jedoch nur auf die IPCC Website um sie zu finden. Das ist uns bis heute nicht gelungen.

Fazit:

Ab Min 42:20, wies Stocker auf die so wichtige Glaubwürdigkeit hin

  „Das Grundlegende was wir in dieser komplexen Situation tun können ist unsere Glaubwürdigkeit pflegen…damit die Entscheidungsträger nicht auf irgendwelchen Halbwahrheiten oder Partikular Interessen entscheiden müssen sondern auf den Fakten die die Wissenschaft zur Verfügung stellt.“

Prof. Thomas Stocker hat also seine Aussagen bei klarem Bewusstsein, klarer einfacher Sprache, ohne jeden Zweifel und im Brustton des ehrlichen Wissenschaftlers vorgetragen.

Und er hat damit die Zuhörer überzeugt.

Nach seinen Worten gibt es keinen Zweifel, dass der „Klimawandel“ menschgemacht ist und fürchterlich für diesen Planeten wird, wenn wir nicht durch „Dekarbonisierung“ massiv und unverzüglich  gegensteuern.

Als Ergebnis dieses Gegensteuerns mittels Dekarbonisierung schildert er -wieder ohne jeden Zweifel- als zukünftiges Paradies, mit einer Energieversorgung aus „Erneuerbaren“!

Die Fragwürdigkeit von Stockers Behauptungen und „Beweisen“.

Auf den vorigen vielen Seiten – kürzer ging leider mal wieder nicht, wofür ich mich entschuldige- habe ich versucht die ganze Fragwürdigkeit, der mir am wichtigsten erscheinenden Behauptungen und Beweisführungen Stockers aufzuzeigen.  Nun dürfte das alles auch Stocker gut bekannt sein, aber wenn er trotzdem so berichtet wie er berichtet, dann kommt es ihm allein auf die Wirkung der Botschaft an sich an. Und damit verlässt er die Position des neutralen und ehrlichen Wissenschaftlers – obwohl er sie immer und immer wieder für sich beansprucht- und wird zum Aktivisten mit eigener Agenda. Er wäre in der Riege der bekannten alarmistischen Klimaforscher bei weitem nicht der einzige. Was die Sache nur schlechter und nicht besser macht.

In Würdigung dessen, drängt sich mir deshalb als sachkundigem Chronisten der Verdacht auf, dass Thomas Stocker ein würdiger Schüler des bereits verstorbenen Klimaforschers und (ebenfalls)– Aktivisten Stephen Schneider ist, der, seinerzeit Leitautor des IPCC seine Kollegen eindringlich zu folgendem Verhalten in der Öffentlichkeit ermahnte:  

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

An dramatischen Statements fehlt es in Stockers Vortrag nicht, ebenso erlaubte er sich und dem Publikum keinerlei Zweifel am Gesagten.

Daher bleibt Ihnen liebe Leser überlassen, zu entscheiden, ob Thomas Stocker eher ehrlich oder effektiv war.

Teil 1 finden Sie hier


[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten 

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

 URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden * – Ein Faktencheck

**Anmerkung I: Stocker verwendet den Begriff „Klimawandel“,ohne jede Erklärung, durchgehend als „vom Menschen gemacht“ bedeutend. Natürlicher Klimawandel heißt bei ihm „Klimavariation“.  Im Faktencheck folge ich dem nicht, sondern dem allgemein wissenschaftlichen Sprachgebrauch und unterscheide nur zwischen natürlichem und menschgemachtem Klimawandel.

Prof. Thomas Stocker wirft anderen Kollegen oder  Organisationen, die sich auf diese Kollegen beziehen, gelegentlich schon einmal Unkenntnis oder Verbreitung von Falschinformationen vor, wie z.B. bei seinem jüngsten Vortrag am 10.Mai 2016 in Vaduz oder in einem Interview der Schweizer Sonntagszeitung der SVP vom 12.6.16. In Vaduz behauptete er wenig Richtiges, vieles Zweifelhafte und diverses Falsches, darunter, dass die „Klimaskeptiker“ dem IPCC Team vor Veröffentlichung des letzten Berichtes nichts von ihren Bedenken oder anders lautenden Ergebnissen mitgeteilt hätten, der Diskussion also ausgewichen seien. Bei anderer Gelegenheit warf er der Schweizer Volkspartei (SVP) pauschal vor „wider besseres Wissen Falschinformationen“ zu verbreiten. Sich selbst aber bescheinigt er ..die Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft… zu tragen. Der folgende Faktencheck in zwei Teilen zeigt, wie wenig von Stocker Behauptungen stimmen.

Anmerkung II:

Es empfiehlt sich für den interessierten Leser zunächst einmal das Ton-Video mit allen Folien Stockers in Ruhe anzuhören bzw. –schauen. Und dann erst in den Faktencheck einzusteigen. Zur besseren Unterscheidung sind alle Äußerungen Stockers in Kursiv gesetzt, die Kommentare in Normal

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden[1]

Prof. Dr. Thomas Stocker, Leiter der Abteilung für Klima- und Umweltphysik des Physikalischen Instituts der Universität Bern und bis Ende 2015 vor kurzem Leiter der Arbeitsgruppe I (Die wissenschaftlichen Grundlagen) des IPCC, referierte am 10.5.16 auf Einladung der dortigen LIFE Klimastiftung in Vaduz über den Klimawandel und die Notwendigkeit diesen durch „Dekarbonisierung“ der gesamten Wirtschaft zu stoppen. Im Laufe seines Vortrages (hier) stellte Stocker viele Behauptungen über klimatische und zukünftige Veränderungen auf, sowie über deren Ursachen. Z.B ab Min 5:32 „der Einfluss des Menschen auf das Klimasystem ist klar“

Wie auch in den bisher 5 IPCC Berichten lieferte er jedoch keinerlei Beweise für  seine Behauptung dass

. „der Einfluss des Menschen auf das Klimasystem (ist) klar“ sei…

noch darüber, dass die Treibhausgase (Minute 18:10, siehe auch Abbildung 10) die ihnen unterstellte Wirkung wirklich hätten.

Stocker sprach zwar vielfach – insbesondere am Ende seines Vortrages- von „Evidenzen“ also Beweisen, nannte und lieferte aber merkwürdigerweise keine einzige dieser „Evidenzen“.  Solche Evidenzen wären z:b. begutachtete Fachpublikationen, die es jedoch mit der von Stocker behaupteten  klaren Aussage nicht gibt. Als Kläger oder Staatsanwalt, wäre er vor jedem Gericht damit durchgefallen. Denn jeder auch nur halbwegs fähige Verteidiger, aber auch jeder Richter, hätte seine Argumente als ungenügende Indizien gewertet und den Beschuldigten mindestens mangels Beweisen freigesprochen.

Klimaphänomene statt Beweisen

Stattdessen beschrieb Stocker detailliert verschiedene Klimaphänomene, wie den Anstieg der globalen Mitteltemperatur, den Rückgang von Gletschern (u.a. am Beispiel des Aletschgletschers) den Anstieg des Meeresspiegels, die behauptete Zunahme von Extremereignissen wie Hitzewellen und Starkniederschlägen, und ordnete diese Klimaphänomene ausnahmslos und nur aus Gründen einer nicht mal engen, Korrelation, dem Ausstoß von Treibhausgasen zu.

Folgte man Stocker und -bis auf wenige Ausnahmen- taten dies die etwa 100 Teilnehmer, dann hat es vor dem Beginn  seiner Betrachtung der Klimaphänomene (die meisten seiner Zeitreihen begannen um 1880) keinerlei „Klimawandel“ gegeben, und noch klarer: All die gezeigtenVeränderungen gingen – so Stocker – würden hauptsächlich auf den menschlichen Einfluss zurückgehen. Damit folgte er zwar der klimawissenschaftlich unhaltbaren Definition des United Nations Framework Convention on Climate Change (UNFCC) ohne diese fragwürdige Definitionsübernahme seinem Publikum auch nur im Ansatz zu erläutern. Das breite Publikum versteht aber immer noch und völlig zu Recht unter dem Begriff „Klimawandel“ eben den Wandel des Klimas. Daraus erklärt sich auch der irreführende Vorwurf vieler Klima-Alarmisten an die „Klima-Skeptiker“ diese würden bestreiten dass es einen Klimawandel überhaupt gäbe.

Klimavariabilität vs Klimawandel

Um evtl. späterer Kritik vorzubeugen und ohne den gewollten Eindruck im mindesten abzuschwächen, erwähnte Stocker zwar gelegentlich eine „natürliche Klimavariabilität“ sprach aber zwischendurch konsequent ausschließlich vom Klimawandel. Und ließ keinen Zweifel,

der würde für die Welt riskant sein, weil er fatale Konsequenzen habe

und

und der Mensch sei daran schuld

und

die Rettung sei einzig und allein die völlige Dekarbonisierung der Weltwirtschaft

Damit erwies er sich einmal mehr als treuer Aktivist für die IPCC Doktrin in der genau dieses Mantra (# 1 und # 2, Pariser Accord  2015 für # 3) die politische Vorgabe[2] für die gesamte Arbeit dieses politischen Gremiums ist. Seine Treue zum Auftraggeber darf auch nicht verwundern, denn immerhin arbeitet Stocker schon seit 1998 im IPCC tonangebend mit. Mit neutraler unabhängiger Wissenschaft hat diese rein politische Ausrichtung einer unbewiesenen Ergebnisvorwegnahme jedoch nichts zu tun. sondern ausschließlich mit Aktivismus, also eher mit dem Missbrauch von Wissenschaft.

Wegen der vielen Ungereimtheiten, Widersprüchlichkeiten und Halbwahrheiten, bis hin zu kompletten Falschaussagen, die Stocker unter Nutzung des Vertrauensbonus gegenüber einem renommierten Wissenschaftler ungerührt aussprach, ist es erforderlich, die wichtigsten seiner Aussagen einem Faktencheck zu unterziehen. Dieser erfolgzt doppelt, einmal in Form eines Videos, welches das Team vom Klimamanifest von Heiligenroth erarbeitete  (Sie finden es  ganz unten bzw. hier) und zum Zweiten in Form des vorliegenden Textes, der den Behauptungen Stockers Widerlegung bzw. Relativierung entgegenstellt.

„Nun, Mittelwerte aus einer zeitlich und räumlich variablen Grösse zu berechnen ist wirklich elementar[3].“

Fast alle Zeitreihen die Stocker für die verschiedensten Klimaphänomene zeigte, begannen um 1880 manchmal auch erst um 1900. Alles was davor war, existierte für Stocker nicht. Dabei sind die oft für Mensch und Tier einschneidenden klimatischen Veränderungen fast für das gesamte Holozän –also die letzten 10.000 Jahre-, sicher aber für die Geschichte der letzten 2000 Jahre bis in die Neuzeit hinein recht gut erforscht und dokumentiert. Dies zwar erst in jüngerer Zeit durch Erfassung und Übermittlung direkter instrumenteller Messungen, aber für die Zeit davor, durch Proxydaten – also Stellvertreterdaten- wie aus Sedimenten, Baumringen, Stalagmiten, Eisbohrkernen und weiteren Belegen wie z.B. Auffinden vom Baumresten in alpinen Hochlagen, in denen heute keine Bäume mehr wachsen, bis hin zu Klimainformationen gewonnen aus Kirchenbüchern.  Die so erschlossene Klimageschichte zeigt, dass frühere klimatischen Schwankungen häufig rascher und stärker waren, als wir sie aus den letzten 150 Jahren kennen. Diese wissenschaftlichen und oft veröffentlichten Fakten passen aber nicht in Stockers Strategie, die sich zum Ziel setzt ohne Zweifel festzulegen, dass der Mensch am Klimawandel nach der industriellen Revolution allein verantwortlich sei. Selbstredend wurden die zuvor erwähnten, den Menschen entlastenden Daten in Stockers Vortrag einfach übergangen.

Einschub: Zitat Klimaforschers und -Aktivisten Stephen Schneider, seinerzeit Leitautor des IPCC:

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

Und noch etwas fiel auf:

So gut wie keine der vielen Graphen die Stocker zeigte Fehler/Unsicherheitsmargen oder Fehlerbalken[4]. Obwohl die fast immer groß bis sehr groß sind. Und ebenso wenig informierte Stocker sein Publikum über die häufig viel zu geringe Anzahl und oft sehr mangelhafte Qualität der Daten, die zur Berechnung der verschiedenen Klimagrößen verwendet werden mussten, auch nicht ihre offensichtlich höchst ungleiche regionale Verteilung auf dem Globus.  Stattdessen beeindruckte er das Publikum mit großen Zahlen – sprach von „Millionen von Daten“ nannte diese „genügend und qualitativ hochstehend“ und dass sie erlaubten „statistisch robuste“ Aussagen (Min 13:50) zu machen.

Doch die Daten früherer Zeiten – etwa vor 1950- sind weder robust, noch zahlreich, noch gleichmäßig verteilt, sondern oft qualitativ schwach bis mangelhaft und nur für wenige Orte  verfügbar,.  Weil sich das auch nicht mehr ändern lässt, ist die verlässliche Rekonstruktion verlässlicher Zeitreihen mit möglichst geringen aber glaubwürdigen Unsicherheitsbändern alles andere als „elementar“. Im Gegenteil, es ist ganz hohe Schule unter sehr gekonnter Anwendung erprobter statistischer Messtechnik und ausgefeilter Methodik. Normale Ingenieure und Naturwissenschaftler wissen das und handeln seit jeher danach.  Offenbar aber nicht Klimatologen wie Herr Prof. Stocker und eine Reihe von IPCC Kollegen. Die wissen das nicht -und wenn doch- kümmern sich offensichtlich nicht darum.

Zwischen-Fazit:

Wenig vom Gesagten in Stockers Vortrag stimmte sachlich, oder ließ sich überhaupt belegen, wie er es behauptete, jedenfalls dann nicht, wenn man sich die Daten vor 1950 anschaut, für manche Größen gilt das sogar schon vor 1979 (dem Jahr ersten  Temperaturbestimmungen durch Satelliten) oder noch später – wenn man sich z.B. die Daten und deren Qualität für die Bestimmung „des Meeresspiegels“ ansieht. Und noch viel weniger stimmte dass, was Stocker verkündete, wenn man die Zeiten vor 1880 mit einbezieht. Wenn man jedoch die Klimavergangenheit nicht wirklich kennt, dass ist es irreführend, wenn man dann den Eindruck erweckt man könne darauf aufbauend die Zukunft projizieren. Ein Umstand der z.B. bei der Bestimmung der absoluten Mitteltemperatur der Erdatmosphäre deutlich wird, die noch vor wenigen Jahren mit 15°C festgestellt wurde und nun – ohne weitere Erklärung auf 14,76 °C abgesenkt wurde. Im Video des Klimamanifestes von Heiligenroth (hier) wird auf diese sponate „Abkühlung“ besonders eingegangen. Stocker vermied die Erwähnung dieser wichtigen Kenngröße gleich ganz.

Ob diese offensichtliche Irreführung des Publikums auf mangelndes Wissen des Herrn Stocker zurückzuführen ist, der ja die präzise und aussagefähige Berechnung dieser Größen als elementar ansieht, oder ob es schlichter Glauben an seine und die Fähigkeiten seiner Kollegen ist, spielt eigentlich keine Rolle. Falsch, tlw. grob falsch oder einseitig übertrieben sind viele dieser Aussagen auf jeden Fall. Das wollen wir an mehreren Beispielen zeigen.

Globale Mitteltemperatur

Beispiele:

Ab Min  7:56 und folgend werden mehrfach Zeitreihen der globalen Mitteltemperatur gezeigt und erläutert. So die (Neuere) Zeitreihe für die Nordhemisphäre und Südhemisphäre ab 1880 Min  8:15 O-Ton „Sie sehen hier die globalen Temperatur Messungen basierend auf Millionen von Temperaturdaten seit 1880..

Abbildung 1 . Zeitreihen der globalen Mitteltemperatur nach Stocker aufgeteilt in die Nord (rot)- und Südhemisphäre.(blau)

..Min 8:55 Sie sehen ganz klar einen Anstieg, wir können diesen Anstieg quantifizieren…..Im IPCC Bericht hatten wir die Zahl von 0,855 ° C Erwärmung von 1900  bis 2011 drin..

13:09 Das ist ein weiteres Bild.. ….der Klimawandel kann nicht festgemacht werden an einer globalen gemittelten Temperatur,  die niemand als solche erlebt, die ein mathematisches aber sehr nützliches Konstrukt ist, sondern Sie müssen auch Karten anschauen, wo dies möglich ist.

Abbildung 2 Darstellung der Temperaturzunahme  von 1901 bis 2012 geographisch verteilt… Stocker zeigt die Erwärmung „statistisch robust“ von 1901 bis 2012

Min 13:40 das ist die Karte die wir den politischen Entscheidungsträgern vorgelegt haben,.. sie zeigt die Temperaturtrends von 1901 bis 2012 in denjenigen Orten der Welt wo wir (13: 50) genügend qualitativ hochstehende Messungen haben.. …Min13:58 Die Welt ist nicht ganz farbig sie ist auch nicht ganz weiß, im Gegenteil wir können in den meisten Gebieten – die wichtig sind, wenn es um die Diskussion des Klimawandels geht, den Trend angeben  und (14:08) wir können diesen Trend robust angeben,…statistische Robustheit ist hier indiziert durch Kreuze (nicht erkennbar) ..14:18 mit Ausnahme des Nordatlantischen Ozeans, wo sie eine Abkühlung haben, haben sie überall eine statistisch signifikante Erwärmung  …. wir haben aber auch Regionen – dass muss man deutlich sagen, wo wir zu wenig Daten haben. (Anmerkung: Untertreibung des Jahres) um über die lange Periode von über 100 Jahren eine verlässliche Aussage zu machen..Trotzdem … 14:46 „Die Erwärmung des Klimasystems ist eindeutig“

Soweit einige der klaren Aussagen des Vortragenden Prof. Dr. Stocker

Was ist daran auszusetzen?

Nun, zunächst ist festzustellen, dass nur die Aussage ..von den Millionen Klimadaten“ zweifelsfrei feststeht und damit korrekt ist. Doch diese Aussage, allein dafür gedacht das Publikum gehörig zu beeindrucken, sagt für sich genommen überhaupt nichts aus. Jeder erinnert sich vielleicht an den etwas unfeinen Satz „..Millionen Fliegen können nicht irren“ .. tun es dann aber – wenn auch nur aus menschlicher Sicht- doch.

Nehmen wir ein Beispiel aus den Temperaturaufzeichnungen. Jede Wetterstation in den USA und den englisch dominierten Teilen der Welt wird 2 x täglich abgelesen (Max- und Min Temperatur). Daraus wir dann der Mittelwert gebildet. Ohne Mittelwertbildung erzeugt also jede Station pro Jahr 365 x 2 = 700 Messwerte. Nehmen wir 1850 als Beginn, so sind das bis z.B. 2010 160 Jahre. D,h von jeder Station dieser Art und Messdauer liegen  160 x 700 = 112.000 Daten vor. Bei nur 9 Stationen weltweit hätten wir die Million schon leicht überschritten. In Europa, das auf eine noch längere Messtradition als die USA zurückblickt kann, hat man überwiegend 4 Messwerte pro Tag abgelesen. Da genügten also schon weniger als 5 Stationen um über 160 Jahre die Million zu erreichen. D.h. insgesamt weniger als 15 Stationen liefern schon mehr als 2 Mio Messwerte. Es gibt aber viel mehr Wetterstationen, inzwischen über 7000. Doch reichen sie aus?

..doch es kommt noch schlimmer.

Da wir uns ja mit dem „Weltklima“ beschäftigen, dass es übrigens aus naturgesetzlichen Gründen ebenso wenig geben kann, wie eine Welttemperatur (es gibt nur Klimazonen von tropisch bis polar),  sollten wir auch Daten über allen Teilen der Welt verfügen. Und die über möglichst lange Zeiträume mit kontinuierlicher Messung. Dazu noch regional gleichmäßig verteilt. Aber an allem  hapert es gewaltig. Und lässt sich auch nicht mehr ändern. Vergangen ist vergangen! Die Welt ist mit 510 Mio km^2 Fläche riesig, und dazu noch zu 71% von Wasser bedeckt. Es nützt ja wenig bis nichts, wenn die Messstationen nur auf ein oder zwei Gebiete dieser  Welt konzentriert sind. Und es nützt auch wenig, wenn die Stationen intermittierend oder nur kurz ihre Arbeit verrichteten.  Aber genau so ist die Realität.

A

Abbildung 3 Das Video zeigt die Entwicklung der Zahl und der Verteilung der Wetterstationen, die zur Bestimmung der globalen Mitteltemperatur herangezogen wurden( Quelle climateaudit station di#200ADF1). Deutlich ist deren geringe Anzahl –besonders in den Jahren vor 1950- zu erkennen, ebenso wie ihre starke Konzentration auf faktisch nur zwei Gebiete. Nämlich Europa und die USA. Der Rest der Welt blieb weitgehend unbeobachtet.

Insgesamt enthält die NASA GISS Datenbank, hervorgegangen aus dem (GHCN) Global Historical Cimatology Network 7364 Datenreihen von Wetterstationen weltweit[5]. Einige gehen bis 175 Jahre zurück, andere nur wenige Tage.

Für Klimazwecke sind aber nur Stationen mit

a) kontinuierlicher ununterbrochener Aufzeichnung, möglichst am selben Ort mit derselben Ausstattung (kommt leider kaum vor) brauchbar und

b) mindestens ab 1880 (je früher je besser)[6].

Nach den Untersuchungen von F.K. Ewert anhand der NASA GISS Listen von 2010 lieferten aber nur 1086 Stationen über 100 oder mehr Jahre kontinuierlich Temperatur-Daten. Und davon lagen ca. 80 – 85 % in den USA und Europa. In den Folgejahren kamen zwar rd. 6000 Stationen dazu, von denen aber nur weitere 757 Stationen Daten aufwiesen, die für Langzeitvergleiche, dank ununterbrochener Aufzeichnungs-Dauer, tauglich sind. Das ist zwar schon eine bessere Datenbasis, aber lange noch keine gute, wenn man allein an die riesige Landfläche von 146 Mio km^2 denkt deren Klimaentwicklung es zu beurteilen gilt.

Allein deshalb eine erste Feststellung:

Keine Bauvorschrift eines entwickelten Landes würde es zulassen, dass anhand von Daten dieser dürftigen Qualität (wofür man aber den Altvorderen keinerlei Vorwürfe machen kann) jemals eine Brücke oder eine Bahn, oder ein Auto oder gar ein Flugzeug gebaut, geschweige denn für den Verkehr freigegeben werden dürfte. Die IPCC Klimaforscher aber erlauben sich ein solches Vorgehen und – noch schlimmer- es wird Ihnen geglaubt, dass sie spärliche Daten mit mangelhafter Qualität in solche (vermeintlich) hoher Qualität umrechnen und damit ganze Gesellschaften aus den Angeln heben. Ihre Computer rechnen zwar brav und schnell das aus, was ihnen eingegeben wird. Richtiger wird das Ergebnis dadurch nicht, nur schneller falsch

Abbildung 4 zeigt die Anzahl der genutzten Wetterstationen mit kontinuierlicher Aufzeichnungsdauer aus der NASA-GISS Datei von 2010 und ihr jeweiliges Startjahr.  Es gab zwar noch mehr Stationen mit diesen Gründungsjahren, aber deren Betriebsdauer war für Klimabeobachtungen zu kurz.  Daten NASA-GISS;Auswahl K.F. Ewert; Grafik: M.Limburg

Flächendeckung

1880 1900 1920 1940 1960
Anzahl 116 883 1093 1280 1602
80 % davon USA & Europa 93 706 874 1024 1282
Rest der Welt 23 177 219 256 320
für 1 Station im Rest der Welt in Mio km ^2 4,21 0,55 0,45 0,38 0,30
ergeben Ø 4 Station für Russland 1 Station für Kenia 1 Station für Schweden 1 Station für Japan 1 Station für Italien

Tabelle 1 Sie zeigt, welche Flächen bei angenommener regionaler Gleichverteilung für den Rest der Welt von einer Wetterstation abgedeckt gewesen wäre.  Die Zahlen sprechen für sich.

Und wie war es auf den Ozeanen, z.B dem Nordatlantik mit dem weißen Fleck?

Auf den Ozeanen – immerhin zu 71 % die Erdoberfläche bedeckend-  gab es außerhalb der Hauptschifffahrtsrouten so gut wie keine Messungen. Mit am dichtesten befahren war und ist die Nordatlantik Route, die bei Stocker aber einen weißen Fleck zeigt.

Auf dem Meer wird jedoch nicht die Lufttemperatur sondern vorrangig die SST gemessen. SST steht dabei für Sea Surface Temperature . d.i. lt. Definition die Wassertemperatur  1 m  unter der Wasseroberfläche. Sie wird als Proxy für die eigentlich gewünschte Lufttemperatur verwendet, weil sie sich wg. der großen Wärmeträgheit des Wassers weniger erratisch ändert als diese. Sie ist aber nicht dasselbe, sondern unterliegt  eigenen anderen Beeinflussungen, die jedoch völlig unbeachtet blieben. Deswegen ist die 1:1 Übertragung eigentlich nicht zulässig und erhöht nur die tatsächliche Unsicherheit.  Temperaturmesssungen der Weltmeere waren bezogen auf die Fläche noch weit spärlicher vorhanden als an Land. Ihre unvermeidbaren Unsicherheiten waren infolgedessen noch deutlich größer als die vom Land.

Abbildung 5 Darstellung der gemeldeten SST´s (Sea Surface Temperature, ein Proxy für die noch viel schlechter bekannte Meeres-Lufttemperatur, die man eigentlich für Vergleichszwecke benötigt) für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die extrem dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit sehr großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Von wegen statistisch robust!

Inzwischen gibt es auch einige begutachtete Papers[7],[8],[9]  -unter anderem vom Verfasser dieser Zeilen-, die nachweisen, dass die unvermeidbaren Unsicherheiten, die sich durch systematische Messfehler ergeben, welche zwar der Art nach bekannt, aber weder in der Größe noch Richtung korrigierbar sind,  bei der Berechnung der Zeitreihe der globalen Mitteltemperatur deutlich größer als ± 1,084 ° C bis ± 2,084 ° C sind. Vermutlich sogar ein Vielfaches davon. Sie werden zudem trichterförmig größer, je weiter man in die Vergangenheit zurückgeht.

Wenn sich das bestätigt, und daran kann eigentlich kein Zweifel bestehen, denn die in den papers verwendeten statistischen Methoden sind klassisches Ingenieurswissen, seit über hundert Jahren bekannt und wurden seitdem in allen Maschinen- und  Bauwerkskonstruktionen überaus erfolgreich angewendet, dann ist klar, dass auch jegliche Zuordnung irgendwelcher Ursachen der Änderung der globalen Mittel-Temperatur der letzten 150 Jahre nur spekulativ sein kann.

Und weiter kann daher jeder seriöse Experte wohl nur den Schluss ziehen, dass die im Bild 2 angegebenen Kreuze die für die „Robustheit“ der Aussage stehen sollen-nach allen Regeln der Statistik- nur reine Spekulation sind.

Gab es eine Erwärmung?

Bei Anwendung der grundlegenden Regeln für den Umgang mit unsicherheitsbehafteten Daten,  ist aus diesen Daten nicht mal festzustellen, ob es überhaupt eine Erwärmung gegeben hat. Gäbe es die Einzelwertanalysen nicht, wie sie dankenswerter Weise Karl Friedrich Ewert[10] angefertigt hat, er hat dafür die o.a. angeführten über 1839 Langzeit-Einzelzeitreihen  ausgewertet-  dann wären wir nur auf Proxydaten angewiesen. So aber zeigt sich, dass die Temperatur der Atmosphäre der Erde rhythmischen Schwankungen unterworfen ist, deren Zyklen,  anders als die Absolutwerte, auch nicht im Rauschen verschwinden, sondern in den Zeitreihen klar identifizierbar bleiben.

Abbildung 6 : Zeitreihen des Verlaufs der Temperatur nach verschiedenen Quellen. Grafik F.K. Ewert 

Als Fazit aus all dem ergibt sich:

1.     Von robusten gar qualitativ hochstehenden Daten (O-Ton Stocker) kann überhaupt keine Rede sein.

2.     Eine „elementare“ Aufgabe ist deren Auswertung keineswegs

3.     Weder sind präzise Angaben über die absolute noch relative (Anomalie) historische  globale Mitteltemperatur der Erde vor der Satellitenerkundung (1979) möglich, jedenfalls dann nicht, wenn man sich an die klassischen Prüf- und Bewertungsverfahren von Messergebnissen der Ingenieur/Naturwissenschaften hält.

4.     Qualitativ wie quantitativ vernünftig auswertbar sind nur die einzelnen Zeitreihen, wie es F.K. Ewert vorschlug. Das erfordert allerdings einen Zeitaufwand den die Verantwortlichen scheuen, zumal das Ergebnis ihnen nicht passen dürfte.

5.     Deutlich erkennbar und auch metrisch auswertbar sind hingegen Zyklen in den Zeitreihen (man sehe z.B hier)

6.     Diese unterscheiden sich in Nichts von den klimatischen Zyklen früherer Zeiten

7.     Ein Einfluss von Treibhausgasen insgesamt, insbesondere von CO2, ist in keiner der Zeitreihen erkennbar. Schon deren Korrelation mit den Klimagrößen ist auf allen Zeitskalen denkbar schlecht bis nicht vorhanden

Abbildung 7 : Zeitreihen des Verlaufs der globalen Temperatur, der CO2 Konzentration und der Portogebühren für US Briefe,  nach verschiedenen Quellen.

Zu vergleichbaren Aussagen kommen daher auch die schon  erwähnten Autoren J.D´Aleo und A. Watts in ihrer 110 seitigen Analyse: Sie schreiben u.a in ihrer Summary for Policymakers auf Seite 4

 

1. Instrumental temperature data for the pre-satellite era (1850-1980) have been so widely, systematically, and unidirectionally tampered with that it cannot be credibly asserted there has been any significant “global warming” in the 20th century.

 

2. All terrestrial surface-temperature databases exhibit very serious problems that render them useless for determining accurate long-term temperature trends.

3. All of the problems have skewed the data so as greatly to overstate observed warming both regionally and globally.

Teil 2 folgt in Kürze

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat


Fußnoten und Quellen

[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Ein 106 Jahre altes Foto lässt Alarmisten über die Pariser Überschwemmung „alt aussehen“

Bilder, aufgenommen von der französischen Fotografin Julien Knez, kontrastieren zwei Fluten brillant und zeigen, dass hohe Wasserstände in der aktuellen Historie Frankreichs, Zweifel an die Ansprüche der globalen Erwärmung aufwirft, für die aktuellen Überschwemmungen verantwortlich zu sein.

Julien Knez

La crue de 1910 rencontre celle de juin 2016 #ParisCrue (Diaporama) http://bit.ly/1ZmwgKS 

Quelle: Golem 13.fr, Gare Saint-Lazare. Janvier 1910 – 2016

Während die einen die globale Erwärmung als Schuldigen herausstellen, war auf WuWT ein Bericht zu lesen, dass die „Große Flut von Paris im Jahre 1910 Wasserstände auf mehr als 20 Fuß (ca. 8,6 m) über dem normalen ansteigen sah, lange bevor die globale Erwärmung ein Problem war.

„Vor mehr als 100 Jahren stieg die Seine auf einen Rekord von mehr 8,6 m (ca. 20 Fuß) über dem üblichen Niveau, und verursachte eine Katastrophe die als die große Flut von Paris 1910 bekannt wurde.“ Schrieb Kristine Mitchell in einem Beitrag für mymodernmet.com am Juni 6.

***

Die Links zeigen sehr eindrucksvolle Bilder der Überschwemmungen in Paris, Einst und jetzt, hier für unsere Leser nochmals zusammengefasst:

bit.ly/1ZmwgKS

mymodernmet.com

***

Quelle Golem 13.fr, Quai des Grands-Augustins. January 1910 – 2016

Unter Berücksichtigung sowohl der 1910er Flut und der jüngsten Flut war Frankreich Opfer von sechs großen Überschwemmungen seit 1892:

die 1892 Mont-Blanc-Gletscher Flut, die große Flut von 1968, der Dezember 1981 Sturm– und den 2010 Var Überschwemmungen.

Einige sind immer noch scharf darauf, diese Flut auf die globale Erwärmung zu schieben, um „die Anstrengungen der Klima Wissenschaftsgemeinschaft zu beschleunigen“ um den Link zwischen extremer Wetterereignisse und Klimawandel zu ziehen, schrieb Adam Vaughan in einem Beitrag für The Guardian, während solche Ereignisse frisch in der Öffentlichkeit und den Köpfen der Politiker sind.“

Die niederländische Wetteragentur und die University of Oxford veröffentlichten zusammen einen Bericht, der aussagt ihr Team habe „gefunden, dass ein Ereignis wie dieses, jetzt rund 80 Prozent häufiger als in der Vergangenheit für das Seine Becken zu erwarten ist, wegen Änderung des Klimas“.

Nicht jeder ist so schnell dabei, die globale Erwärmung verantwortlich zu machen.„Diese Aussage fasst alles, was so falsch ist über diese fehlerhafte Studie zusammen. Es hat Eile, jedes schlechte Wetterereignis aus politischen Gründen als die globale Erwärmung zu tadeln und die Wissenschaft leidet als Folge. „Paul Hilton von notalotofpeopleknowthat.wordpress.com sagte das als Reaktion auf Vaughans Aussage in einem am Samstag veröffentlichten Artikel:“ Wenn Sie auf dieses Ziel [AGW ist schuld] eingestellt sind, sind Sie zur Bestätigung verpflichtet, zusammen mit der Bestimmung, widersprüchliche Beweise zu ignorieren.“

Homewood geht weiter zu sagen, das die Studien, welche die französische Flut mit der globalen Erwärmung verknüpfen, unter Verwendung von Computermodellen gemacht wurden – die „unter Feuer bezüglich ihrer Zuverlässigkeit“ gekommen sind – „Alles, was Sie tun müssen, ist dem Modell zu sagen, dass die globale Erwärmung zu schweren Niederschlägen führt und „alles ist klar“!

Erschienen auf The Daily Caller am 16.06.2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/06/16/106-year-old-photo-makes-global-warming-alarmists-think-twice-about-paris-floods/




Deutschland erreicht die Grenzen der Erneuerbaren

An einem Zeitpunkt in diesem Monat lieferten die erneuerbaren Energiequellen kurz nahezu 90 Prozent der benötigten Energie in Deutschland Stromnetz. Aber das bedeutet nicht, dass die viertgrößte Wirtschaft der Welt nahe dran ist, mit Null-Kohlenstoff-Strom betrieben zu werden. In der Tat gibt Deutschland dem Rest der Welt eine Lektion, in wie viel schief gehen kann, wenn Sie versuchen, Kohlenstoff-Emissionen zu reduzieren, indem sie viel Windkraft und Photovoltaikzellen installieren.

Das Video zeigt die überlagerte EE-Strom-Einspeisung zeitgleich, aber nacheinander, für insgesamt 12 europäische Länder für das erste Quartal 2015. Deutlich zu sehen ist, dass die Täler sich kaum auffüllen, egal wie viele Länder hinzuaddiert werden. Nur die Spitzen werden überproportional höher. Damit ist einmal mehr belegt, dass die Behauptung der EE-Befürworter, dass bei Flaute in einem Land die Stromproduktion aus einem anderen Land zum Ausgleich verwendet werden kann, nicht zu halten ist. In der Flaute fehlt Strom, im Sturm ist er u.U. im Überfluss vorhanden. Europaweit und zeitgleich.

Nach Jahren des Rückgangs stiegen die Kohlendioxid-Emissionen in Deutschland im Jahr 2015 leicht an, vor allem, weil das Land viel mehr Strom produziert, als es braucht. Das geschieht, weil, auch in Zeiten, in denen erneuerbare Energien fast alle Energie ans Netz liefern kann, die Variabilität dieser Quellen es erfordert, dass Deutschland die konventionellen Kraftwerke im stand-by halten muss. Und da Deutschland seine Kernkraftwerke auslaufen lässt, verbrennen die anderen Kraftwerke in erster Linie „schmutzige Kohle“.

Jetzt ist die Regierung dabei ihre Energiestrategie, bekannt als Energiewende, neu zu starten. 2010 wurde sie in der Hoffnung, den Anteils des Landesstromes, der aus erneuerbaren Energien kommt, dramatisch zu erhöhen und die Kohlendioxid-Emissionen des Landes insgesamt auf 40 Prozent unter das Niveau von 1990 bis 2020 zu drücken (siehe „Das große deutsche Energie Experiment„). Was als nächstes geschieht, wird nicht nur für Deutschland kritisch sein, sondern auch für andere Länder die versuchen zu lernen, wie man am besten mehr Wind und Solar Online voranbringt, vor allem, wenn sie es ohne Atomkraft tun möchten.

Einige Aspekte der Energiewende waren erfolgreich: Auf erneuerbare Quellen entfielen fast ein Drittel des in Deutschland verbrauchten Stroms im Jahr 2015. Das Land ist jetzt der weltweit größte Solarmarkt. Deutschlands Kohlendioxid-Emissionen waren im Jahr 2014 um 27 Prozent niedriger als das Niveau von 1990.

Eine Expertenkommission wurde durch den Minister für Wirtschaft und Energie ernannt, diese sagten jedoch, dass das 40-Prozent-Ziel bis zum Jahr 2020 wahrscheinlich nicht erreicht werden kann. Und die Energiewende hat eigene Probleme verursacht. Da fossile Kraftwerke die Stromproduktion als Reaktion auf ein Überangebot nicht leicht drosseln können, gibt es an sonnigen, windigen Tagen im System manchmal so viel Energie, dass der Preis ins Negative geht – in anderen Worten, die Betreiber von großen Kraftwerken, die meisten davon laufen mit Kohle oder Erdgas, müssen gewerblichen Kunden den Strom zahlen Strom, um ihn zu verbrauchen. Diese Situation ist vor kurzem auch in Texas und Kalifornien eingetreten (siehe „Texas und Kalifornien haben zu viel Renewable Energy„), als die Erzeugung von Solarstrom ein Maximum erreichte.

In der Hoffnung, dieser Art von Problemen zu lösen, erwartet das Parlament in Deutschland, dass die Regierung die Subvention für erneuerbare Energien bald beseitigt. Diese ist als Einspeisevergütung bekannt, die das Wachstum der Wind- und Solarstromerzeugung weitgehend gepusht hat. Anstatt die Produktion von Strom durch Solar- oder Windkraft zu subventionieren, will die die Regierung ein Auktionssystem einzurichten. Stromproduzenten bieten für Projekte, um erneuerbare Energien bis zu einer Kapazität zu bauen, die von der Regierung festgelegt ist. Die daraus resultierenden Preise für Strom aus diesen Anlagen, werden durch den Markt bezahlt, anstatt durch die Regierung fix festgelegt zu werden.

Das Auktionssystem ist konzipiert, um die Wachstumsrate für neu gebaute erneuerbaren Energien zu reduzieren und soll Deutschland davon abhalten, zu viel Strom zu produzieren. Es mag wie eine einfache Möglichkeit erscheinen, aber das Problem des Überangebots zu lösen wäre, überschüssige Kraftwerke zu schließen, vor allem diejenigen, die Kohle verbrennen. Aber die Kohlekraftwerke werden nicht nur verwendet um die Perioden zu glätten, wenn Wind und Sonne nicht verfügbar sind, sie sind auch lukrativ und damit politisch schwer zu schließen. Da das deutsche Recht für erneuerbare Energien einen Einspeisevorrang in das das deutsche Netz vorschreibt, kommt der in Deutschland überschüssige Strom, der zu den europäischen Nachbarn exportiert wird, in erster Linie aus Kohlekraftwerken. Im vergangenen Herbst hat die deutsche Tochter des schwedischen Energiekonzerns Vattenfall ein 1.600-Megawatt Kohlekraftwerk in Betrieb genommen, das seit acht Jahren im Bau war, trotz der Opposition von den Politikern, Umweltorganisationen und Bürger, die Kohlekraftwerke beseitigt sehen wollen.

Einen hohen Preis auf Kohlenstoff-Emissionen zu setzen, würde die Stilllegung der deutschen Kohlekraftwerke beschleunigen. Aber Europa-Emissionshandelssystem wurde entwickelt, um einen europaweiten Markt für den Handel mit Genehmigungen für Kohlenstoff-Emissionen zu schaffen, ist eine Bürde. Die Preise für die Genehmigungen sind so niedrig, dass es wenig Anreiz für Stromerzeuger gibt, schmutzige Kraftwerke herunterzufahren.

Ebenfalls hilfreich wäre eine Europaweites „Supernetz“, das es ermöglicht, erneuerbare Energie leicht über die Grenzen hinweg zu transportieren, wodurch die Notwendigkeit reduziert werden würde, den intermittierenden Strom von Sonne und Wind durch eine zuverlässige, stets auf fossilen Kraftwerken Energiequelle zu ergänzen.

„Wenn Sie fluktuierende erneuerbare Energie nutzen wollen, müssen Sie die Netze in ganz Europa aufrüsten“, sagt Daniel Genz, ein Politikberater bei Vattenfall. Anstrengungen, diese Netze zu bauen sind im Gange, aber sie werden teuer sein: zwischen 100 Mrd. Euro und 400 Mrd. Euro, nach einem Bericht November 2015 vom E-Highway2050, der von der Europäischen Union gebildet wurde um ein gesamteuropäisches Stromnetz zu planen.

Erschienen auf Massachusetts Institute of Technology, Technology Review, Energy am 24. Mai, 2016

[MIT, Martin ist Pro-Erneuerbare und für Nuklearenergie (in seinem Buch) und versucht das deutsche Debakel hiermit aufzuhalten; der Übersetzer]

Übersetzt durch Andreas Demmig

https://www.technologyreview.com/s/601514/germany-runs-up-against-the-limits-of-renewables/