1

Warum werden Sonne und Kosmos bei der Berechnung künftiger Erdtemperaturen unterschätzt?

Einführung

Allerdings kann die Sonne auch viel weniger Energie pro Zeiteinheit emittieren, dies wird aber verschwiegen. Dadurch werden die Bürger irregeführt und ihre Schuldgefühle angeheizt.

Es gibt etwa 30 Astrophysiker, die behaupten, dass das Klima durch die Sonne bestimmt wird. Das stimmt mit der Aussage des NIPCC (Nongovernmental International Panel on Climate Change) überein, wonach die Natur und nicht menschliche Aktivität, das Klima bestimmt. Das Dogma der „menschgemachten Klimaerwärmung“ hat sich mittlerweile aber derart verhärtet, dass viele Astrophysiker um ihre Karriere fürchten müssen, wenn sie andere Überzeugungen vertreten.

Im Folgenden werden wir nicht auf die Aussagen der rund 30 Astrophysiker eingehen, sondern uns auf die Veröffentlichungen von Prof. Dr. N. Scafetta, Prof. Dr. Valentina Zharkova und Dr. H. Abdussamatov konzentrieren. Diese weisen nach, dass menschliche Aktivität keinen oder nur einen minimalen Einfluss auf den Klimawandel hat. Zudem fügen wir die Studien von Irina Kitiashvili (NASA) über die Entwicklung zukünftiger Sonnenzyklen bei. (Referenzen am Schluss.)

Sonnenzyklen im Lauf der Jahrhundert

Abb. 1 ist der Veröffentlichung von Dr Abdussamatov vom Februar 2011 entnommen. Die obere Kurve gibt die „Total Solar Irradiance“ d.h. die gesamte Sonneneinstrahlung seit 1600 an. Die untere Kurve stellt die sich verändernde Sonnenflecken-Aktivität dar. In Zeiten geringer Sonnenflecken-Aktivität ist die auf die Erde treffende Energiemenge besonders niedrig. Man spricht dann von „Solar Minimum“. In den letzten 400 Jahren gab es drei Solar-Minima.

Abb. 1: TSI (gesamte Sonneneinstrahlung in Watt pro Quadratmeter) und Anzahl Sonnenflecken sowie Abschätzung der künftigen Entwicklungen (gestrichelte Linie)

Die Forschungsresultate von Abdussamatov aus dem Jahr 2011 stimmen mit denjenigen von Scafetta und Kitiashvili (NASA) aus dem Jahr 2019 überein. Es gibt mehrere TSI-Messmethoden, und nicht alle Wissenschafter kommen zu identischen Ergebnissen. Interessant ist aber, dass Scafetta von einer Zunahme der emittierterten Sonnenenergie bis zum Jahr 2000 und von einer anschliessenden Abnahme spricht. Das deckt sich mit den neuesten Resultaten von Kitiashvili (NASA), die eine markante Reduzierung der Sonnenflecken für die Jahre 2020 bis 2032 prognostiziert (nach ihrer Berechnung des Sonnenzyklus 25). Dies ist gleichbedeutend mit einer Reduktion der emittierten Sonnenenergie, was einen Temperaturrückgang auf der Erde gleichkommt. Gemäss NASA muss sogar mit einem „Grand Solar Minimum“ gerechnet werden, das mit dem sog. Dalton-Minimum der Jahre 1790 – 1820 vergleichbar sei.

Weitere Studien von Zharkova et al. erweitern die TSI-Messungen mit den Oszillationen des Sonnenmagnetfeldes und rechnen mit einem „Grand Solar Minimum“, das im Jahr 2020 beginnen und bis ins Jahr 2055 dauern wird. Dieses „Grand Solar Minimum“ ist mit dem „Maunder-Minimum“ vergleichbar. Damals war das Klima besonders kalt, weshalb man von einer „Kleinen Eiszeit“ spricht. Besonders interessant ist, dass dieses Grand Solar Minimum mit dem sogenannten Suess/de Vries-Sonnenzyklus korreliert, der eine Periode von 208 Jahren aufweist. Eine weitere Übereinstimmung ergibt sich mit dem „Super-Grand Solar Cycle“ nach Zharkova, der eine Periode von 1950 Jahren hat.

Um wie viel wird TSI abnehmen?

Viele Astrophysiker rechnen beim „Grand Solar Minimum“ mit einer gleich grossen Abnahme wie die frühere Zunahme. Entscheidend ist aber auch die Dauer des Minimums. Das Dalton-Minimum dauerte nur 30 Jahre, das Maunder-Minimum hingegen 70 Jahre. Je länger die Periode ist, umso tiefer wird die Temperatur ausfallen.

In der Literatur (s.Referenzen Zharkova) wird die Zunahme der von der Sonne emittierten Wärmeleistung d.h. die Energie in Joules pro Sekunde seit dem letzten Maunder-Minimum bis zum Jahr 2000 mit einem Wert von 1 bis 1,5 Watt pro Quadratmeter angegeben. Abdussamatov gibt den viel höheren Wert von 6 W/m2 an. Die Wissenschaft ist sich in diesem Punkt also noch nicht einig. Wir gehen für unsere Untersuchungen vom kleinsten Wert von 1 W/m2aus.

Was bedeutet die Abnahme der Sonnenwärmeleistung um 1 W/m2 für die globale Erdtemperatur?

Die Energieflüsse im System von Atmosphäre und Erdoberfläche lassen sich anhand einer einfachen Energie-Bilanz eruieren. Die gesamte Wärmeabnahme wird berechnet, indem der Querschnitt der Erde mit 1 W/m2 multipliziert wird. Bei einem 11-Jahreszyklus (Schwabe-Sonnenzyklus) lässt sich eine Abnahme der Wärmeleistung von 4.4 mal 1022 Joule errechnen.

Danach wird die mittlere Temperaturabnahme der Gesamtatmosphäre unter dem Einfluss der Gesamt-Wärmereduktion errechnet. Diese Temperatur-Reduktion wird dann korrigiert, indem die planetare Albedo und die Absorption an der Erdoberfläche berücksichtigt wird. Dabei werden die IPCC-Strahlungsbilanzangaben nach Kiehl und Trenberth zugrunde gelegt.

Die Masse der Atmosphäre beträgt 5.15 mal 1018 kg und die Wärmekapazität der Luft ist 1kJ/kg. Daraus wird die Temperaturabnahme mit 8, 5 °C errechnet. Nach den IPCC-Strahlungsbilanzen der Erde beträgt das planetare Albedo 30 %, die Erdoberfläche absorbiert 50 % der Wärme und die Atmosphäre absorbiert 20 %. Es ergibt sich also für die Atmosphäre eine globale Temperaturabnahme von rund 1.7 °C bei einer TSI-Abnahme von nur 1 W/m2.

Nach Scafetta nimmt der TSI seit dem Jahre 2000 ab. Nach den Satellitenmessdaten nimmt die globale Erdtemperatur dagegen erst seit 2016 ab. Dieser Unterschied ist nicht verwunderlich, wenn man die Wärme-Pufferfunktion der Meere berücksichtigt. Im Beitrag II haben wir bereits auf die massgebende Rolle der Meere hingewiesen.

Fazit

Die Mainstream-Klimatologen haben die Rolle der Sonne beim Klimawandel zu wenig berücksichtigt und ihr Augenmerk einzig auf die Treibhausgase gerichtet. Es ist ein naiver Fehlschluss zu behaupten, die gleichzeitige Zunahme der Erdtemperatur und des Treibhausgas-Ausstosses seien kausal voneinander abhängig. Es gibt keine experimentellen Nachweise dafür und die Berechnungen der „Micky-Mouse-Modelle“ (siehe Beitrag II) sind unzuverlässig.

Astrophysiker, die nicht nur die Erd-, sondern auch die kosmischen Verhältnisse berücksichtigen, erwarten in den nächsten Jahren eine ähnliche Entwicklung wie bei den seinerzeitigen Maunder- resp. Dalton-Minima. Ob die Astrophysiker/Klimatologen oder die Mainstream-Klimatologen recht haben, wird sich recht bald erweisen.

Unsere nächstfolgenden Beiträge werden sich mit Früh-Indikatoren auseinandersetzen, welche die These der zu erwartenden Abkühlung um 1 bis 1,5°C untermauern. Zudem betrug die Erdtemperaturerhöhung seit des Maunder-Minimums bis zum TSI-Maximum im Jahr 2000 nur rund 1°C. Nach dem IPCC müsste die Erdtemperaturerhöhung, wegen der Erhöhung der Treibhausgaskonzentration, viel höher sein, da die Erhöhung von rund 1°C bereits allein durch die Sonne verursacht wird.

F.Ferroni, Dipl.Ing.ETH
Präsident NIPCC-SUISSE

Referenzen

Abdussamatov,H.I., Bicentennial Decrease of the Total Solar Irradiance Leads to Unbalanced Thermal Budget of the Earth and the Little Ice Age, Applied Physics Research , Vol4.No.1; February 2012

Kitiashvili, I., Solar Activity Forecast for the Next Decade, Presentation 2019 (siehe Anhang oder Link)

Scafetta, N, Wilson, R. C., Comparison of Decadal Trends among Total Solar Irradiance Composites of Satellite Observations, Advances in Astronomy, Volume 2019, Article ID 1214896

Zharkova, V.V., Shepherd,S.J., Zharkov, S.I., and Popova, E., Oscillations of the baseline of solar magnetic field and solar irradiance on a millennial timescale,www.nature.com/scientificreports, June 2019

Der Beitrag erschien zuerst auf dem Schweizer Blog Carnot-Netzwerk hier




Googles Such-Einstellung gegenüber konservativen News-Seiten wurde quantifiziert

Abstrakt

Der Prozentsatz des Domainverkehrs, der von Google Search ausgewiesen wird, abgesehen von Recherchen nach Handelsmarken (PGSTN), liegt in oder um den Bereich 25% -30% für eine breite Klasse von Web-Domains. Diese Hypothese wird durch die Berechnung der Korrelation zwischen der Popularität von Webseiten für Nachrichten / Meinungen und ihrer PGSTN getestet, und befindet sich in der Nähe von Null. So kann PGSTN streng genutzt werden, um die vorsätzlich Suchalgorithmen der Google-Suche zu erkennen und sogar zu quantifizieren. Der Intentional Bias [die absichtliche bzw.  vorsätzliche Ausrichtung – ist dem Sinn nach doppelt gemoppelt, denn eine Ausrichtung / Einstellung ist immer absichtlich; daher gilt das auch für „Bias“ allein; Danke an unseren Leser Herrn Fred F. Müller – update vom 07.10.17] ist der Bias, der durch interne Google-Vorgaben eingeführt wurde und unabhängig von externen Faktoren ist, wie die Dominanz [~ Häufigkeit] von bestimmten Standpunkten im Web. Hier wird die PGSTN-Methode für die absichtliche Bias-Erkennung bei der Klimadebatte und für den allgemeinen politischen Diskurs angewendet.

Die Google-Suche ist äußerst voreingenommen für Klimaschutz und gegen den Realismus des Klimas. Die PGSTN-Bereiche für Klima-Realismus und Klima-Alarmismus überlappen sich nicht einmal! Einige der wichtigsten klimarealistischen Domains, darunter die nur wenig umstrittene judithcurry .com , haben eine so niedrige PGSTN, dass sie als auf der „schwarzen Liste“ von Google gelistet angesehen können.

Es wurde herausgefunden, dass die Google-Suche links / liberale Domains bevorzugt und gegen konservative Domains eingestellt ist – mit einer Wahrscheinlichkeit von 95%. Weiterhin haben bestimmte Extrem-Links-Domains so ein hohes PGSTN, dass der Verdacht besteht, dass sie für eine prominente Platzierung handverlesen wurden. Bestimmte respektierte konservative Domänen sind auf der schwarzen Liste.

 

[Hinweis zur Übersetzung:

Für die Abkürzung: PGSTN habe ich nur weitschweifige Erklärungen gefunden. Es scheint mir, dass das die Abkürzung für bestimmte Verfahren / Begriffe in der Statistik ist. Im Sinn der Studie kann man es mit „Häufigkeit der Ergebnisanzeige“ gleichsetzen, oder wie im ersten Satz: „Prozentsatz des Domainverkehrs“ – Vielleicht weiß einer unserer Leser näheres.]

Einführung

Links-liberale politische Bias in der Google-Suche wurden seit Jahren bemerkt. Siehe Robert Epstein et al., Eine Methode zur Erkennung von Bias in Such-Rankings, mit Nachweis der systematischen Bias im Zusammenhang mit der Präsidentschaftswahl 2016 ; Todd Dunning’s 2015-09-15 Kommentar ; Leo Goldstein, Warum sind Suchmaschinen so feindlich gegen den Realismus?

Diese Beobachtungen haben die Frage nicht vollständig gelöst, ob die Bias vorsätzlich so eingestellt sind oder den voreingenommenen Webinhalt widerspiegelte. In letzter Zeit zeigen die offiziellen Suchbewertungsrichtlinien von Google eine vorsätzliche Ablehnung gegen den Klimarealismus. Immerhin bestätigte ein ehemaliger Google-Mitarbeiter eine absichtliche Ablehnung von „allem Nicht-PC“  [nicht-political correctness] durch das Google Search-Team.

Dieses Studie verwendet veröffentlichte SEO-Daten [Suchmaschinen Optimierungs-Daten] aus mehreren Quellen, darunter BrightEdge Research, 2017: Organische Suche ist immer noch der größte Kanal und aktualisiert seinen Bericht 2014 . Von nun an, bedeutet der Begriff “ Bias“ vorsätzliche Vorspannung. Diese Studie formuliert, begründet und wendet eine quantitative Methode der Bias-Erkennung in Google Search an.

Methoden

Es ist bekannt, dass die Google-Suche 25% -30% der Suchkriterien der [bisherigen] Nutzer für eine durchschnittliche Website bietet. Wie Googles Führungskräfte und die Google Werbung viele Male wiederholt feststellen, [soll] der Google Search Service die relevantesten und nützlichen Ergebnisse für die Abfragen des Benutzers liefern. Der Google-Vorsitzende Eric Schmidt scherzte sogar, dass es für jede Abfrage nur ein Ergebnis geben sollte – das Ergebnis, das der Benutzer sucht. Google-Server durchstreifen das gesamte Web, extrahieren Text, Links und andere Daten aus Billionen von Seiten. Google kämpft ständig und erfolgreich gegen Versuche, Websites durch abgekartete Verknüpfung und andere Suchmaschinen-Optimierung Techniken künstlich zu fördern.

In seinen Unternehmen verwendet Google auch eine enorme Menge an Off-Web-Informationen, die er durch Chrome-Browser, andere Google-Anwendungen und -Dienste, Analysen der„Leuchtfeuer“, Domains-Registrier-Status und so weiter sammelt. Diese Informationen beinhalten die Popularität und Besitz der Domains. Google verarbeitet auch die spontane Rückmeldung von den Benutzern in Form von Häufigkeit der Klicks auf die Ergebnisse, Weiterklicks (~ zappen], die Häufigkeit wiederholter Recherchen mit geänderten Begriffen usw.

Google ist dabei sehr gut in seinem Job. Websites und Domains, die bei den Besuchern in der Regel weniger beliebt sind, werden als weniger wahrscheinlich eingeschätzt, um von Google angezeigt zu werden und umgekehrt. Der Effekt ist, dass der Prozentsatz der Daten-Recherche, den Domains von Google Search erhalten, über alle Web-Domains ähnlich ist.

Diese Tatsache wird dargestellt, durch die nahezu „null Korrelation“ zwischen der Popularität der Domänen und dem Prozentsatz des Netzverkehrs, den sie von Google in jedem der Sätze der linken / liberalen Medien und konservativen Medien erhalten, trotz der Domänen-Popularität (nach Alexa.com, niedrigere Werte bedeuten höhere Beliebtheit [~Rangfolge]), von 24 bis 1.469 für die links / liberalen Medien-Set, und von 56 bis 12.795 für die konservativen Medien. Der „Verkehr“ von Google-Anzeigen liegt bei etwa 5% des gesamten Google-Traffic, also ist es kein Faktor.

“Net Traffic“ [~Netzverkehr], wie in dieser Forschung verwendet, schließt den Netzverkehr aus, bei dem die Nutzer gezielt mit Namen suchen, wie „foxnews“ oder „fox news“ oder „foxnews .com“. Net Traffic reflektiert Googles Absicht besser, weil die Google-Suche nicht viel Auswahl hat, wenn der Benutzer nach einer Website mit ihrem Namen oder Marke sucht. www.Alexa.com bietet Informationen, die PGSTN-Berechnung für Hunderttausende von Web-Domains ermöglicht.

Angesichts der Robustheit der PGSTN, schließe ich, das die statistisch signifikanten Unterschiede in PGSTN zwischen den a priori definierten Sätzen von vergleichbaren Domains auf absichtliche Bias von Google zurückzuführen ist, es sei denn, es gibt eine andere gute Erklärung.

 

Methodische Details

Alle Daten in dieser Recherche basieren auf Schnappschüsse von Alexa (freie Version) vom 4. September 2017. Für jede Domain wurde Google Search Total aus der „Upstream Site“ Tabelle entnommen – Welche Seiten haben die Leute unmittelbar vor dieser Seite besucht.

Die Anzahl der Recherchen nach Namen wurde von der Tabelle genommen „Top Keywords von Suchmaschinen“ – „Welche Suchschlüsselwörter senden den Traffic auf diese Seite? „.Es sollte beachtet werden, dass nur fünf Top-Werte, die in den freien Alexa-Schnappschüssen erscheinen, verwendet wurden. Alle in der Tabelle gezeigten Google-Suchdomänen wurden aufgenommen (google.com, google.ca, google.de, google.co.in etc.) Wenn die Gesamtmenge des Datenverkehrs nach Namen weniger als 5% betrug, wurde der Wert 1% eingegeben. PGSTN wurde durch Abzug von Namen-Suchverkehr aus dem gesamten Google-Suchverkehr berechnet.

Es wird nicht erwartet, das PGSTN ausreichende Sicherheit für einzelne Domains bietet, weil mehrere Faktoren das beeinflussen, einschließlich möglicher Fehler in den Alexa Daten. Trotzdem wurde die Google-Einstellung gegenüber einer Domain vorläufig in der beigefügten Kalkulationstabelle PGSTN-Domains.xlsx  [Link zu einer Excel Mappe] wie folgt kodiert:

Whitelist / Grüne Zahlen:> 36%

Normal: 20% -36%

Graue Zahlen: 12% -20%

Blacklist: <= 12%

Es wurde erwartet, dass die meisten Domains (basierend auf der zitierten SEO-Forschung) PGSTN im Bereich von 20% -36% haben. Diese Erwartung wurde erfüllt. PGSTN <= 12% gibt vorläufig an, dass die Domain von Google aufgeführt ist. Alles zwischen der schwarzen Liste und dem normalen Bereich gilt als grauer Bereich. Schließlich zeigt PGSTN> 36% vorläufig eine ungewöhnliche Bevorzugung durch Google an.

 

Google Bias in der Klimadebatte

Die Domains wurden meist nach Alexa-Klassifikation ausgewählt. Der Nachweis extremer Bias Google-Suche machte gegen Domains des Klima-Realismus keine statistischen Methoden erforderlich.

Häufigkeit der Anzeige bestimmter Webseiten als Ergebnis von Suchanfragen

Bezeichnung der Gruppen: Fakten Prüfer; Hassseiten, andere Klima Alarmisten, Klima Realisten

Es gibt eine große Lücke zwischen PGSTN von Realismus-Domains (6,3% – 17,4%) und PGSTN von Klima-Alarmismus-Domains (23,5% -52,4%). Die Lücke beträgt 6,1%. Mit Ausnahme von drroyspencer.com werden alle Klima-Realismus-Domains von Google aufgeführt (PGSTN ist 6,3% – 11,0%).

Auf der anderen Seite haben selbst ernannte „fact checker„, darunter snopes.com und politifact.com, PGSTN von etwa 50%. Dieses schürt den Verdacht, dass sie von Google für die Priorisierung handverlesen worden waren. Weitere zwei Webseiten mit verdächtig hohem PGSTN sind Quellwatch.org (PGSTN = 50.1%) und prwatch.org (PGSTN = 40.9%). Diese beiden Seiten tauschen ihre Links gegenseitig aus (sie beziehen sich jeweils aufeinander als Quelle), haben überlappende Inhalte und es ist bekannt, dass sie der gleichen Organisation, dem Center for Media and Democracy [Zentrum für Medien und Demokratie] angehören. Dieses sind bekannte Anzeichen von Spam – doch Google hat es nicht nur geschafft, sie als Spam nicht erscheinen zu lassen, sondern sie sogar manuell zu priorisieren.

Dieser Abschnitt schießt netrootsnation.org mit ein, eine radikale linke Seite mit [Aufzeichnungen ~podcasts] verschiedener Tagungen, ist nicht speziell auf Klimaalarmismus ausgerichtet. Sein PGSTN = 44,5%. Diese Domain hätte handverlesen sein können oder ihre Besitzer wurden von Google-Insidern beim Spielen mit der Rangliste beraten. Google hat die Konferenzen finanziert, und die Google-Vertreter haben es besucht und Vorträge zu relevanten Themen gemacht, wie dieses – Ein Zitat:

 „Wir werden einige Möglichkeiten teilen, um die Macht von Online-Videos zu nutzen und wie man Google und YouTube-Tools mit anderen Interessenvertretungen integrieren kann.“

Alle anderen alarmistischen Domains haben PGSTN im Whitelist oder Normalbereich.

 

Google Bias im allgemeinen politischen Diskurs

Zur Quantifizierung von Google allgemeiner politischer Einstellungen, wählte ich Webseiten von Top-US-Nachrichten und Meinungsseiten nach ihrem Ranking in Alexa. Dann fügte ich einige konservativen Websites ein, mit niedrigerem Ranking basierend auf meinem persönlichen Wissen und / oder Alexa Vorschläge. Es gab ein Element der Subjektivität bei der Auswahl und Klassifizierung  und ich habe einige Domains weggelassen, die ich nicht klassifizieren konnte. Trotzdem wurden die populärsten Domains sowohl in links / liberal (einschließlich Links, Mainstream Liberal und Mainstream Center) als auch in konservativen (einschließlich konservativen und Mainstream konservativen) Kategorien ausgewählt und eingestuft. Die Verwendung von gewichteten Statistiken minimiert das Element der Subjektivität in die Ergebnisse.

Die Ergebnisse zeigen, dass die Google-Suche stark gegen konservative Domänen voreingenommen ist. Einige respektable konservative Domänen scheinen auf der schwarzen Liste zu sein;

thegatewaypundit.com

pjmedia.com

americanthinker.com

redstate.com

powerlineblog.com

drudgereport.com

Es könnte eine alternative oder zusätzliche Erklärung für niedrige PGSTN des Drudge Report sein – diese Website besteht hauptsächlich aus Links zu Artikeln auf anderen Seiten, eine Praxis, die Google unterdrückt.

Im Durchschnitt erreichen die konservativen Domänen eine fast zwei Mal niedrigere PGSTN als die links / liberalen: konservative 15,5% (Standardabweichung 5,1%) gegenüber links / liberal 27,4% (Standardabweichung 4,9%). Die Hypothese der Google-Suche links / liberale Bias wird mit einer Wahrscheinlichkeit von 95% bestätigt.

 

Diskussion

Obwohl die PGSTN von einzelnen Domänen für Schlussfolgerungen nicht ausreicht, kann ich nicht vermeiden festzustellen, dass extremistische Webseiten wie dailystormer.com (PGSTN = 13,6%; existieren zum Zeitpunkt der Untersuchung nicht mehr) und dailykos.com (PGSTN = 20,2%) von Google gegenüber vielen konservativen und Klima-realistischen Domains bevorzugt werden.

 

Schlussfolgerungen

Google-Suche ist zugunsten von links / liberalen Webseiten gegen konservative Webseiten voreingenommen und ist zugunsten des Klimaalarmismus gegen den Klimarealismus äußerst voreingenommen.

 

Offenlegung

Ich habe Short-Positionen in Google-Aktien [d.h., er spekuliert auf fallende Kurse]

 

Referenzen

Die Referenzen sind im Text des Artikels.

 

Zusatzmaterialien

Alexa Schnappschüsse sind abrufbar unter https://defyccc.com/data/PGSTN-Snapshots.7z (komprimiert mit 7-Zip).

 

Erschienen auf WUWT am 08.09.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/09/08/a-method-of-google-search-bias-quantification-and-its-application-in-climate-debate-and-general-political-discourse/