Klimadebatt

Klimadebatt => Modeller eller observasjoner => Topic started by: Telehiv on 05.01.2019, 14:56:12

Title: Feilspådde klimamodeller: Nye "reanalyser" skal dekke over?
Post by: Telehiv on 05.01.2019, 14:56:12
På 100 år er det bare et par tiår på 1980-1990-tallet som ikke direkte falsifiserer CO2-hypotesen - er det rart man trenger å jukse?!

Klimamaktas kroniske modelljusteringer på global temperatur siden 1979 (der starten er justert stadig mer ned og slutten opp for å illudere mer temperaturstigning enn faktisk målt innledningsvis) toppet med Michael Mann et als fjerning av historiske sykluser som svekker CO2-hypotesen (for eksempel varm middelalder på lave CO2-nivåer og den lille istid på høyere, for ikke å snakke om den stadig mer aktive retusjering av den varme mellomkrigstiden på LAVE CO2-nivåer og påfølgende temperaturfall på 1950-70-tallet på STIGENDE CO2-nivåer) er dessverre karakteristiske - og svært pinlige - utslag av forsøk på å pynte på feilende prognoser og premissvikter.

Alle bør merke seg: I de siste 100 år er det bare et par tiår (1980-1990-tallet) der det er sammenfall mellom CO2-økning og global temperaturøkning.

Den store hodepinen for klimaalarmistene nå er følgelig at global temperatur ikke har vist signifikant stigning siden 1998 ("the hiatus", "pausen", som IPCC sier) - tross en betydelig økning i atmosfærens CO2-nivå. Etter et drøyt tiår uten oppvarming siden 1998 skjønte klimamakta derfor at det måtte tas grep, og man omdøpte "global oppvarming" til det vitenskapelig sett meningsløse og ikke-falsifiserbare begrepet "klimaendringer". Derfra har det imidlertid blitt enda tydeligere at den globale temperaturutvikling krevde en ytterligere "klimapolitisk" håndtering for ikke å bli helt kompromittert, og man begynte å spe på retorikken med useriøs cherry-picking og forvrengning av "ekstremvær" (siden klimaoversikter alene - selv juksterte - ikke ga nok alarmismepotensial) :

1) Første reparasjonsfase for "modell-redning": Jukstering av måledata i de sentrale datasentre for landbaserte målinger
Den lille kretsen av forskere (maks 20-30 velkjente figurer, ofte referert til som "the ususal suspects", og som i praksis siler alt som skal inn til IPCC-rapporteringen) har omtrent all makt over prosesseringen av de opprinnelige rådata fra alle andre sentra i verden. Hovedleverandørene til IPCC på bakkemålinger er i essens nemlig bare JMA, GISS, NOAA, HadCRUT4, Berkeley, og de finner det stadig mer problematisk å leve med det åpenbare spriket mellom de feilende modellene og faktiske observasjoner. De som har fulgt med i juksteringsteateret disse organene har bedrevet for å hjelpe på situasjonen - helt siden Climategate i 2009 la det ut i full pinlig offentlighet - er vel kjent med dette: De stadige grensepåleflytninger for målemetoder og modellprosessering, og stadig nye selvbekreftende parametre som drar i "rett" retning ifht. å korrigere litt på feilende prediksjoner.

Når de har fått holdt på med sitt rundt denne strategien en stund, kan de levere en "revidert" global oversikt som viser mer global oppvarming de senere årene enn de opprinnelige rådataene viser, men samtidig havner i konflikt med trenden i satelittdataene (se videre). CO2-agitatorer som Terje Wahl viser for eksempel nå fram denne landdata-grafen der 2018 angis som det fjerde varmeste ved overflaten (GISS, NOAA, Hadley, JMA):

(https://image.forskning.no/1275774.jpg?imageId=1275774&x=0&y=0&cropw=100&croph=100&width=701&height=532)

Ulike mÃ¥leregimer viser imidlertid  ikke samme globale utvikling:
- Satelittmålingene (UAH, RSS) viser betydelig sprik mot de stadig mer juksterte bakkemålingene, dvs. omtrent flat trend siden 1998, og viser i tillegg en fallende temperatur de siste par årene:
- Hos UAH (satelittdata) angis 2018 derfor bare som det sjette varmeste i nedre troposfære.

(https://www.klimarealistene.com/wp-content/uploads/2019/01/UAH_LT_1979_thru_December_2018_v6-1024x591.jpg)


Dette, og påvisningen av også en rekke andre åpenbare prognose- og prediksjonsbommerter sliter stadig mer på IPCCs troverdighet, og man er nå i ferd med å ta et nytt grep som ganske klart er ment å imøtekomme den stigende kritikken mot dette:

2) Andre reparasjonsfase for "modell-redning": Reanalyse (av allerede juksterte data!)
Den samme Terje Wahl er nok ikke fornøyd med den daffe temperaturutvikling man hittil har klart å koke fram, så på hans blogg skriver han nå at:
"Et ekstra spenningsmoment i 2019 er at Copernicus/ECMWF vil komme med global temperatur-liste fra sin nye reanalyse-motor ERA5. Det kan stokke om litt på hvilke år som har vært varmest."

For oss som har fulgt med "the usual suspects" i flere tiår nå, er ikke i den ringeste tvil om hva "stokke om litt på hvilke år som har vært varmest" egentlig betyr.
Og vi ser med gru fram til den nødvendige oppryddingsdebatten som ogsÃ¥ dette nye juksteringsprosjektet vil kreve. 

Dette bare for Ã¥ informere (les: alarmere) om hva man bør begynne Ã¥ følge med pÃ¥ av nytt vitenskapelig griseri, tvunget fram av IPCCs "alle-mann-til-pumpene"-situasjon nÃ¥. 

PS: Kort om hvor mye de planlagte reanalysene kan manipuleres med:
Som eksempel pÃ¥ hvilke triksemuligheter man her rigger seg til for, ser jeg ikke noen bedre mÃ¥te enn Ã¥ bare sitere den samme Wahls omtale av hvordan dette skal skje - den vÃ¥kne leser vil nok fÃ¥ flere ideer enn den godeste lurifaks Wahl trolig sÃ¥ for seg nÃ¥r han optimistisk skrev ned dette i troen pÃ¥ at "her skal det bli sus i temp-serken - uten at fornekterne fÃ¥r mer innsyn enn høyst nødvendig"-  sitat:

"De vanlige seriene for global temperatur (JMA, NOAA, HadCRUT, osv) bruker temperatur-anomalier fra spredte målepunkter når de prøver å estimere den globale verdien. Det har sine problemer: Hvis de bare tar gjennomsnitt, så vil områder med mange målestasjoner ha "urettferdig stor" innflytelse. Og hvis de interpolerer eller "homogeniserer", så gjør de dette uten å ta hensyn til hvordan værsystemene egentlig var den dagen.
I en reanalyse kjører man en værmodell basert ikke bare på temperaturmålinger, men også lufttrykk, satellittmåling av iskanten, osv, for å beregne temperaturen i 2 meters høye overalt på Jorda - på en enhetlig måte. Man kan se på dette også som en interpolasjon mellom målinger i rom og tid, men nå gjøres interpolasjonen i samsvar med (vær-)fysikkens lover - dvs. at lavtrykk og høytrykk og nordavind og sønnavind havner på riktig sted. Reanalysen vil også være bedre enn de vanlige globale temperaturseriene fordi man nå mer nøyaktig fanger opp temperaturendringene som oppstår i luften når sjøisen krymper (eller ekspanderer).
Detaljert reanalyse er veldig regnekrevende. Ved det europeiske værsenteret ECMWF er man nå, som en del av EUs Copernicus-program, i ferd med å fullføre en meget omfattende reanalyse (ERA5) for hele værsatellittalderen (siden 1979). Denne reanalysen vil være så detaljert, og benytte så mange observasjoner, at den må forventes å gi det klart beste estimatet av hva global temperatur "egentlig" var gjennom de fire værsatellitt-tiårene som ligger bak oss.
ECMWF vil også kjøre reanalysen enda lenger tilbake i tid, men da begynner datagrunnlaget å bli svakere, spesielt informasjon om iskanten.
Det vil være interessant å se hvordan ERA5 vil rangere varme år som 1998, 2005, 2010, 2015, 2016, 2017 og 2018 opp mot hverandre."


Kommentar: Ja, jeg er redd "interessant" bare blir forbokstaven....