Något om val mellan olika metoder Givet är en observerad tidsserie: y 1 y 2 y n Säsonger? Ja Nej Trend? Tidsserieregression Nej ARMA-modeller Enkel exponentiell utjämning Tidsserieregression ARIMA-modeller Klassisk komponentuppdelning Dubbel exponentiell utjämning (S)ARIMA-modeller Winters metod
ARMA- ARIMA (S)ARIMA Modernare metoder för tidsserieanalys och prognoser Box George and Jenkins Gwilym (19) Time series analysis: Forecasting and control San Francisco: Holden-Day Ett standardverk som samlade upp idéer uppkomna från c:a 195-talet inom ekonometri och ingenjörsvetenskap Skapade ett system för att identifiera skatta och utvärdera modeller för tidsserier Metodologin går fortfarande under namnen Box-Jenkins-metodik
Exempel: Växelkurs EURSEK 25 sep 25 nov 28 (Källa: www.oanda.com 28-11-25) Säsongsvariation? Trend? Konjunktur? Om vi skulle vilja göra korttidsprognoser för t.ex. en dag eller två?
Med hittills genomgångna metoder: 1) Tidsserieregression med linjärkvadratisk trend men utan säsongdummies 2) Dubbel exponentiell utjämning (Holt s metod) Fungerar dessa bra? Smoothing Constants Alpha (level) 1.398 Gamma (trend).46 Tidsserieregression linjär trend Holt s metod %!&!" #$!" %!& ' # ". 4(3 "!1(2 '$() * -""().* '# (# '3 '
En vanlig metod som inte tagits upp till fullo i kursen: Rullande medelvärden (mer korrekt: Glidande oviktade medelvärden) Stat Time Series Moving Average Veckovis rullande medelvärden
!" #" %!& ' # ". 4(3!1('1 51 '#(# '3 ' Inte så imponerande heller!
Är nedanstående bättre? (De gröna trianglarna motsvarar prognoserna för 2611 och 211 samt prognosintervallgränser resten är originaldata.) )6! ( (.(!(4(!.(!"! * Vad är detta för metod?
Några viktiga begrepp i sammanhanget Stationaritet En tidsserie säges vara stationär om den i princip består av data med konstant väntevärde och varians Yt 25 2 15 1 5 Något mer matematiskt: E( y t ) = µ Var( y t ) = σ 2 Corr( y t y t-k ) beror bara av k och alltså inte av t. 1 t 2
Hur kan icke-stationära tidsserier se ut? 25 25 2 2 15 15 Wt 1 Ut 1 5 5 1 t 2 1 t 2 Linjär trend icke-stationär av första ordningen Kvadratisk trend icke-stationär av andra ordningen 5 Vt -5-1 Icke-konstant varians även om väntevärdet verkar konstant 1 t 2
Är växelkursexemplet en stationär tidsserie? Beror på tidsperspektivet. Här ser det ut som att en trend finns men i ett längre tidsperspektiv rör det sig nog bara om en tendens.
Kan en tidsserie göras stationär? Differentiering En tidsserie w t som är icke-stationär av första ordningen (i princip uppvisar en linjär trend) kan differentieras en gång: y t = w t = w t w t 1 y t kan då bli en stationär serie (men inte nödvändigtvis) En tidsserie som är icke-stationär av andra ordningen (i princip uppvisar en kvadratisk trend) kan differentieras två gånger: y t = ( u t ) = u t u t 1 = u t u t 1 ( u t 1 u t 2 ) = u t 2 u t 1 u t 2 y t kan då bli en stationär serie (men inte nödvändigtvis)
5 25 Wt 2 15 Diff Wt -5 1 5-1 1 t 2 1 2 t Har den blivit stationär?
Variansstabilisering Om variansen inte bedöms vara konstant Ł Transformera på samma sätt som vid regressionsanalys oftast med logaritmering w t = ln ( w t ) 25 8 2 Wt 15 1 log(wt) 6 5 4 5 3 1 t 2 2 1 t 2 Konstant varians?
Efter variansstabilisering kanske det blir OK att differentiera (log(wt)) 8 1. lo og(w t) 6 5 4 log(wt) Diff l.5. 3 2 -.5 1 t 2 1 t 2 Stationär?
Fungerar detta för våra växelkursdata? $% $% Inte otänkbart!
Autokorrelation För en tidsserie y t definieras autokorrelationsfunktionen (acf) som ρ k = Corr ( y t y t k ) för k = 1 2 3 4 Anger alltså korrelationen (graden av linjärt beroende) mellan två värden på tidsavstånd k i tidsserien. För en stationär tidsserie skall acf endast vara en funktion av k dvs. det skall inte spela någon roll var i tidsserien de två värdena ligger utan endast vilket tidsavstånd det är mellan dem. Värdena kan både vara positiva och negativa (beroende på hur beroendet ser ut)
För serier med korta beroenden avtar acf snabbt mot då k växer acf acf.35.3.25.2.15.1.5 1 2 3 4 5 6 8 9 1 1112 1314 1516 118 192 k.4.2 -.2 -.4 -.6 1 3 5 9 11 13 15 1 19 k För serier med långa beroenden avtar acf långsammare men tydligt mot då k växer.8.6.4.2 acf 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k
En tidsserie med väntevärde och där acf är = överallt kallas vitt brus Innehåller egentligen ingen information Kan man se i figuren att acf = överallt?
Skattning av acf Minitab (och andra statistiska programpaket) har funktioner för att skatta acf från existerande data
#& )6! (4(!1!!(!"! (( (#!* & # ' # )6! (4(!1!!(!"! (( (#!* # '
#( )6! (4(!1!!(!"! (( (#!* ( # ' Typiskt exempel på en skattad acf för en tidsserie som inte är stationär. Mycket långsamt avklingande mönster. Autokorrelationen är hög för värden som ligger på en gemensam trend. Skattad acf brukar i litteraturen förkortas SAC (Sample AutoCorrelation function)
Hur ser SAC ut för växelkursdata? # )6! (4(!1!!(!"! (( (#!* # ' Litet väl långsamt avklingande. Tyder på icke-stationaritet i form av linjär trend.
Med hjälp av SAC kan man tydligen bedöma om en serie är stationär eller ej. Bra hjälpmedel för att t.ex. se om en differentiering räcker. ( # #( )6! (4(!1!!(!"! (( (#!* Icke-stationär (men det visste vi i och för sig) ' Differentiera en gång ( # #( )6! (4(!1!!(!"! (( (#!* Mer stationär men ännu inte tillräckligt avklingande '
Logaritmera och differentiera sedan $(% $(% # # $(% )6! (4(!1!!(!"! (( (#!* Bättre än tidigare. Snabbare avklingning mot. '
Partiell autokorrelation Svårare begrepp. Den partiella autokorrelationen mellan y och x definieras som den del av korrelationen mellan y och x som inte har att göra med andra variabler. z y x Röd korrelation är unik mellan y och x dvs. partiell korrelation Blå korrelation kommer från y:s och x:s respektive samband med z Röd Blå är den totala korrelationen. Partiell autokorrelationsfunktion (pacf) för tidsserier ψ k = Corr( y t y t k y t (k 1) y t (k 2) y t 1 ) Funktionen har egenskaper som effektivt kan utnyttjas vid identifiering av modeller (se nedan) Även den partiella autokorrelationsfunktionen kan skattas från existerande data. Den brukar då kallas SPAC
Autoregressiva modeller (AR-modeller) En tidsserie y 1 y 2 y 3 satisfierar en autoregressiv modell av ordning 1 en s.k. AR(1)-modell om t = δ φ 1 yt 1 y a t där δ och φ 1 är konstanter (parametrar) och a t är vitt brus dvs. en serie av okorrelerade värden (Corr(a t a t k ) = för alla k) med väntevärde och konstant varians (jfr. ε t från tidsserieregressionen) (till exempel: y t = 2..4 y t 1 a t ) autoregressiv innebär alltså att y har regression på sig själv (fast ett tidssteg bakåt)
Exempel: y t = 2..4 y t 1 a t där a t antas vara okorrelerade och N( 2)-fördelade En realisering av denna tidsserie i 2 tidpunkter kan se ut på följande sätt &
Om vi istället realiserar 2 värden av följande modell y t = 2..4 y t 1 a t där a t antas vara okorrelerade och N( 2)-fördelade dvs. φ 1 =.4 istället för.4 kan vi få Jämför med φ 1 =.4 : & &
Stationära och icke stationära AR(1)-modeller En tidsserie som satisfierar en AR(1)-modell är stationär om 1 < φ 1 < 1 Om φ 1 = 1 eller 1 råder instabilt läge. Serien kan urarta men behöver inte göra det. Om φ 1 = 1 och δ = säges tidsserien vara en random walk (slumpvandring) y t = y t 1 a t En vanlig modell för enskilda aktiekurser. Prognoser beräknas med den enkla formeln yˆ 1 = ˆ t y t persistensprognos
Exempel på realisering av en random walk & Skulle mycket väl kunna motsvara utvecklingen av en aktiekurs men kan vi med utgångspunkt från det tycka att det rör sig om en trend?
Om φ 1 > 1 säger man ibland att AR(1)-modellen är explosiv. Exempel: En realisering av modellen y t = 2. 1.1 y t 1 a t med a t ~ N( 2) & Tydligt icke-stationär!
Identifiering av AR(1)-modeller För tidsserier som satisfierar en AR(1)-modell och är stationära dvs. φ 1 < 1 gäller att autokorrelationsfunktionen (acf) är Exempel: k ρ k = φ1 k = 123 φ 1 =.4 φ 1 =. acf acf.5.4.3.2.1 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k.6.4.2 -.2 -.4 -.6 -.8 1 3 5 9 11 13 15 1 19 k
Vidare gäller att den partiella autokorrelationsfunktionen är ψ k = φ1 k k = 1 = 234 Exempel: φ 1 =.4 φ 1 =. pacf pacf.6.4.2 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k -.2 -.4 -.6 -.8 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k
Antag nu att vi har en observerad tidsserie i n tidpunkter: y 1 y 2 y n & Om tidsserien satisfierar en AR(1)-modell borde detta avspeglas i SAC och SPAC dvs. skattningarna av acf och pacf. Vi förväntar oss att få liknande utseenden som de teoretiska funktionerna har.
SAC: # #& )6! (4(!1!!(!"! (( (#!* Verkar i början avta ungefär som den teoretiska acf. De spikar som hamnar inom de röda linjerna kan bortses från om de ligger långt från. ' SPAC: # #& )6! (4(!1!!(!"! (( ($! (#!* En tydlig spik för k = 1. Övriga kan negligeras. Utseendet överensstämmer alltså med den teoretiska pacf. ' Verkar vara en AR(1)-modell
Skattning av parametrar i en AR(1)-modell Minitab (liksom andra statistiska programpaket) har procedurer för att skatta parametrar i autoregressiva modeller. AR(1) är ett specialfall av de generella ARIMA-modellerna. Skattningsproceduren är betydligt mer komplicerad än t.ex. För multipel regressionsanalysł Ingen närmare teoretisk genomgång görs här.
Ger skattning av en AR(1)-modell Här kan man välja om δ skall vara med eller ej
ARIMA model for Yt Estimates at each iteration Iteration SSE Parameters 5144.8.1 114.252 1 3985.36.25 95.2 2 395.92.4 6.162 4 212.3. 38. 241.2.819 22.948 8 241.2.819 22.929 Relative change in each estimate less than.1 Final Estimates of Parameters Type Coef SE Coef T P AR 1.819.49 2.. Constant 22.9295.2263 11.31. Mean 126. 1.251 φˆ ˆ 1 δˆ
Number of observations: 2 Residuals: SS = 22.86 (backforecasts excluded) MS = 1.24 DF = 198 Modified Box-Pierce (Ljung-Box) Chi-Square statistic Lag 12 24 36 48 Chi-Square 8.8 25.1 36. 5.8 DF 1 22 34 46 P-Value.552.29.346.291 Ljung-Box är mått på hur bra anpassningen har blivit. Alla P-värden skall vara stora här om modellen skall anses vara bra. Skattad modell är alltså: y t = 22.93.819 yt 1 och automatiskt erhålls prognosmodellen: yˆ t 1 = 22.93. 819 y t
Fler modeller Autoregressiv modell av ordning 2 AR(2): y δ φ 1 φ t = yt 1 2 yt 2 a t Har längre beroenden än AR(1) Typiska utseenden hos acf och pacf: acf: Avtar relativt snabbt mot noll ev. med växlande tecken pacf: Är skild från för k=1 och 2 är för k = 3 4 5. acf pacf.8.8.6.6.4.4.2.2 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k 1 2 3 4 5 6 8 9 1 11 12 13 14 15 16 1 18 19 2 k
Glidande medelvärdesmodell av ordning 1 MA(1) (Moving Average): y t = δ at θ1 at 1 y t skapas alltså genom en sammanvägning av det vita bruset (ett sorts glidande medelvärde av en underliggande slumpvariation. en MA(1) är alltid stationär svårare att tolka svårare att uttrycka en generell prognosformel acf: har motsvarande utseenden som en pacf för AR(1) pacf: har motsvarande utseenden som en acf för AR(1) Ł Lika enkelt att identifiera en MA(1) som en AR(1) skattningar av parametrar och prognoser kan beräknas med samma program som tidigare
Glidande medelvärdesmodell av ordning 2 MA(2): har längre beroenden än en MA(1) är alltid stationär acf: motsvarande utseenden som pacf för AR(2) pacf: motsvarande utseenden som acf för AR(2) 2 2 1 1 = t t t t a a a y θ θ δ Kombinerad autoregressiv och glidande medelvärdesmodell av ordningarna p och q ARMA(p q): har mer komplicerade beroenden acf: avtar mot noll ofta med växlande tecken pacf: avtar mot noll ofta med växlande tecken q t q t t p t p t t a a a y y y = θ θ φ φ δ 1 1 1 1
Exempel: Finansinstitutens utlåning till hushåll kv 1 1992 - kv 3 21 5 4 MKr 3 2 1 1 4 1 13 16 19 22 25 28 31 34 3 (kvartal) Tidsserien innehåller trend och är därför inte stationär. Differentiering behövs! Obs! Kvartalsdata men det är tydligt att någon säsongsvariation ej finns. Betrakta data som varandes utan säsongkomponent.
Efter en differentiering: $&% ) Kan den vara stationär? Kolla med SAC och SPAC.
SAC: #$&% )6! (4(!1!!(!"! (( (#!* # ' Verkar definitivt vara stationär. Frågan är vad det kan röra sig om för modell. SPAC: # #$&% )6! (4(!1!!(!"! (( ($! (#!* Ingen ren AR- eller MA-modell kan ses. Prova med en ARMA(11) '
Notera att en ARMA(11) skulle gälla för den differentierade serien. Prognoser vill vi dock ha för originalserien! Minitab (och andra) fixar detta! Stat Time Series ARIMA Originalserien Anger att vi vill differentiera 1 gång Ordningarna dvs. 1 och 1 i den ARMAmodell som anpassas till diff. data
Anger som vanligt att vi vill ha prognoser 4 tidpunkter framåt räknat från slutet. (dvs. prognoser för kvartal 1 2 3 och 4 22)
ARIMA Model: Yt.. Final Estimates of Parameters Type Coef SE Coef T P AR 1 1.455.31 14.29. MA 1.885.1663 5.34. Differencing: 1 regular difference Number of observations: Original series 39 after differencing 38 Residuals: SS = 596529 (backforecasts excluded) MS = 16465 DF = 36 Signifikanta parameterskattningar!
Modified Box-Pierce (Ljung-Box) Chi-Square statistic Lag 12 24 36 48 Chi-Square 6.3 15. 3.2 * DF 1 22 34 * P-Value.93.861.656 * Forecasts from period 39 Ljung-Box ser bra ut! 95 Percent Limits Period Forecast Lower Upper Actual 4 4565.6 43146.5 48168. 41 4636.4 4394.3 5148.5 42 495.3 44625. 5484.9 Prognoserna med intervall! 43 51868.4 4555.6 58186.1
Följande figur kan även beställas vid körningen: & )6! ( (.(!(4(!.(!"! * &
Åter till växelkursdata! Om vi nu tror att den differentierade serien är stationär SAC $% #$% )6! (4(!1!!(!"! (( (#!* $% # ' SPAC Ingen renodlad AR- eller MA-modell här heller. Pröva med en ARMA(11) # #$% )6! (4(!1!!(!"! (( ($! (#!* '
Final Estimates of Parameters Type Coef SE Coef T P AR 1 -.281.45 -.51.61 MA 1 -.521.3552-1.41.163 Constant.16.1161 1.38.12 Ej signifikanta! Differencing: 1 regular difference Number of observations: Original series 62 after differencing 61 Residuals: SS =.21938 (backforecasts excluded) MS =.363 DF = 58
Modified Box-Pierce (Ljung-Box) Chi-Square statistic Lag 12 24 36 48 Chi-Square 11.8 31.1 41. 54. DF 9 21 33 45 P-Value.22.2.16.169 OK här! Forecasts from period 62 95 Percent Limits Period Forecast Lower Upper Actual 63 1.4524 1.3342 1.5 64 1.41 1.26 1.6634 65 1.4825 1.243 1.246 )6! ( (.(!(4(!.(!"! * Detta är det diagram vi först såg (men då med trianglarna grönfärgade).
Andra tillämpningar: Residualerna från en tidsserieregression eller från vilken regression som helst där tiden är inblandad kan ofta uppvisa beroendemönster (jfr. Durbin-Watson s test) Residualerna kan modelleras separat med en AR-modell och därigenom erhålls bättre skattningar och prognoser (smalare prognosintervall) Exempel: I datorövning 6 gjordes en tidsserieregression på andel arbetslösa 1994-22.
)*) )$(!(4"$.* ) Residualerna uppvisar en tydlig positiv seriell korrelation dvs. autokorrelation eftersom mönstret är en följsam kurva. ")
)*) )$(!(4"$.* ) Detta är den variationbredd som skattningen av s baseras på ") Detta är den egentliga variationsbredden som själva slumpen omfattar Ł Om inte hänsyn tas till att residualerna är korrelerade kan man i vissa fall överskatta slumpvariationen Ł Osäkra parameterskattningar breda prognosintervall
Går det nu att anpassa t.ex. en AR-modell till residualerna? # )6! (4(!1!!(!"! (( (#!* SAC: # ' # )6! (4(!1!!(!"! (( ($! (#!* SPAC: # ' Kanske inte helt orimligt med en AR(1)-modell även om det finns en störande spik i SPAC längst t.h. Det är dock snudd på icke-stationaritet.
Ingen konstantterm tas med eftersom residualerna varierar runt Final Estimates of Parameters Type Coef SE Coef T P AR 1.9126.49 22.31. Number of observations: 18 Residuals: SS = 8.24689 (backforecasts excluded) MS =. DF = 1 Modified Box-Pierce (Ljung-Box) Chi-Square statistic Lag 12 24 36 48 Chi-Square 16.5 24.5 45.1 54.3 DF 11 23 35 4 P-Value.124.3.118.21
Anpassningen av en AR-modell till residualerna skall göras samtidigt med anpassningen av själva regressionsmodellen (för att få rätt standardavvikelse och medelfel för skattningar) Kan dock ej göras i Minitab men i t.ex. SAS Överhuvudtaget kan modellerna byggas ut till att omfatta säsongsvariation (SARIMA) men även för att inkludera andra tidsserier som förklaringsvariabler (s.k. Transfer Function Models) En intressant delmodell av detta är s.k. interventionsmodeller (t.ex. inkludering av 11-september-effekten i analyserna) För allt detta krävs fler kurser i tidsserieanalys!