4.2 Linjära stationära modeller för Time Series där den slumpmässiga variabeln kallas för innovation eftersom den representerar den del av observerad variabel som är oförutsägbar med tanke på tidigare värden. Den allmänna modellen (4.4) förutsätter att utmatningen är av ett linjärt filter som omvandlar tidigare innovationer, det vill säga en linjär process. Detta linjäritetsantagande är baserat på Wolds sönderdelningsteorem (Wold 1938) som säger att en diskret stationär kovariansprocess kan uttryckas som summan av två okorrelerade processer, var är rent deterministisk och är en rent indeterministisk process som kan skrivas som en linjär summan av innovationsprocessen: var är en sekvens av seriellt okorrelerade slumpvariabler med nollvärde och gemensam varians. Skick är nödvändigt för stationäritet. Formuleringen (4.4) är en ändlig reparametrization av den oändliga representationen (4.5) - (4.6) med konstant. Det är vanligtvis skrivet i termer av lagoperatören definierad av, som ger ett kortare uttryck: där lagoperatörspolynomerna och kallas polynomial respektive polynomial. För att undvika parameterredundans antar vi att det inte finns gemensamma faktorer mellan komponenterna och komponenterna. Därefter kommer vi att studera tomten för några tidsserier som genereras av stationära modeller med målet att bestämma huvudmönstren i deras temporära evolution. Figur 4.2 innehåller två serier genererade av följande stationära processer beräknade med hjälp av genarma-kvanteten: Figur 4.2: Tidsserier som genereras av modeller Som förväntat rör sig båda tidsserierna runt en konstant nivå utan förändringar i varians beroende på den stationära egenskapen. Dessutom ligger denna nivå nära det teoretiska medelvärdet av processen, och avståndet för varje punkt till detta värde är mycket sällan utanför gränserna. Vidare visar utvecklingen i serien lokala avvikelser från processens medelvärde, vilket är känt som det genomsnittliga reverseringsbeteendet som karakteriserar den stationära tidsserien. Låt oss noggrant studera egenskaperna hos de olika processerna, i synnerhet autokovariansfunktionen som fångar de dynamiska egenskaperna hos en stokastisk stationär process. Denna funktion beror på måttenheterna, så den vanliga mätningen av graden av linjäritet mellan variabler är korrelationskoefficienten. I fråga om stationära processer definieras autokorrelationskoefficienten vid lag, betecknad med, som korrelationen mellan och: Autokorrelationsfunktionen (ACF) är autokovariansfunktionen som standardiseras av variansen. Egenskaperna hos ACF är: Givet symmetriegenskapen (4.10) representeras ACF vanligen med hjälp av ett stapeldiagram vid de nonnegative lagren som kallas det enkla korrelogrammet. Ett annat användbart verktyg för att beskriva dynamiken hos en stationär process är den partiella autokorrelationsfunktionen (PACF). Den partiella autokorrelationskoefficienten vid lag mäter den linjära kopplingen mellan och justeras för effekterna av mellanvärdena. Därför är det bara koefficienten i linjär regressionsmodell: PACF: s egenskaper motsvarar ACFs (4.8) - (4.10) egenskaper, och det är lätt att bevisa att (Box och Jenkins 1976). Precis som ACF beror den partiella autokorrelationsfunktionen inte på måttenheterna och den representeras med hjälp av ett stapeldiagram vid de nonnegative lagren som kallas partiellt korrelogram. De dynamiska egenskaperna hos varje stationär modell bestämmer en viss form av korrelogrammen. Vidare kan det visas att för varje stationär process, båda funktionerna, ACF och PACF, närmar sig noll då lagret tenderar att vara oändligt. Modellerna är inte alltid stationära processer, så det är nödvändigt att först bestämma villkoren för stationäritet. Det finns underklasser av modeller som har speciella egenskaper så vi ska studera dem separat. Så, när och, det är en vit brusprocess. när det är en ren rörlig genomsnittlig orderordning. , och när det är en ren autoregressiv orderordning. . 4.2.1 White Noise Process Den enklaste modellen är en vit brusprocess, var är en sekvens av okorrelerade nollvärden med konstant varians. Det betecknas av. Denna process är stationär om dess varians är ändlig, eftersom det ges följande: verifierar villkoren (4.1) - (4.3). Dessutom är okorrelerat över tid, så dess autokovariansfunktion är: Figur 4.7 visar två simulerade tidsserier genererade från processer med nollvärde och parametrar respektive -0,7. Den autoregressiva parametern mäter persistensen av tidigare händelser i nuvarande värden. Om exempelvis en positiv (eller negativ) chock påverkar positivt (eller negativt) under en tidsperiod som är längre, desto större är värdet av. När serierna rör sig mer grovt runt medelvärdet på grund av växlingen i effektens riktning, det vill säga en chock som påverkar positivt i ögonblicket, har negativa effekter på, positiva in. Processen är alltid inverterbar och den är stationär när parametern i modellen är begränsad att ligga i regionen. För att bevisa det stationära tillståndet skriver vi först i den glidande genomsnittsformen genom rekursiv substitution av in (4.14): Figur 4.8: Befolkningskorrelogram för processer Det är en viktad summa av tidigare innovationer. Vikten beror på parametervärdet: när, (eller) ökar inflytandet av en given innovation (eller minskar) genom tiden. Med förväntningar på (4,15) för att beräkna medelvärdet av processen får vi: Med tanke på att resultatet är en summa av oändliga termer som konvergerar för alla värden av endast om, i vilket fall. Ett liknande problem visas när vi beräknar det andra ögonblicket. Beviset kan förenklas förutsatt att det är. Därefter är variansen: Variansen går till oändlighet förutom i vilket fall. Det är lätt att verifiera att både medelvärdet och variansen exploderar när detta tillstånd inte håller. Autokovariansfunktionen för en stationär process är därför autokorrelationsfunktionen för den stationära modellen: Det vill säga korrelogrammet visar ett exponentiellt förfall med positiva värden alltid om det är positivt och med negativa positiva svängningar om det är negativt (se figur 4.8). Vidare minskar sönderfallet som ökningar, ju ju högre värdet desto starkare är den dynamiska korrelationen i processen. Slutligen finns det en cutoff i den partiella autokorrelationsfunktionen vid den första fördröjningen. Figur 4.9: Befolkningskorrelogram för processer Det kan visas att den allmänna processen (Box och Jenkins 1976): Är stationär endast om rötterna i polynomernas karakteristiska ekvation ligger utanför enhetens cirkel. Medelvärdet av en stationär modell är. Är alltid inverterbar för några parametervärden. Dess ACF går till noll exponentiellt när rötterna är reella eller med sinus-cosinusvågfluktuationer när de är komplexa. Dess PACF har en cutoff i lagret, det vill säga. Några exempel på korrelogram för mer komplexa modeller, såsom, kan ses i figur 4.9. De liknar mycket mönstren när processerna har verkliga rötter, men har en väldigt annorlunda form när rötterna är komplexa (se första grafikbilden i figur 4.9). 4.2.4 Autoregressiv rörlig genomsnittsmodell Den allmänna (ändliga ordningen) autoregressiva rörliga genomsnittliga ordermodellen, är: 2.1 Flytta genomsnittsmodeller (MA-modeller) Tidsseriemodeller som kallas ARIMA-modeller kan innefatta autoregressiva termer och eller rörliga genomsnittsvillkor. I vecka 1 lärde vi oss en autoregressiv term i en tidsseriemodell för variabeln x t är ett fördröjt värde av x t. Till exempel är en lag 1-autoregressiv term x t-1 (multiplicerad med en koefficient). Denna lektion definierar glidande medelvärden. En glidande medelfrist i en tidsseriemodell är ett tidigare fel (multiplicerat med en koefficient). Låt (wt overset N (0, sigma2w)), vilket betyder att wt är identiskt oberoende fördelat, var och en med en normal fördelning med medelvärde 0 och samma varians. Den första ordningens rörliga genomsnittsmodell, betecknad med MA (1) är (xt mu wt theta1w) Den andra ordens rörliga genomsnittsmodellen, betecknad med MA (2) är (xt mu wt theta1w theta2w) , betecknad med MA (q) är (xt mu wt theta1w theta2w punkter thetaqw) Not. Många läroböcker och programvara definierar modellen med negativa tecken före villkoren. Detta ändrar inte de allmänna teoretiska egenskaperna hos modellen, även om den vrider de algebraiska tecknen på uppskattade koefficientvärden och (unsquared) termer i formler för ACF och variationer. Du måste kontrollera din programvara för att kontrollera om negativa eller positiva tecken har använts för att korrekt beräkna den beräknade modellen. R använder positiva tecken i sin underliggande modell, som vi gör här. Teoretiska egenskaper hos en tidsserie med en MA (1) modell Observera att det enda nonzero-värdet i teoretisk ACF är för lag 1. Alla andra autokorrelationer är 0. Således är ett prov ACF med en signifikant autokorrelation endast vid lag 1 en indikator på en möjlig MA (1) modell. För intresserade studenter är bevis på dessa egenskaper en bilaga till denna handout. Exempel 1 Antag att en MA (1) modell är x t10 w t .7 w t-1. var (överskridande N (0,1)). Således är koefficienten 1 0,7. Den teoretiska ACF ges av En plot av denna ACF följer. Den visade ploten är den teoretiska ACF för en MA (1) med 1 0,7. I praktiken ger ett prov vanligen vanligtvis ett så tydligt mönster. Med hjälp av R simulerade vi n 100 provvärden med hjälp av modellen x t 10 w t .7 w t-1 där vikt N (0,1). För denna simulering följer en tidsserieplot av provdata. Vi kan inte berätta mycket från denna plot. Provet ACF för den simulerade data följer. Vi ser en spik vid lag 1 följt av allmänt icke-signifikanta värden för lags över 1. Observera att provet ACF inte matchar det teoretiska mönstret för den underliggande MA (1), vilket är att alla autokorrelationer för lags över 1 kommer att vara 0 . Ett annat prov skulle ha ett något annorlunda prov ACF som visas nedan, men skulle troligen ha samma breda funktioner. Terapeutiska egenskaper för en tidsreaktion med en MA (2) modell För MA (2) modellen är teoretiska egenskaper följande: Observera att de enda nonzero-värdena i teoretisk ACF är för lags 1 och 2. Autokorrelationer för högre lags är 0 . En ACF med signifikanta autokorrelationer vid lags 1 och 2, men icke-signifikanta autokorrelationer för högre lags indikerar en möjlig MA (2) modell. iid N (0,1). Koefficienterna är 1 0,5 och 2 0,3. Eftersom det här är en MA (2), kommer den teoretiska ACF endast att ha nonzero-värden endast på lags 1 och 2. Värdena för de två icke-oberoende autokorrelationerna är A-plot av den teoretiska ACF följer. Såsom nästan alltid är fallet kommer provdata inte att verka så perfekt som teori. Vi simulerade n 150 provvärden för modellen x t 10 w t .5 w t-1 .3 w t-2. var vet N (0,1). Tidsserierna av data följer. Som med tidsserien för MA (1) provdata kan du inte berätta mycket för det. Provet ACF för den simulerade data följer. Mönstret är typiskt för situationer där en MA (2) modell kan vara användbar. Det finns två statistiskt signifikanta spikar vid lags 1 och 2 följt av icke-signifikanta värden för andra lags. Observera att provet ACF på grund av provtagningsfel inte exakt matchade det teoretiska mönstret. ACF för General MA (q) Modeller En egenskap hos MA (q) modeller är generellt att det finns icke-oberoende autokorrelationer för de första q-lagsna och autokorrelationerna 0 för alla lags gt q. Icke-unikhet av koppling mellan värden på 1 och (rho1) i MA (1) Modell. I MA (1) - modellen, för något värde av 1. den ömsesidiga 1 1 ger samma värde. Använd exempelvis 0,5 för 1. och använd sedan 1 (0,5) 2 för 1. Du får (rho1) 0,4 i båda fallen. För att tillfredsställa en teoretisk restriktion kallad invertibility. vi begränsar MA (1) - modellerna till att ha värden med absolutvärdet mindre än 1. I exemplet just givet är 1 0,5 ett tillåtet parametervärde, medan 1 10,5 2 inte kommer att. Omvändbarhet av MA-modeller En MA-modell sägs vara omvändbar om den är algebraiskt ekvivalent med en konvergerande oändlig ordning AR-modell. Genom att konvergera menar vi att AR-koefficienterna minskar till 0 när vi flyttar tillbaka i tiden. Omvändbarhet är en begränsning programmerad i tidsserieprogramvara som används för att uppskatta koefficienterna för modeller med MA-termer. Det är inte något vi söker efter i dataanalysen. Ytterligare information om invertibilitetsbegränsningen för MA (1) - modeller ges i bilagan. Avancerad teorinotation. För en MA (q) modell med en specificerad ACF finns det bara en inverterbar modell. Det nödvändiga villkoret för invertibilitet är att koefficienterna har värden så att ekvationen 1- 1 y-. - q y q 0 har lösningar för y som faller utanför enhetens cirkel. R-kod för exemplen I exempel 1 ritade vi den teoretiska ACF av modellen x t10 wt. 7w t-1. och sedan simulerade n 150 värden från denna modell och plottade provets tidsserie och provet ACF för de simulerade data. R-kommandon som användes för att plotta den teoretiska ACF var: acfma1ARMAacf (mac (0.7), lag. max10) 10 lags av ACF för MA (1) med theta1 0,7 lags0: 10 skapar en variabel som heter lags som sträcker sig från 0 till 10. plot (lags, acfma1, xlimc (1,10), ylabr, typh, huvud ACF för MA (1) med theta1 0,7) abline (h0) adderar en horisontell axel till plottet Det första kommandot bestämmer ACF och lagrar det i ett objekt namnet acfma1 (vårt val av namn). Plot-kommandot (det tredje kommandot) plottar jämfört med ACF-värdena för lags 1 till 10. ylab-parametern markerar y-axeln och huvudparametern lägger en titel på plotten. För att se de numeriska värdena för ACF använder du bara kommandot acfma1. Simuleringen och diagrammen gjordes med följande kommandon. xcarima. sim (n150, lista (mac (0.7))) Simulerar n 150 värden från MA (1) xxc10 lägger till 10 för att göra medelvärdet 10. Simulering standardvärden betyder 0. plot (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF för simulerad provdata) I exempel 2 ritade vi den teoretiska ACF av modellen xt 10 wt5 w t-1, 3 w t-2. och sedan simulerade n 150 värden från denna modell och plottade provets tidsserie och provet ACF för de simulerade data. De R-kommandon som användes var acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (lags, acfma2, xlimc (1,10), ylabr, typh, huvud ACF för MA (2) med theta1 0,5, theta20.3) abline (h0) xcarima. sim (n150, lista (mac (0,5, 0,3)) xxc10 plot (x, typeb, huvudsimulerad MA (2) serie) acf (x, xlimc (1,10) mainACF för simulerade MA (2) data) Bilaga: Bevis på egenskaper hos MA (1) För intresserade studenter, här är bevis för teoretiska egenskaper hos MA (1) modellen. Varians: (text (xt) text (mu wt theta1 w) 0 text (wt) text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) När h 1, föregående uttryck 1 w 2. För varje h 2, föregående uttryck 0 . Orsaken är att, per definition av vägtons oberoende. E (w k w j) 0 för någon k j. Vidare, eftersom w t har medelvärdet 0, E (w jw j) E (wj 2) w 2. För en tidsserie, Applicera detta resultat för att få ACF ges ovan. En inverterbar MA-modell är en som kan skrivas som en oändlig ordning AR-modell som konvergerar så att AR-koefficienterna konvergerar till 0 när vi rör sig oändligt tillbaka i tiden. Visa väl omvändbarhet för MA (1) modellen. Vi ersätter sedan förhållandet (2) för w t-1 i ekvation (1) (3) (zt wt theta1 (z-tetww) wt theta1z-tetanw) Vid tid t-2. ekvationen (2) blir Vi ersätter sedan förhållandet (4) för w t-2 i ekvation (3) (zt wt theta1z-teteta21wt theta1z-teteta21 (z-tetww) wt theta1z-teteta12z theta31w) Om vi skulle fortsätta oändligt) skulle vi få oändlig ordning AR-modellen (zt wt theta1z-theta21z theta31z-tetta41z punkter) Observera dock att om koefficienterna som multiplicerar lagren av z ökar (oändligt) i storlek när vi flyttar tillbaka i tid. För att förhindra detta behöver vi 1 lt1. Detta är förutsättningen för en inverterbar MA (1) modell. Oändlig ordning MA-modell I vecka 3 ser du att en AR (1) - modell kan konverteras till en oändlig ordning MA-modell: (xt - mu wt phi1w phi21w prickar phik1 w dots sum phij1w) Denna summering av tidigare vita ljudvillkor är känd som orsakssammanställning av en AR (1). Med andra ord är x t en special typ av MA med ett oändligt antal termer som går tillbaka i tiden. Detta kallas en oändlig ordning MA eller MA (). En ändlig ordning MA är en oändlig ordning AR och någon ändlös ordning AR är en oändlig ordning MA. Minns i vecka 1 noterade vi att ett krav på en stationär AR (1) är att 1 lt1. Låt beräkna Var (x t) med hjälp av kausalrepresentationen. Det här sista steget använder ett grundläggande faktum om geometriska serier som kräver (phi1lt1) annars skiljer serien. NavigationConsider oändlig ordning MA process definierad av ytepsilonta (epsilon epsilon.), Där a är en konstant och epsilonterna är i. i.d. N (0, v) slumpmässig variabel. Vad är det bästa sättet att visa att yt är icke-stationär Jag vet att jag måste titta på egenskaperna polynomernas karakteristiska rötter och sedan bedöma huruvida de är utanför enhetens cirkel, men vad är det bästa sättet att närma sig detta problem Ska jag försöka skriva om den oändliga beställningen MA-processen som en ändlös ordning för AR-processen eller är det lättare att arbeta MA-processen frågad 19 okt 13 kl 21: 11STAT 497 LEKTUR NOTERAR 3 STATIONÄRA TID SERIEN PROCESSER (ARMA PROCESSES OR BOX-JENKINS PROCESSES) 1 . Presentation på temat: STAT 497 LÄSEMEDLEDNINGAR 3 STATIONÄRA TIDSERIEPROCESSER (ARMA-PROCESSER ELLER BOX-JENKINS-PROCESSER) 1. Presentationsutskrift: 1 STAT 497 LEKTUR NOTERAR 3 STATIONÄRA TIDSERIEPROCESSER (ARMA-PROCESSER ELLER BOX-JENKINS-PROCESSER) 1 3 AR (p) PROCESS Eftersom processen alltid är inverterbar. För att vara stationär måste rösterna för p (B) 0 ligga utanför enhetens cirkel. AR-processen är användbar för att beskriva situationer där nuvärdet av en tidsserie beror på dess föregående värden plus en slumpmässig chock. 3 4 AR (1) PROCESS där en t WN (0,) Alltid inverterbar. För att vara stationär måste rösterna för (B) 1 B 0 ligga utanför enhetens cirkel. 4 5 AR (1) PROCESS ELLER med hjälp av den karakteristiska ekvationen måste rösterna på m 0 ligga inuti enhetens cirkel. B 1 B 6 AR (1) PROCESS Denna process kallas ibland som Markov-processen eftersom fördelningen av Y t givet Y t 1, Y t 2, är exakt densamma som fördelningen av Y t givet Y t 1. 6 15 THE SECOND ORDER AUTOREGRESSIVE PROCESS AR (2) PROCESS: Tänk serien som uppfyller 15 var vid WN (0,). 16 AR (2) PROCESS Alltid inverterbar. Redan i den omvända formuläret. För att vara stationär måste rötterna ligga utanför enhetens cirkel. ELLER roten av den karakteristiska ekvationen måste ligga inuti enhetscirkeln. 16 18 AR (2) PROCESS Med tanke på både verkliga och komplexa rötter har vi följande stationära förutsättningar för AR (2) - processen (se sidan 84 för beviset) 18 19 AR (2) PROCESS AUTOCOVARIANCE FUNCTION: Anta stationäritet och är oberoende av Y tk, har vi 19 24 AR (2) PROCESS ACF: Det är känt som Yule-Walker Equations 24 ACF visar ett exponentiellt sönderfall eller sinusformat beteende. 27 P-TH ORDER AUTOREGRESSIV PROCESS: AR (p) PROCESS Betrakta processen som uppfyller 27 där en t WN (0,). förutsatt att alla rötter ligger utanför enhetskretsen 28 AR (p) PROCESS ACF: Yule-Walker Equations ACF: svansar som en blandning av exponentiell sönderfall eller dämpad sinusvåg (om några rötter är komplexa). PACF: skärs efter lag s. 28 29 Flytta gängse processer Antag att du vinner 1 TL om ett rättvist mynt visar ett huvud och förlorar 1 TL om det visar svansen. Ange resultatet på kasta t av en t. Den genomsnittliga vinnaren på de sista 4 löpande vinsterna på de sista kastarna: 29 Flytta medelvärdet 30 Fel är medelvärdet av detta perioder slumpmässigt fel och de senaste perioderna slumpmässigt fel. Inget minne om tidigare nivåer. Effekten av chock på serien tar exakt en period att försvunna för MA (1) processen. I MA (2) processen tar chocken 2-perioder och sedan bleknar. I MA (1) - processen skulle korrelationen endast bestå en period. 30 32 Flytta gängse processer Eftersom MA-processer är alltid stationära. Omvändbar om rötterna på q (B) 0 ligger alla utanför enhetens cirkel. Det är en användbar process att beskriva händelser som producerar en omedelbar effekt som varar under kort tid. 32 33 DEN FÖRSTA ORDEN RÖRAR AVERAGE PROCESSMA (1) PROCESSEN Beakta processen som uppfyller 33 37 MA (1) PROCESS Grundläggande egenskap hos MA (1) Process: ACF skärs efter lag 1. PACF svansar exponentiellt beroende på tecknet på. Alltid stillastående. Omvändbar om roten på 1 B0 ligger utanför enhetens cirkel eller roten på den karakteristiska ekvationen m 0 ligger inuti enhetens cirkel. INVERTIBILITETSBESTÄMMELSE: 40 DEN ANDRA BESTÄLLNINGEN RÖRAR AVERAGE PROCESSMA (2) PROCESS Tänk på den glidande genomsnittliga processen i ordning 2: 40 42 MA (2) PROCESS ACF ACF skärs av efter lag 2. PACF-svans av exponentiellt eller dämpad sinusvågor beroende på tecken och storlek på parametrar. 42 43 MA (2) PROCESS Alltid stillastående. Omvändbar om alla rötter ligger utanför enhetens cirkel. ELLER om alla rötter ligger inom enhetens cirkel. 43 48 DEN AUTOREGRESSIVA RÖRANDE AVERAGE PROCESSESARMA (p, q) PROCESSER Om vi antar att serien är delvis autoregressiv och delvis rörlig genomsnitts får vi en blandad ARMA-process. 48 49 ARMA (p, q) PROCESSER För att processen ska vara omvänd, ligger rötterna utanför enhetens cirkel. För att processen ska vara stillastående, ligger rötterna utanför enhetens cirkel. Anta det och dela inga gemensamma rötter. Ren AR-representation: Ren MA-representation: 49 50 ARMA (p, q) PROCESSER Autocovariansfunktion ACF Som AR (p) - processen svikter den efter lag q. PACF: På samma sätt som MA (q), sviter den efter eftersläp p. 50
No comments:
Post a Comment