Sunday, 3 December 2017

Przenoszenie średnia model acf


Ogólne sezonowe modele ARIMA: (0,1,1) x (0,1,1) itp. Zarys sezonowego modelowania ARIMA: sezonowa część modelu ARIMA ma taką samą strukturę jak część niesezonowa: może mieć Czynnik AR, czynnik MA i kolejność różnicowania. W sezonowej części modelu wszystkie te czynniki działają w ramach wielokrotności opóźnień s (liczba okresów w sezonie). Sezonowy model ARIMA jest klasyfikowany jako model ARIMA (p, d, q) x (P, D, Q), gdzie liczba sezonowych autoregresyjnych (SAR) określeń, liczba różnic sezonowych, liczba sezonów sezonowej średniej ruchomej (SMA) Identyfikując model sezonowy, pierwszym krokiem jest ustalenie, czy różnica sezonowa jest potrzebna, czy nie, oprócz różnicy nie sezonowej. Powinieneś spojrzeć na wykresy szeregów czasowych i wykresy ACF i PACF dla wszystkich możliwych kombinacji 0 lub 1 różnicy nie-sezonowej i 0 lub 1 różnicy sezonowej. Uwaga: nie używaj więcej niż JEDNĄ różnicę sezonową, ani więcej niż DWIE różnice całkowite (sezonowe i niesezonowe łącznie). Jeśli sezonowość jest zarówno silna, jak i stabilna w czasie (np. Wysoka w lecie i niska w zimie lub na odwrót), prawdopodobnie należy użyć sezonowej różnicy niezależnie od tego, czy korzystasz z niesezonowej różnicy, ponieważ zapobiec sezonowości w wycenie w prognozach długoterminowych. Dodajmy to do naszej listy zasad identyfikacji modeli Zasada 12: Jeśli seria ma silny i spójny wzór sezonowy, powinieneś użyć kolejności sezonowego różnicowania - ale nigdy nie używaj więcej niż jednego rzędu sezonowego różnicowania lub więcej niż 2 rozkazy całkowitej różnicy (sezonowe). Sygnatura czystego SAR lub czystego zachowania SMA jest podobna do sygnatury czystego AR lub czystego zachowania MA, z tym wyjątkiem, że wzór pojawia się w przypadku wielokrotności opóźnień s w ACF i PACF. Na przykład, proces czystego SAR (1) ma skoki w ACF w opóźnieniach s, 2s, 3s, itp., Podczas gdy PACF odcina po opóźnieniu s. Odwrotnie, czysty proces SMA (1) ma skoki w PACF w opóźnieniach s, 2s, 3s, itp., Podczas gdy ACF odcina po opóźnieniu s. Sygnatura SAR zwykle występuje, gdy autokorelacja w sezonie jest pozytywna, podczas gdy sygnatura SMA zwykle występuje, gdy sezonowa autokorelacja jest ujemna. stąd: Zasada 13: Jeśli autokorelacja w okresie sezonowym jest dodatnia. rozważ dodanie do modelu warunku SAR. Jeśli autokorelacja w okresie sezonowym jest ujemna. rozważ dodanie do modelu terminu SMA. Staraj się unikać mieszania terminów SAR i SMA w tym samym modelu i unikaj używania więcej niż jednego z nich. Zwykle wystarczający jest termin SAR (1) lub SMA (1). Rzadko będziesz spotykał się z oryginalnym procesem SAR (2) lub SMA (2), a jeszcze rzadziej dysponujesz wystarczającą ilością danych, aby oszacować 2 lub więcej współczynników sezonowych bez zastosowania algorytmu oszacowania w pętli sprzężenia zwrotnego. Chociaż wydaje się, że sezonowy model ARIMA miał tylko kilka parametrów, pamiętaj, że w celu wykonania inwentaryzacji wymaga oszacowania wartości jednego lub dwóch sezonów parametrów domyślnych. Dlatego powinieneś mieć co najmniej 4 lub 5 sezonów danych, aby pasowały do ​​sezonowego modelu ARIMA. Prawdopodobnie najczęściej stosowanym sezonowym modelem ARIMA jest model (0,1,1) x (0,1,1) - tj. model MA (1) xSMA (1) z różnicą zarówno sezonową, jak i nie-sezonową. Jest to w gruncie rzeczy model posezonowy o wykładniczym wykładniku wygładzającym. Kiedy sezonowe modele ARIMA są dopasowane do rejestrowanych danych, są w stanie śledzić mnożnikowy wzór sezonowy. Przykład: ponowna ocena serii AUTOSALE Przypomnijmy, że wcześniej prognozowaliśmy serię sprzedaży detalicznej samochodów, stosując kombinację deflacji, korekty sezonowej i wygładzania wykładniczego. Spróbuj teraz dopasować tę samą serię do sezonowych modeli ARIMA, używając tej samej próbki danych od stycznia 1970 do maja 1993 (281 obserwacji). Tak jak poprzednio będziemy pracować z deflowaną sprzedażą auto - tj. użyjemy serii AUTOSALECPI jako zmiennej wejściowej. Oto wykresy szeregów czasowych i wykresy ACF i PACF z oryginalnej serii, które są otrzymywane w procedurze prognozowania poprzez wykreślenie wartości cząstkowych modelu ARIMA (0,0,0) x (0,0,0) ze stałą: Wzór mostka z zawieszeniem w ACF jest typowy dla serii, która jest zarówno niestacjonarna, jak i silnie sezonowa. Oczywiście potrzebujemy co najmniej jednej kolejności różnicowania. Jeśli przyjmiemy niesezonową różnicę, odpowiednie wykresy są następujące: Różna seria (reszty modelu losowego chodu ze wzrostem) wygląda mniej więcej stacjonarnie, ale wciąż jest bardzo silna autokorelacja w sezonie (opóźnienie 12). Ponieważ struktura sezonowa jest silna i stabilna, wiemy (zgodnie z zasadą 12), że będziemy chcieli zastosować kolejność sezonowego różnicowania w modelu. Oto jak wygląda obraz po różnicy sezonowej (tylko): Odmienna sezonowo seria pokazuje bardzo silny wzór pozytywnej autokorelacji, jak pamiętamy z naszej wcześniejszej próby dopasowania sezonowego modelu spaceru losowego. Może to być sygnatura cytatu - lub może sygnalizować potrzebę innej różnicy. Jeśli przyjmiemy zarówno sezonową, jak i niesezonową różnicę, uzyskamy następujące wyniki: Są to oczywiście pozostałości z sezonowego modelu trendu losowego, który wcześniej dopasowaliśmy do danych sprzedaży automatycznej. Teraz widzimy wyraźne oznaki łagodnego przesiewania. dodatnie skoki w ACF i PACF stały się ujemne. Jaka jest prawidłowa kolejność różnic Jedna dodatkowa informacja, która może być pomocna, to obliczenie statystyk błędów serii na każdym poziomie różnicowania. Możemy je obliczyć, dopasowując odpowiednie modele ARIMA, w których używane jest tylko różnicowanie: Najmniejsze błędy, zarówno w okresie oszacowania, jak i okresie sprawdzania, są uzyskiwane przez model A, który wykorzystuje jedną różnicę każdego typu. To, wraz z pojawieniem się powyższych działek, zdecydowanie sugeruje, że powinniśmy stosować zarówno sezonową, jak i niesezonową różnicę. Zauważ, że oprócz nieodpłatnego stałego terminu, model A jest modelem sezonowego trendu losowego (SRT), podczas gdy model B jest jedynie sezonowym modelem losowego spaceru (SRW). Jak zauważyliśmy wcześniej podczas porównywania tych modeli, model SRT wydaje się pasować lepiej niż model SRW. W poniższej analizie postaramy się ulepszyć te modele poprzez dodanie sezonowych warunków ARIMA. Wróć na górę strony. Często używany model ARIMA (0,1,1) x (0,1,1): model SRT plus warunki MA (1) i SMA (1) Wracając do ostatniego zestawu wykresów powyżej, należy zauważyć, że z jedną różnicą w każdym typie występuje ujemny skok w ACF przy opóźnieniu 1, a także ujemny skok w ACF przy opóźnieniu 12. mając na uwadze, że PACF wykazuje bardziej stopniowy wzór kwotowania w pobliżu obu tych opóźnień. Stosując nasze zasady do identyfikowania modeli ARIMA (w szczególności Zasada 7 i Zasada 13), możemy teraz stwierdzić, że model SRT zostałby ulepszony przez dodanie terminu MA (1), a także terminu SMA (1). Ponadto, zgodnie z zasadą 5, wykluczamy stałą, ponieważ zaangażowane są dwa rozkazy różnicowania. Jeśli to wszystko zrobimy, otrzymamy model ARIMA (0,1,1) x (0,1,1). który jest najczęściej używanym sezonowym modelem ARIMA. Jego równanie prognostyczne jest następujące: gdzie 952 1 to współczynnik MA (1), a 920 1 (kapitał teta-1) to współczynnik SMA (1). Zauważ, że jest to po prostu sezonowy model trendu losowego, który jest przewidziany przez dodanie wielokrotności błędów w opóźnieniach 1, 12 i 13. Zwróć też uwagę, że współczynnik błędu opóźnienia-13 jest iloczynem MA (1) i Współczynniki SMA (1). Model ten jest koncepcyjnie podobny do modelu Wintersa, o ile efektywnie stosuje wygładzanie wykładnicze do poziomu, trendu i sezonowości jednocześnie, chociaż opiera się na solidniejszych podstawach teoretycznych, szczególnie w odniesieniu do obliczania przedziałów ufności dla prognoz długoterminowych. Jego pozostałe wykresy w tym przypadku są następujące: chociaż niewielka ilość autokorelacji utrzymuje się w opóźnieniu 12, ogólny wygląd wykresów jest dobry. Wyniki dopasowania modelu pokazują, że oszacowane współczynniki MA (1) i SMA (1) (uzyskane po 7 iteracjach) są rzeczywiście znaczące: Prognozy z modelu przypominają modele sezonowego trendu losowego - tj. na końcu serii podnoszą sezonowość i lokalny trend - ale są nieco gładsze, ponieważ zarówno sezonowość, jak i trend są skutecznie uśredniane (w sposób wygładzający wykładniczy) w ciągu ostatnich kilka sezonów: Co naprawdę robi ten model? Możesz myśleć o tym w następujący sposób. Najpierw oblicza różnicę między wartością każdego miesiąca8217 a 8220 średnią ważoną historyczną średnią8221 dla tego miesiąca, która jest obliczana przez zastosowanie wygładzania wykładniczego do wartości obserwowanych w tym samym miesiącu w poprzednich latach, gdzie wielkość wygładzania jest określana przez SMA (1). ) współczynnik. Następnie stosuje się proste wygładzanie wykładnicze do tych różnic, aby przewidzieć odchylenie od średniej historycznej, która będzie obserwowana w przyszłym miesiącu. Wartość współczynnika SMA (1) w pobliżu 1,0 sugeruje, że wiele pór roku danych jest używanych do obliczenia średniej historycznej dla danego miesiąca roku. Przypomnijmy, że współczynnik MA (1) w modelu ARIMA (0,1,1) odpowiada 1-minus-alfa w odpowiadającym wykładniczym modelu wyrównującym, a średni wiek danych w prognozie wykładniczej modelu wygładzania wynosi 1alfa. Współczynnik SMA (1) ma podobną interpretację w odniesieniu do średnich w różnych porach roku. Tutaj wartość 0,91 sugeruje, że średni wiek danych wykorzystywanych do oszacowania historycznego wzoru sezonowego wynosi nieco ponad 10 lat (prawie połowa długości zbioru danych), co oznacza, że ​​zakłada się prawie stały sezonowy wzór. O wiele mniejsza wartość 0,5 dla współczynnika MA (1) sugeruje, że robi się względnie mało wygładzania, aby oszacować odchylenie prądu od średniej historycznej dla tego samego miesiąca, więc w przyszłym miesiącu przewidywana odchyłka od średniej historycznej będzie zbliżona do odchyleń od średniej historycznej obserwowanej w ciągu ostatnich kilku miesięcy. Model ARIMA (1,0,0) x (0,1,0) ze stałym modelem SRW i terminem AR (1) Poprzedni model był sezonowym modelem losowej tendencji (SRT), który został dostrojony przez dodanie MA ( 1) i współczynniki SMA (1). Alternatywny model ARIMA dla tej serii można uzyskać przez podstawienie terminu AR (1) dla różnicy niesezonowej - tj. dodając termin AR (1) do modelu sezonowego spaceru losowego (SRW). Pozwoli to nam zachować sezonowy wzór w modelu przy jednoczesnym obniżeniu całkowitej różnicy, zwiększając w ten sposób stabilność projekcji trendów, jeśli będzie to pożądane. (Przypomnijmy, że tylko z jedną różnicą sezonową seria pokazała silny podpis AR (1).) Jeśli to zrobimy, otrzymamy model ARIMA (1,0,0) x (0,1,0) ze stałą, co daje następujące wyniki: Współczynnik AR (1) jest rzeczywiście bardzo istotny, a RMSE wynosi tylko 2,06, w porównaniu z 3,00 dla modelu SRW (Model B w powyższym raporcie porównawczym). Równanie prognostyczne dla tego modelu jest następujące: Dodatkowym terminem po prawej stronie jest wielokrotność różnicy sezonowej obserwowanej w ostatnim miesiącu, która ma wpływ na korektę prognozy na skutek wyjątkowo dobrego lub złego roku. Tutaj 981 1 oznacza współczynnik AR (1), którego oszacowana wartość wynosi 0,73. Tak więc, na przykład, jeśli sprzedaż w ubiegłym miesiącu wyniesie X dolarów przed sprzedażą rok wcześniej, wówczas do prognozy na ten miesiąc zostanie dodana ilość 0,73X. 956 oznacza CONSTANT w równaniu prognostycznym, którego wartość szacunkowa wynosi 0,20. Oszacowana wartość MEAN, której wartość wynosi 0,75, jest wartością średnią szeregu różnicowego, który jest rocznym trendem w długoterminowych prognozach tego modelu. Stała jest (z definicji) równa średniej razy 1 minus współczynnik AR (1): 0.2 0.75 (1 8211 0.73). Prognozowany wykres pokazuje, że model rzeczywiście ma lepszą pracę niż model SRW śledzenia zmian cyklicznych (tj. Wyjątkowo dobrych lub złych lat): Jednak MSE dla tego modelu jest nadal znacznie większy niż to, co uzyskaliśmy dla ARIMA (0, 1,1) x (0,1,1) model. Jeśli spojrzymy na wykresy reszt, widzimy możliwość poprawy. Reszty nadal wykazują pewną oznakę cyklicznej zmienności: ACF i PACF sugerują potrzebę stosowania zarówno współczynników MA (1), jak i SMA (1): Udoskonalona wersja: ARIMA (1,0,1) x (0,1,1) ze stałą Jeśli dodamy wskazane warunki MA (1) i SMA (1) do poprzedniego modelu, otrzymamy model ARIMA (1,0,1) x (0,1,1) ze stałą, której równanie prognostyczne jest To jest prawie taki sam jak model ARIMA (0,1,1) x (0,1,1), z tym wyjątkiem, że zastępuje on niesezonową różnicę z terminem AR (1) (odpowiednikiem częściowej liczby) i zawiera stały długoterminowy trend. W związku z tym model ten zakłada bardziej stabilny trend niż model ARIMA (0,1,1) x (0,1,1), a to jest zasadnicza różnica między nimi. Wyniki dopasowania modelu są następujące: Zauważ, że szacowany współczynnik AR (1) (981 1 w równaniu modelu) wynosi 0,96, co jest bardzo zbliżone do 1,0, ale nie tak bliskie, aby sugerować, że absolutnie powinno ono zostać zastąpione przez pierwsza różnica: standardowy błąd wynosi 0,02, czyli około 2 standardowych błędów od 1,0. Pozostałe statystyki modelu (szacowane współczynniki MA (1) i SMA (1) oraz statystyki błędów w okresach oszacowania i weryfikacji) są poza tym prawie identyczne z danymi ARIMA (0,1,1) x (0,1 , 1) model. (Oszacowane współczynniki MA (1) i SMA (1) wynoszą 0,45 i 0,91 w tym modelu w porównaniu z 0,48 i 0,91 w drugim.) Oszacowana wartość MEAN równa 0,68 jest przewidywaną tendencją długoterminową (średni roczny wzrost). Jest to zasadniczo ta sama wartość, która została uzyskana w modelu (1,0,0) x (0,1,0) - with-constant. Błąd standardowy oszacowanej średniej wynosi 0,26, więc różnica między 0,75 a 0,68 nie jest znacząca. Jeżeli stała nie byłaby uwzględniona w tym modelu, byłaby to model z tłumioną tendencją: tendencja w jej prognozach bardzo długookresowych stopniowo by się spłaszczyła. Prognozy punktowe z tego modelu wyglądają bardzo podobnie do modelu (0,1,1) x (0,1,1), ponieważ trend średni jest podobny do trendu lokalnego na końcu serii. Jednak przedziały ufności dla tego modelu rozszerzają się nieco wolniej z powodu założenia, że ​​trend jest stabilny. Zauważ, że limity ufności dla prognoz na dwa lata teraz mieszczą się w poziomych liniach siatki na 24 i 44, podczas gdy w modelach (0,1,1) x (0,1,1) nie: Sezonowe ARIMA kontra wygładzanie wykładnicze i korekta sezonowa: teraz porównajmy wydajność dwóch najlepszych modeli ARIMA z prostymi i liniowymi modelami wygładzania wykładniczego, którym towarzyszy multiplikatywne korekty sezonowe, oraz model Winters, jak pokazano na slajdach dotyczących prognozowania z korektą sezonową: Statystyki błędów dla prognozy jednokresowe dla wszystkich modeli są w tym przypadku bardzo bliskie. Trudno jest wybrać 8220winner8221 na podstawie tych samych liczb. Wróć na górę strony. Jakie są kompromisy pomiędzy różnymi modelami sezonowymi? Trzy modele, które wykorzystują multiplikatywne korekty sezonowe, zajmują się sezonowością w sposób wyraźny - tj. wskaźniki sezonowe są rozbijane jako wyraźna część modelu. Modele ARIMA radzą sobie z sezonowością w bardziej niejawny sposób - nie możemy łatwo zobaczyć w wynikach ARIMA, jak przeciętny grudzień, na przykład, różni się od średniego lipca. W zależności od tego, czy uznano, że ważne jest wyodrębnienie schematu sezonowego, może to być czynnikiem decydującym o wyborze modeli. Modele ARIMA mają tę zaletę, że po zainicjowaniu mają mniej części ruchomych niż wykładnicze modele wygładzania i dopasowywania i jako takie mogą być mniej skłonne do nadpisywania danych. Modele ARIMA mają również solidniejszą podstawową teorię w odniesieniu do obliczania przedziałów ufności dla prognoz o dłuższym horyzoncie niż w przypadku innych modeli. Istnieją bardziej dramatyczne różnice między modelami pod względem zachowania ich prognoz i przedziałów ufności dla prognoz dłuższych niż 1 okres w przyszłości. W tym miejscu bardzo ważne są założenia dotyczące zmian trendu i schematu sezonowego. Między dwoma modelami ARIMA jeden (model A) szacuje trend zmieniający się w czasie, podczas gdy drugi (model B) uwzględnia długoterminowy trend średni. (Moglibyśmy, gdybyśmy chcieli, spłycić długoterminowy trend w modelu B poprzez tłumienie stałego terminu.) Wśród modeli z wyrównaniem wykładniczym i dodatkowym jeden (model C) zakłada płaski trend, podczas gdy drugi ( model D) zakłada trend zmieniający się w czasie. Model Winters (E) przyjmuje również trend zmieniający się w czasie. Modele, które zakładają stały trend, są względnie bardziej pewne w swoich prognozach długoterminowych niż modele, które tego nie robią, a to zwykle ma odzwierciedlenie w stopniu, w jakim przedziały ufności dla prognoz stają się szersze przy dłuższych horyzontach prognozy. Modele, które nie przyjmują trendów zmieniających się w czasie, zazwyczaj mają węższe przedziały ufności dla prognoz o dłuższym horyzoncie, ale węższe nie są lepsze, chyba że to założenie jest poprawne. Dwa modele wygładzania wykładniczego w połączeniu z korektą sezonową zakładają, że wzór sezonowy pozostaje stały w ciągu 23 lat w próbie danych, podczas gdy pozostałe trzy modele nie. O ile sezonowa struktura uwzględnia większość zmian danych z miesiąca na miesiąc, to poprawienie jest ważne dla prognozowania, co stanie się kilka miesięcy w przyszłości. Jeśli wydaje się, że sezonowość zmieniała się powoli w czasie, innym rozwiązaniem byłoby po prostu użycie krótszej historii danych do dopasowania modeli, które szacują stałe indeksy sezonowe. Dla przypomnienia, tutaj są prognozy i 95 limitów ufności na maj 1995 (24 miesiące), które są wytwarzane przez pięć modeli: Prognozy punktowe są w rzeczywistości zaskakująco blisko siebie, w stosunku do szerokości wszystkich przedziałów ufności. Prognoza punktu SES jest najniższa, ponieważ jest to jedyny model, który nie zakłada trendu wzrostowego na końcu serii. Model ARIMA (1,0,1) x (0,1,1) c ma najwęższe granice ufności, ponieważ przyjmuje on mniejszą zmienność parametrów w czasie niż inne modele. Co więcej, jego prognoza punktowa jest nieco większa niż w innych modelach, ponieważ ekstrapoluje raczej trend długoterminowy niż trend krótkoterminowy (lub trend zerowy). Model Winters jest najmniej stabilny z modeli, a jego prognoza ma najszersze granice ufności, co widać na szczegółowych wykresach prognoz dla modeli. A prognozy i limity ufności modelu ARIMA (0,1,1) x (0,1,1) i modelu korekty LESseasonal są praktycznie identyczne Aby logować się lub nie logować Coś, czego jeszcze nie zrobiliśmy, ale może to być transformacja dziennika jako część modelu. Sezonowe modele ARIMA są z natury modelami addytywnymi, więc jeśli chcemy uchwycić multiplikacyjny wzór sezonowy. musimy to zrobić, rejestrując dane przed dopasowaniem modelu ARIMA. (W Statgraphics, musielibyśmy po prostu określić "Naturalny Logquot" jako opcję modelowania - nic wielkiego.) W tym przypadku wydaje się, że transformacja deflacyjna zadawała zadowalającą stabilizację amplitud cykli sezonowych, więc nie ma Wydaje się, że jest to nieodparty powód dodania transformacji logarytmicznej w odniesieniu do trendów długoterminowych. Jeśli reszty wykazują wyraźny wzrost wariancji w czasie, możemy zdecydować inaczej. Nadal pozostaje pytanie, czy błędy tych modeli mają stałą wariancję przez miesiące w roku. Jeśli nie, to przedziały ufności dla prognoz mogą być zbyt szerokie lub zbyt wąskie w zależności od sezonu. Wykresy rezydualne w czasie nie wykazują oczywistego problemu w tym względzie, ale aby być dokładnym, dobrze byłoby spojrzeć na wariancję błędu według miesiąca. Jeśli rzeczywiście występuje problem, transformacja dziennika może go naprawić. Powrót do początku strony. Ustalanie liczby warunków AR lub MA na wykresach ACF i PACF modelu ARIMA: Po serii czasowej została ustalona przez różnicowanie, następnym krokiem w dopasowaniu modelu ARIMA jest ustalenie, czy warunki AR lub MA są konieczne, aby poprawić wszelkie autokorelacje, które pozostają w różnych seriach. Oczywiście przy użyciu oprogramowania takiego jak Statgraphics można po prostu wypróbować różne kombinacje terminów i zobaczyć, co działa najlepiej. Ale jest bardziej systematyczny sposób na zrobienie tego. Patrząc na wykresy funkcji autokorelacji (ACF) i częściowej autokorelacji (PACF) w różnych seriach, można wstępnie określić liczbę wymaganych warunków AR i lub IRA. Jesteś już zaznajomiony z działaniem ACF: jest to jedynie wykres słupkowy współczynników korelacji między szeregiem czasowym a opóźnieniami samego siebie. Wykres PACF jest wykresem cząstkowych współczynników korelacji między serią a opóźnieniami. Ogólnie rzecz biorąc, porównywalna korelacja między dwiema zmiennymi jest ilością korelacji między nimi, która nie jest wyjaśniona ich wzajemnymi korelacjami z określonym zestawem innych zmiennych. Na przykład, jeśli cofamy zmienną Y na innych zmiennych X1, X2 i X3, częściowa korelacja między Y i X3 jest ilością korelacji między Y i X3, która nie jest wyjaśniona ich wspólnymi korelacjami z X1 i X2. Ta częściowa korelacja może być obliczona jako pierwiastek kwadratowy z redukcji wariancji, która jest osiągnięta przez dodanie X3 do regresji Y na X1 i X2. Częściowa autokorelacja to wielkość korelacji między zmienną a opóźnieniem, która nie jest wyjaśniona przez korelacje na wszystkich dolnych - lagach. Autokorelacja szeregu czasowego Y w opóźnieniu 1 jest współczynnikiem korelacji między Y t a Y t - 1. co jest prawdopodobnie także korelacją między Y t -1 i Y t -2. Ale jeśli Y t jest skorelowane z Y t -1. a Y t -1 jest równie skorelowane z Y t -2. wtedy powinniśmy również oczekiwać korelacji między Y t a Y t-2. W rzeczywistości, ilość korelacji, której powinniśmy się spodziewać przy opóźnieniu 2, jest dokładnie kwadratem korelacji opóźnienia-1. Tak więc, korelacja przy opóźnieniu 1 odpowiada często drugiemu opóźnieniu 2 i prawdopodobnie opóźnieniach wyższego rzędu. Częściowa autokorelacja w opóźnieniu 2 jest zatem różnicą między rzeczywistą korelacją przy opóźnieniu 2 a oczekiwaną korelacją z powodu propagacji korelacji w opóźnieniu 1. Oto funkcja autokorelacji (ACF) szeregu jednostek, przed przeprowadzeniem jakiegokolwiek różnicowania: Autokorelacje są znaczące dla dużej liczby opóźnień - ale być może autokorelacje w opóźnieniach 2 i powyżej są jedynie spowodowane propagacją autokorelacji w opóźnieniu 1. Potwierdza to wykres PACF: Należy zauważyć, że wykres PACF ma znaczącą wartość. skok tylko w opóźnieniu 1, co oznacza, że ​​wszystkie autokorelacje wyższego rzędu są efektywnie wyjaśnione przez autokorelację lag-1. Częściowe autokorelacje we wszystkich opóźnieniach można obliczyć, dopasowując kolejne modele autoregresyjne z rosnącą liczbą opóźnień. W szczególności, częściowa autokorelacja przy opóźnieniu k jest równa oszacowanemu współczynnikowi AR (k) w modelu autoregresyjnym z parametrami k - tj. model regresji wielokrotnej, w którym Y jest regresowane na LGD (Y, 1), LAG (Y, 2) itd. aż do LAG (Y, k). Tak więc, po prostu inspekcji PACF można określić, ile wyrażeń AR trzeba użyć, aby wyjaśnić wzór autokorelacji w szeregu czasowym: jeżeli częściowa autokorelacja jest znacząca przy opóźnieniu k i nieistotna przy opóźnieniach wyższego rzędu - tj. jeśli PACF zacytuje ząb pod opóźnieniem k - to sugeruje, że powinieneś spróbować dopasować autoregresyjny model rzędu k PACF z serii JEDNOSTKI stanowi skrajny przykład fenomenu odcięcia: ma bardzo duży skok w czasie opóźnienia 1 i żadnych innych znaczących skoków, co wskazuje, że przy braku różnicowania należy zastosować model AR (1). Jednak termin AR (1) w tym modelu okaże się równoważny z pierwszą różnicą, ponieważ szacowany współczynnik AR (1) (który jest wysokością pęczka PACF przy opóźnieniu 1) będzie prawie dokładnie równy 1 Teraz równanie prognostyczne dla modelu AR (1) dla serii Y bez rozróżnienia jest następujące: Jeśli współczynnik AR (1) 981 1 w tym równaniu jest równy 1, jest to równoważne z przewidywaniem, że pierwsza różnica z Y jest stałe - tj jest to odpowiednik równania modelu chodzenia swobodnego ze wzrostem: seria PACF z serii JEDNOSTKI mówi nam, że jeśli nie chcemy tego zmienić, powinniśmy dopasować model AR (1), który okaże się równoważny z przyjmowaniem pierwsza różnica. Innymi słowy, mówi nam, że JEDNOSTKI naprawdę potrzebują rozróżnienia, aby być stacjonarnym. Sygnatury AR i MA: Jeśli PACF wyświetla ostre wartości graniczne, podczas gdy ACF rozpada się wolniej (tj. Ma znaczące skoki przy wyższych opóźnieniach), mówimy, że w stacjonarnej serii wyświetlany jest podpis cytatu, co oznacza, że ​​wzór autokorelacji można wyjaśnić łatwiej przez dodanie warunków AR niż przez dodanie warunków MA. Prawdopodobnie okaże się, że sygnatura AR jest zwykle powiązana z pozytywną autokorelacją w opóźnieniu 1 - tj. ma tendencję do powstawania w seriach, które są nieznacznie pod różnicami. Powodem tego jest to, że termin AR może zachowywać się jak część równomierna w równaniu prognostycznym. Na przykład w modelu AR (1) termin AR działa jak pierwsza różnica, jeśli współczynnik autoregresyjny jest równy 1, nie robi nic, jeśli współczynnik autoregresyjny wynosi zero, i działa jak różnica częściowa, jeśli współczynnik jest pomiędzy 0 i 1. Tak więc, jeśli seria jest nieco niewystarczająca - tzn jeśli niestacjonarny wzorzec dodatniej autokorelacji nie został całkowicie wyeliminowany, to przydział wyświetli różnicę częściową przez wyświetlenie podpisu AR. W związku z tym mamy następującą zasadę, aby określić, kiedy dodać terminy AR: Zasada 6: Jeśli PACF szeregu różnicowego wyświetla ostry odcięcie, a autokorelacja opóźnienia-1 jest dodatnia - tj. jeśli seria wydaje się być nieco przytoczona, należy rozważyć dodanie do modelu warunku AR. Opóźnienie, w którym odcina się PACF, to wskazana liczba terminów AR. Zasadniczo, każdy wzorzec autokorelacji może być usunięty ze stacjonarnej serii przez dodanie wystarczającej liczby autoregresyjnych określeń (opóźnienia w stacjonarnej serii) do równania prognostycznego, a PACF informuje, ile takich wyrażeń jest prawdopodobnie potrzebnych. Jednak nie zawsze jest to najprostszy sposób wyjaśnienia danego wzorca autokorelacji: czasami bardziej efektywne jest dodawanie warunków MA (zamiast błędów prognozy) zamiast tego. Funkcja autokorelacji (ACF) pełni tę samą rolę dla warunków MA, które PACF odtwarza dla terminów AR - to znaczy, że ACF określa, ile terminów MA będzie prawdopodobnie potrzebnych do usunięcia pozostałych autokorelacji z serii różnicowej. Jeżeli autokorelacja jest znacząca przy opóźnieniu k, ale nie przy wyższych opóźnieniach - tj. jeśli ACF notuje zliczenie w miejscu zwłoki k-- wskazuje to, że w równaniu prognostycznym należy użyć dokładnie k warunków MA. W tym drugim przypadku mówimy, że stacjonarna seria wyświetla sygnaturę quotMA, co oznacza, że ​​wzór autokorelacji można wyjaśnić łatwiej, dodając warunki MA, niż przez dodanie warunków AR. Sygnatura MA jest zwykle związana z ujemną autokorelacją w opóźnieniu 1 - tj. ma tendencję do powstawania w seriach, które są nieco zbyt zróżnicowane. Powodem tego jest to, że termin MZ może zwyczajowo anulować kolejność różnicowania w równaniu prognostycznym. Aby to zobaczyć, pamiętaj, że model ARIMA (0,1,1) bez stałej jest równoważny prostemu modelowi wygładzania wykładniczego. Równanie prognostyczne dla tego modelu ma miejsce, gdy współczynnik MA (1) 952 1 odpowiada ilości 1 - 945 w modelu SES. Jeśli 952 1 jest równe 1, odpowiada to modelowi SES z 945 0, który jest tylko modelem CONSTANT, ponieważ prognoza nigdy nie jest aktualizowana. Oznacza to, że gdy 952 1 jest równe 1, to faktycznie anuluje operację różnicowania, która zwykle umożliwia prognozie SES ponowne zakotwiczenie się na ostatniej obserwacji. Z drugiej strony, jeżeli współczynnik średniej ruchomej jest równy 0, model ten zmniejsza się do modelu losowego chodzenia - tj. pozostawia samą operację różnicowania. Tak więc, jeśli 952 1 jest większe od 0, to tak, jakbyśmy częściowo anulowali kolejność różnicowania. Jeśli seria jest już nieco zbyt różna - tzn. jeśli wprowadzono ujemną autokorelację - wówczas przydział będzie powodował, że różnica zostanie częściowo anulowana przez wyświetlenie podpisu MA. (Tutaj dzieje się dużo machania ramion. Bardziej rygorystyczne wyjaśnienie tego efektu znajduje się w Matematycznej strukturze materiałów ARIMA Models.) Stąd wynika następująca dodatkowa zasada: Zasada 7: Jeśli ACF z serii różnicowej wyświetla ostre odcięcie, lub autokorelacja opóźnienia-1 jest ujemna - jeśli seria wydaje się nieco quotoverdifferencedquot - wtedy rozważ dodanie do modelu warunku MA. Opóźnienie, w którym odcina się ACF, to wskazana liczba warunków MA. Model serii UNITS - ARIMA (2,1,0): Wcześniej ustaliliśmy, że seria JEDNOSTEK wymaga (przynajmniej) jednego porządku niesezonowego różnicowania do stacjonowania. Po przyjęciu jednej niesezonowej różnicy - tj. dopasowywanie modelu ARIMA (0,1,0) ze stałą - wykresy ACF i PACF wyglądają następująco: Zwróć uwagę, że (a) korelacja przy opóźnieniu 1 jest znacząca i dodatnia, i (b) PACF pokazuje ostrzejszy cytat niższy niż ACF. W szczególności PACF ma tylko dwa znaczące skoki, podczas gdy ACF ma cztery. Tak więc, zgodnie z zasadą 7 powyżej, seria różnicowa wyświetla podpis AR (2). Jeśli więc ustawimy kolejność okresu AR na 2 - tj. dopasować model ARIMA (2, 1) - otrzymujemy następujące wykresy ACF i PACF dla reszt: autokorelacja w kluczowych opóźnieniach - a mianowicie opóźnienia 1 i 2 - została wyeliminowana i nie ma dostrzegalnego wzorca w opóźnieniach wyższego rzędu. Wykres wartości rezydualnych w szeregu czasowym wykazuje nieco niepokojącą tendencję do oddalania się od średniej: jednak raport podsumowujący analizę pokazuje, że model zachowuje się całkiem dobrze w okresie walidacji, oba współczynniki AR znacznie różnią się od zera, a standard odchylenie wartości rezydualnych zostało zmniejszone z 1.54371 do 1.4215 (prawie 10) poprzez dodanie warunków AR. Co więcej, nie ma oznak monotonii kwotowej, ponieważ suma współczynników AR (0.2522540.195572) nie jest bliska 1. (Korzenie jednostek są omówione bardziej szczegółowo poniżej). Ogólnie rzecz biorąc, wydaje się, że jest to dobry model . Prognozy (nietransformowane) dla modelu pokazują liniowy trend wzrostowy prognozowany w przyszłości: trend w prognozach długoterminowych wynika z faktu, że model zawiera jedną niesezonową różnicę i stały termin: ten model jest w zasadzie przypadkowym spacerem z wzrost dopracowany przez dodanie dwóch terminów autoregresyjnych - tj dwa opóźnienia różnej serii. The slope of the long-term forecasts (i. e. the average increase from one period to another) is equal to the mean term in the model summary (0.467566). The forecasting equation is: where 956 is the constant term in the model summary (0.258178), 981 1 is the AR(1) coefficient (0.25224) and 981 2 is the AR(2) coefficient (0.195572). Mean versus constant: In general, the quotmeanquot term in the output of an ARIMA model refers to the mean of the differenced series (i. e. the average trend if the order of differencing is equal to 1), whereas the quotconstantquot is the constant term that appears on the right-hand-side of the forecasting equation . The mean and constant terms are related by the equation: CONSTANT MEAN(1 minus the sum of the AR coefficients). In this case, we have 0.258178 0.467566(1 - 0.25224 - 0.195572) Alternative model for the UNITS series--ARIMA(0,2,1): Recall that when we began to analyze the UNITS series, we were not entirely sure of the correct order of differencing to use. One order of nonseasonal differencing yielded the lowest standard deviation (and a pattern of mild positive autocorrelation), while two orders of nonseasonal differencing yielded a more stationary-looking time series plot (but with rather strong negative autocorrelation). Here are both the ACF and PACF of the series with two nonseasonal differences: The single negative spike at lag 1 in the ACF is an MA(1) signature, according to Rule 8 above. Thus, if we were to use 2 nonseasonal differences, we would also want to include an MA(1) term, yielding an ARIMA(0,2,1) model. According to Rule 5, we would also want to suppress the constant term. Here, then, are the results of fitting an ARIMA(0,2,1) model without constant: Notice that the estimated white noise standard deviation (RMSE) is only very slightly higher for this model than the previous one (1.46301 here versus 1.45215 previously). The forecasting equation for this model is: where theta-1 is the MA(1) coefficient. Recall that this is similar to a Linear Exponential Smoothing model, with the MA(1) coefficient corresponding to the quantity 2(1-alpha) in the LES model. The MA(1) coefficient of 0.76 in this model suggests that an LES model with alpha in the vicinity of 0.72 would fit about equally well. Actually, when an LES model is fitted to the same data, the optimal value of alpha turns out to be around 0.61, which is not too far off. Here is a model comparison report that shows the results of fitting the ARIMA(2,1,0) model with constant, the ARIMA(0,2,1) model without constant, and the LES model: The three models perform nearly identically in the estimation period, and the ARIMA(2,1,0) model with constant appears slightly better than the other two in the validation period. On the basis of these statistical results alone, it would be hard to choose among the three models. However, if we plot the long-term forecasts made by the ARIMA(0,2,1) model without constant (which are essentially the same as those of the LES model), we see a significant difference from those of the earlier model: The forecasts have somewhat less of an upward trend than those of the earlier model--because the local trend near the end of the series is slightly less than the average trend over the whole series--but the confidence intervals widen much more rapidly. The model with two orders of differencing assumes that the trend in the series is time-varying, hence it considers the distant future to be much more uncertain than does the model with only one order of differencing. Which model should we choose That depends on the assumptions we are comfortable making with respect to the constancy of the trend in the data. The model with only one order of differencing assumes a constant average trend--it is essentially a fine-tuned random walk model with growth--and it therefore makes relatively conservative trend projections. It is also fairly optimistic about the accuracy with which it can forecast more than one period ahead. The model with two orders of differencing assumes a time-varying local trend--it is essentially a linear exponential smoothing model--and its trend projections are somewhat more more fickle. As a general rule in this kind of situation, I would recommend choosing the model with the lower order of differencing, other things being roughly equal. In practice, random-walk or simple-exponential-smoothing models often seem to work better than linear exponential smoothing models. Mixed models: In most cases, the best model turns out a model that uses either only AR terms or only MA terms, although in some cases a quotmixedquot model with both AR and MA terms may provide the best fit to the data. However, care must be exercised when fitting mixed models. It is possible for an AR term and an MA term to cancel each others effects . even though both may appear significant in the model (as judged by the t-statistics of their coefficients). Thus, for example, suppose that the quotcorrectquot model for a time series is an ARIMA(0,1,1) model, but instead you fit an ARIMA(1,1,2) model--i. e. you include one additional AR term and one additional MA term. Then the additional terms may end up appearing significant in the model, but internally they may be merely working against each other. The resulting parameter estimates may be ambiguous, and the parameter estimation process may take very many (e. g. more than 10) iterations to converge. Hence: Rule 8: It is possible for an AR term and an MA term to cancel each others effects, so if a mixed AR-MA model seems to fit the data, also try a model with one fewer AR term and one fewer MA term--particularly if the parameter estimates in the original model require more than 10 iterations to converge. For this reason, ARIMA models cannot be identified by quotbackward stepwisequot approach that includes both AR and MA terms. In other words, you cannot begin by including several terms of each kind and then throwing out the ones whose estimated coefficients are not significant. Instead, you normally follow a quotforward stepwisequot approach, adding terms of one kind or the other as indicated by the appearance of the ACF and PACF plots. Unit roots: If a series is grossly under - or overdifferenced--i. e. if a whole order of differencing needs to be added or cancelled, this is often signalled by a quotunit rootquot in the estimated AR or MA coefficients of the model. An AR(1) model is said to have a unit root if the estimated AR(1) coefficient is almost exactly equal to 1. (By quotexactly equal quot I really mean not significantly different from . in terms of the coefficients own standard error . ) When this happens, it means that the AR(1) term is precisely mimicking a first difference, in which case you should remove the AR(1) term and add an order of differencing instead. (This is exactly what would happen if you fitted an AR(1) model to the undifferenced UNITS series, as noted earlier.) In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1. In this case you should reduce the order of the AR term by 1 and add an order of differencing. A time series with a unit root in the AR coefficients is nonstationary --i. e. it needs a higher order of differencing. Rule 9: If there is a unit root in the AR part of the model--i. e. if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA(1) model is said to have a unit root if the estimated MA(1) coefficient is exactly equal to 1. When this happens, it means that the MA(1) term is exactly cancelling a first difference, in which case, you should remove the MA(1) term and also reduce the order of differencing by one. In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1. Rule 10: If there is a unit root in the MA part of the model--i. e. if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model (an ARIMA(0,2,2) model) when a simple exponential smoothing model (an ARIMA(0,1,1) model) would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1. By reducing the MA order and the order of differencing by one each, you obtain the more appropriate SES model. A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible . meaning that the residuals of the model cannot be considered as estimates of the quottruequot random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may quotblow upquot or otherwise behave bizarrely. If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11: If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between AR and MA terms can be found in the Mathematical Structure of ARIMA Models handout.2.1 Moving Average Models (MA models) Time series models known as ARIMA models may include autoregressive terms andor moving average terms. W pierwszym tygodniu poznaliśmy pojęcie autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład, pojęcie autoregresyjnego opóźnienia 1 to x t-1 (pomnożone przez współczynnik). Ta lekcja definiuje średnie ruchome terminy. Zmienna średnia krocząca w modelu szeregów czasowych to błąd z przeszłości (pomnożony przez współczynnik). Niech (wt overset N (0, sigma2w)), co oznacza, że ​​w t są identycznie, niezależnie rozmieszczone, każdy z rozkładem normalnym mającym średnią 0 i taką samą wariancję. Model średniej ruchomej pierwszego rzędu oznaczony jako MA (1) to (xt mu theta1w). Model średniej ruchomej drugiego rzędu oznaczony jako MA (2) to (xt. Mu theta1w theta2w). Model średniej ruchomej kw. Rzędu oznaczony jako MA (q) to (xt mu wt. theta1w theta2w dots thetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. Nie zmienia to ogólnych teoretycznych właściwości modelu, mimo że odwraca algebraiczne znaki szacowanych wartości współczynników i (nieakwadowanych) terminów w formułach dla ACF i wariancji. Musisz sprawdzić oprogramowanie, aby sprawdzić, czy zostały użyte negatywne lub pozytywne znaki, aby poprawnie zapisać oszacowany model. R używa pozytywnych znaków w swoim podstawowym modelu, tak jak my tutaj. Teoretyczne właściwości szeregu czasowego z modelem MA (1) Należy zauważyć, że jedyną niezerową wartością w teoretycznym ACF jest dla opóźnienia 1. Wszystkie inne autokorelacje wynoszą 0. Zatem próbka ACF ze znaczącą autokorelacją tylko w opóźnieniu 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody tych właściwości są załącznikiem do tej ulotki. Przykład 1 Załóżmy, że model MA (1) to x t 10 w t .7 w t-1. gdzie (wt overset N (0,1)). Zatem współczynnik 1 0,7. Teoretyczny ACF jest podany przez A wykres tego ACF. Przedstawiony wykres jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zwykle zapewnia tak wyraźny wzór. Korzystając z R, symulowaliśmy n 100 wartości próbek, stosując model x t 10 w t .7 w t-1, gdzie w tid N (0,1). W przypadku tej symulacji następuje wykres serii danych przykładowych. Nie możemy wiele powiedzieć z tego spisku. Wyświetlany jest przykładowy ACF dla symulowanych danych. We see a spike at lag 1 followed by generally non-significant values for lags past 1. Note that the sample ACF does not match the theoretical pattern of the underlying MA(1), which is that all autocorrelations for lags past 1 will be 0. A different sample would have a slightly different sample ACF shown below, but would likely have the same broad features. Teoretyczne właściwości szeregu czasowego z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedyne niezerowe wartości w teoretycznym ACF dotyczą opóźnień 1 i 2. Autokorelacje dla wyższych opóźnień wynoszą 0 Tak więc, próbka ACF ze znaczącymi autokorelacjami w opóźnieniach 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazuje na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1, 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał niezerowe wartości tylko w opóźnieniach 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres teoretycznego ACF. Jak prawie zawsze, dane przykładowe nie zachowują się tak doskonale, jak teoria. Przeprowadzono symulację wartości 150 próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie z tid N (0,1). Następnie następuje seria danych czasowych. Podobnie jak w przypadku wykresu szeregów czasowych dla przykładowych danych MA (1), nie można wiele z nich powiedzieć. Wyświetlany jest przykładowy ACF dla symulowanych danych. Wzór jest typowy w sytuacjach, w których może być przydatny model MA (2). Istnieją dwa istotne statystycznie skoki w opóźnieniach 1 i 2, a następnie nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu próbkowania, próbka ACF nie zgadzała się dokładnie z modelem teoretycznym. ACF dla modeli MA (q) Ogólne Właściwość modeli MA (q) ogólnie jest taka, że ​​istnieją niezerowe autokorelacje dla pierwszych q opóźnień i autokorelacji 0 dla wszystkich opóźnień gt q. Niejednoznaczność połączenia między wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotność 1 1 daje tę samą wartość Jako przykład, użyj 0.5 dla 1. a następnie użyj 1 (0,5) 2 dla 1. Dostaniesz (rho1) 0,4 w obu przypadkach. Aby spełnić teoretyczne ograniczenie zwane odwracalnością. ograniczamy MA (1) modelom do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie 1 0,5 będzie dopuszczalną wartością parametru, a 1 10,5 2 nie. Odwracalność modeli MA Model MA jest uważany za odwracalny, jeśli jest algebraicznie równoważny z konwergentnym nieskończonym modelem AR rzędu. Przez konwergencję rozumiemy, że współczynniki AR zmniejszają się do 0, gdy cofamy się w czasie. Odwracalność jest ograniczeniem zaprogramowanym w oprogramowaniu szeregów czasowych służącym do oszacowania współczynników modeli z warunkami MA. To nie jest coś, co sprawdzamy w analizie danych. Dodatkowe informacje na temat ograniczeń odwracalności modeli MA (1) podano w załączniku. Advanced Theory Note. W przypadku modelu MA (q) z określonym ACF istnieje tylko jeden odwracalny model. Warunkiem koniecznym do odwrócenia jest to, że współczynniki mają wartości takie, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które wypadają poza kółkiem jednostki. Kod R dla przykładów W przykładzie 1, narysowaliśmy teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie zasymulowano wartości n 150 z tego modelu i wykreślono serie czasowe próbek oraz próbkę ACF dla symulowanych danych. Polecenia R użyte do wykreślenia teoretycznego ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0.7 lags0: 10 tworzy zmienną o nazwie opóźnienia, która mieści się w zakresie od 0 do 10. wykres (opóźnienia, acfma1, xlimc (1,10), ylabr, typeh, główne ACF dla MA (1) z theta1 0.7) abline (h0) dodaje oś poziomą do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie o nazwie acfma1 (nasz wybór nazwy). Polecenie fabuły (polecenie 3) wykreśla opóźnienia w stosunku do wartości ACF dla opóźnień od 1 do 10. Parametr ylab oznacza oś y, a parametr główny umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, wystarczy użyć polecenia acfma1. Symulacja i wykresy zostały wykonane za pomocą następujących poleceń. xcarima. sim (n150, list (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10, aby uzyskać średnią 10. Domyślne wartości symulacji do średniej 0. wykres (x, typb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W Przykładzie 2, wyliczyliśmy teoretyczny ACF modelu xt 10 wt .5 w t-1 .3 w t-2. a następnie zasymulowano wartości n 150 z tego modelu i wykreślono serie czasowe próbek oraz próbkę ACF dla symulowanych danych. Zastosowano następujące komendy R: acfma2ARMAacf (mac (0.5,0.3), lag. max10) acfma2 wykres lags0: 10 (opóźnienia, acfma2, xlimc (1,10), ylabr, typeh, główny ACF dla MA (2) z theta1 0.5, theta20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) wykres xxc10 (x, typb, główna symulowana seria MA (2)) acf (x, xlimc (1,10), mainACF dla symulowanych danych MA (2) Załącznik: Dowód właściwości MA (1) Dla zainteresowanych studentów, tutaj są dowody na teoretyczne właściwości modelu MA (1). Wariancja: (tekst (xt) tekst (mu wt theta1 w) 0 tekst (wt) tekst (theta1w) sigma2w theta21sigma2w (1teta21) sigma2w) Gdy h 1, poprzednie wyrażenie 1 w 2. Dla dowolnego h 2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wt. E (w k w j) 0 dla dowolnego k j. Ponadto, ponieważ w t mają średnią 0, E (wj w j) E (wj2) w 2. For a time series, Apply this result to get the ACF given above. Odwracalny model MA to taki, który można zapisać jako nieskończony model AR rzędu, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy cofamy się w nieskończoność w czasie. Dobrze demonstruje odwzorowanie modelu MA (1). Następnie podstawiamy relację (2) dla w t-1 w równaniu (1) (3) (zt wt theta1 (z - theta1w) wt theta1z - theta2w) W czasie t-2. równanie (2) staje się wtedy zastępujemy zależności (4) dla w t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z-teta1w) wt theta1z - theta12z theta31w) Jeśli mielibyśmy kontynuować ( w nieskończoność), otrzymalibyśmy nieskończony porządek modelu AR (zt wt theta1 z - theta21z theta31z - theta41z dots) Zwróć jednak uwagę, że jeśli 1 1, współczynniki pomnożące opóźnienia z wzrosną (nieskończenie) w miarę, jak cofniemy się w czas. Aby temu zapobiec, potrzebujemy 1 lt1. Jest to warunek dla odwracalnego modelu MA (1). Nieskończony model MA zamówienia W tygodniu 3, zobacz, że model AR (1) można przekonwertować do modelu MA nieskończonego rzędu: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w) To podsumowanie ostatnich terminów białego szumu jest znane jako przyczynową reprezentację AR (1). Innymi słowy, x t jest szczególnym rodzajem MA z nieskończoną liczbą terminów cofających się w czasie. Nazywa się to nieskończonym porządkiem MA lub MA (). MA skończonego porządku jest nieskończonym porządkiem AR, a każde skończone zamówienie AR jest nieskończonym zleceniem MA. Przypomnijmy w Tygodniu 1, że zauważyliśmy, że warunkiem stacjonarnego AR (1) jest 1 lt1. Pozwala obliczyć Var (x t) za pomocą reprezentacji przyczynowej. This last step uses a basic fact about geometric series that requires (phi1lt1) otherwise the series diverges. Navigation

No comments:

Post a Comment