Modelos de series temporales

MODELOS DE SERIES TEMPORALES: AR, MA, ARMA, ARIMA, SARIMA



PROCESO DE RUIDO BLANCO

En este caso la serie Xt tiene estructura Xt=epsilont.



PROCESOS AUTORREGRESIVOS

  • Procesos estacionarios lineales
  • Podemos escribirlo como función lineal de todas las innovaciones que les han generado con pesos que tienen al cero con el retardo.
  • Tienen memoria relativamente larga
  • Tienen muchos varios coeficientes de autocorrelación distintos de cero y que decrecen con el retardo.
Aplicamos el modelo de regresión simple: Yt=c+b*Zt+epsilont (con c y b constantes y a una variable aleatoria normal con media 0 y varianza constante); a observaciones contiguas en una serie temporal Xt: Yt=Xt y Zt=Xt-1. Creamos así un modelo de dependencia o procesos autorregresivo de primer orden (es un Proceso de Markov).

En general, construimos un modelo de dependencia de p retardos anteriores o proceso autorregresivo de orden p.

Sea Xt una serie estacionaria (sino restarle la media), definimos el operador B como una operación aplicada a la función Xt y al factor phi que establece la condición de estacionariedad (|phi|<1).>
  • AR(1)
  • Sigue el modelo Xt=phi*Xt-1+epsilont , donde phi (-1<1) bxt="Xt-1" xt="epsilont" style="font-weight: bold;">
  • AR(p)
  • Sigue el modelo: Xt=phi1Xt-1+…+phipXt-p+epsilont de orden p, en notación de operadores (1-phi1B-…-phipB^p)Xt=epsilont o phip(B)Xt=epsilont



    PROCESOS DE MEDIA MÓVIL

    • Siempre son estacionarios e invertibles si las raíces de thethaq(B)=0 son en módulo mayores que 1.
    • Son función de un número finito (y generalmente pequeño) de las innovaciones pasadas
    • Tienen memoria muy corta
    • Permiten unos pocos coeficientes de autocorrelación distintos de cero, con valores arbitrarios.
    • MA(1)
    Se trata de un proceso de ruido blanco con dependencia del valor actual respecto a la última innovación ocurrida, es decir: Xt=epsilont-theta*epsilont-1 o Xt=(1-thetaB)*epsilont

    • MA(q)
    Para MA(q) la serie debe admitir una representación de la forma: Xt=epsilont+theta1*epsilont-1+…+thetaq*epsilont-q o Xt=thetaq(B)*epsilont.





    PROCESOS ARMA

    • Son combinación de las propiedades de los procesos AR y MA y permiten representar de forma “escueta” (utilizan pocos parámetros) procesos cuyas primeros q coeficientes son cualesquiera, mientras que los siguientes decrecerán según leyes simples.
    • ARMA(1,1)
    Xt=phi*Xt-1+epsilont-phi1*epsilont-1 o (1-phi1B)Xt=(1-theta1B)epsilon, donde |phi1|<1>
  • ARMA(p,q)
  • (1-phi1B-…-phipB^p)Xt=(1-theta1B-…-thetaqB^q)epsilont o phip(B)Xt=thetaq(B)epsilont.





    PROCESOS ARIMA ESTACIONALES (SARIMA)

    • Procesos no estacionarios, donde analizaremos la falta de estacionariedad en la media (comportamiento estacional).
    • Generalmente podemos incorporar la estacionalidad dentro de un modelo ARIMA de una forma multiplicativa, resultando en un modelo ARIMA estacional multiplicativo.
    • Concepto de estacionalidad y sus tipos:
    1. Una serie estacional presenta valores que no son constantes pero varían con una pauta cíclica. Cuando E[Xt]=E[Xt+s] decimos que s es el período de estacionalidad, y éste define el número de observaciones que forman el ciclo estacional: s=12 (serie mensual), s=4 (trimestral), s=7 (semanal).
    2. El modelo más simple trata un efecto constante que se suma a los valores de la serie: Xt=St+nt. La serie se escribe como suma de un componente estacional St y un proceso estacionario nt (con mu su media).
    3. El componente estacional St puede tener comportamiento: 1) determinista (función constante para el mismo mes en distintos años) St=St+ks, 2) estacionario (evoluciona en el tiempo y su evolución es estacionaria, oscilando alrededor de un valor medio) St=mu+vt, donde vt es un proceso estacionario de media cero que introduce variabilidad en el año, o 3= no-estacionario (es cambiante sin ningún valor medio fijo) St=St-s+vt.

    En los 3 casos podemos convertir una serie estacional en estacionaria aplicando una diferencia estacional. Definimos el operador diferencia estacional de período s: diffs=1-B^s, es decir diffsXt=(1-B^s)Xt=Xt-Xt-s p diffsXt=diffsSt+diffsnt para nuestro modelo más simple de estacionalidad.

    En el modelo ARIMA estacional podemos convertir series no estacionarias en estacionarias tomando diferencias regulares (entre períodos consecutivos) o eliminar la estacionalidad mediante diferencias estacionales, ambos mediante la transformación: Wt=diffsDdiffdXt, donde D es el número de diferencias estacionales (generalmente D=1) y del número de diferencias regulares (d<=3). Cuando existe dependencia estacional podemos generalizar el modelo ARMA para series estacionarias incorporando además la dependencia regular (asociada a intervalos de medida de la serie) y la dependencia estacional (asociada a observaciones separadas por s períodos). Debemos modelar 2 tipos de dependencias:

    1. Incorporar la dependencia estacional a la regular, añadiendo a los operadores AR o MA el operador B, términos B^s para representar la dependencia entre observaciones separadas por s períodos
    2. Modelar de forma separada la dependencia regular y la estacional, y construir el modelo incorporando ambas de forma multiplicativa: modelo ARIMA estacional multiplicativo. Esta opción es la más simple.
    Esta clase de modelos se escriben de forma simplificada como el modelo ARIMA(P,D,Q)sx(p,d,q).

    Nota: el modelo ARIMA estacional multiplicativo se basa en la hipótesis central de que la relación de dependencia estacional (modelo estacional) es la misma para todos los períodos.

    En el ACF: fijarse en los retardos iniciales 1,2,3,4,… para identificar la estructura regular, y en los retardos estacionales s, 2s, 3s,… para identificar la estructura estacional. La interacción alrededor de los coeficientes estacionales puede entonces utilizarse como confirmación de la identificación realizada.

    En el PACF: fijarse en los retardos iniciales 1,2,3,4… para identificar la estructura regular y en los retardos estacionales s,Ds,3s,… para la identificación de la estructura estacional.



    GENERALIZACIONES

    • Linealidad: Se asume que la dependencia de Xt respecto a los valores pasados y el término de error epsilont es lineal, a no ser que se especifique lo contrario. Si la dependencia no es lineal, el modelo se llamará media móvil no-lineal (NMA), autorregresivo no-lineal (NAR) o modelo de media móvil autorregresivo no-lineal (NARMA).
    • Varianza: aquellos modelos no estacionarios en varianza se llaman modelos autorregresivos condiconales heterocedástico (ARCH) o modelos de media móvil integrado autorregresivo (ARIMA).
    • Múltiples series: si ajustamos múltiples series entonces estamos ajustando un modelo vectorial ARIMA (o VARIMA) o un vector de autoregresión (VAR) o un vector de autoregresión de media móvil (VARMA).
    • Memoria larga: si la serie muestra una larga memoria entonces será apropiado ajustar un modelo ARIMA fraccional (FARIMA o ARFIMA).
    • Estacionalidad: si el modelo contiene efectos estacionales, los modelaremos con un SARIMA (ARIMA estacional) o un modelo ARMA periódico.
    • Variables exógenas: refiere a modelos ARMAX(p,q,b) donde p refiere al término autoregersivo, q a la media móvil y b a los términos de entradas exógenas (que ingresan como combinación lineal de los b últimos términos de una serie de tiempo externa conocida dt).


    Referencias:



    Comentarios