MODELOS DE SERIES TEMPORALES: AR, MA, ARMA, ARIMA, SARIMA
PROCESO DE RUIDO BLANCO
En este caso la serie Xt tiene estructura Xt=epsilont.
PROCESOS AUTORREGRESIVOS
- Procesos estacionarios lineales
- Podemos escribirlo como función lineal de todas las innovaciones que les han generado con pesos que tienen al cero con el retardo.
- Tienen memoria relativamente larga
- Tienen muchos varios coeficientes de autocorrelación distintos de cero y que decrecen con el retardo.
En general, construimos un modelo de dependencia de p retardos anteriores o proceso autorregresivo de orden p.
Sea Xt una serie estacionaria (sino restarle la media), definimos el operador B como una operación aplicada a la función Xt y al factor phi que establece la condición de estacionariedad (|phi|<1).>
PROCESOS DE MEDIA MÓVIL
- Siempre son estacionarios e invertibles si las raíces de thethaq(B)=0 son en módulo mayores que 1.
- Son función de un número finito (y generalmente pequeño) de las innovaciones pasadas
- Tienen memoria muy corta
- Permiten unos pocos coeficientes de autocorrelación distintos de cero, con valores arbitrarios.
- MA(1)
- MA(q)
PROCESOS ARMA
- Son combinación de las propiedades de los procesos AR y MA y permiten representar de forma “escueta” (utilizan pocos parámetros) procesos cuyas primeros q coeficientes son cualesquiera, mientras que los siguientes decrecerán según leyes simples.
- ARMA(1,1)
PROCESOS ARIMA ESTACIONALES (SARIMA)
- Procesos no estacionarios, donde analizaremos la falta de estacionariedad en la media (comportamiento estacional).
- Generalmente podemos incorporar la estacionalidad dentro de un modelo ARIMA de una forma multiplicativa, resultando en un modelo ARIMA estacional multiplicativo.
- Concepto de estacionalidad y sus tipos:
- Una serie estacional presenta valores que no son constantes pero varían con una pauta cíclica. Cuando E[Xt]=E[Xt+s] decimos que s es el período de estacionalidad, y éste define el número de observaciones que forman el ciclo estacional: s=12 (serie mensual), s=4 (trimestral), s=7 (semanal).
- El modelo más simple trata un efecto constante que se suma a los valores de la serie: Xt=St+nt. La serie se escribe como suma de un componente estacional St y un proceso estacionario nt (con mu su media).
- El componente estacional St puede tener comportamiento: 1) determinista (función constante para el mismo mes en distintos años) St=St+ks, 2) estacionario (evoluciona en el tiempo y su evolución es estacionaria, oscilando alrededor de un valor medio) St=mu+vt, donde vt es un proceso estacionario de media cero que introduce variabilidad en el año, o 3= no-estacionario (es cambiante sin ningún valor medio fijo) St=St-s+vt.
En el modelo ARIMA estacional podemos convertir series no estacionarias en estacionarias tomando diferencias regulares (entre períodos consecutivos) o eliminar la estacionalidad mediante diferencias estacionales, ambos mediante la transformación: Wt=diffsDdiffdXt, donde D es el número de diferencias estacionales (generalmente D=1) y del número de diferencias regulares (d<=3). Cuando existe dependencia estacional podemos generalizar el modelo ARMA para series estacionarias incorporando además la dependencia regular (asociada a intervalos de medida de la serie) y la dependencia estacional (asociada a observaciones separadas por s períodos). Debemos modelar 2 tipos de dependencias:
- Incorporar la dependencia estacional a la regular, añadiendo a los operadores AR o MA el operador B, términos B^s para representar la dependencia entre observaciones separadas por s períodos
- Modelar de forma separada la dependencia regular y la estacional, y construir el modelo incorporando ambas de forma multiplicativa: modelo ARIMA estacional multiplicativo. Esta opción es la más simple.
Nota: el modelo ARIMA estacional multiplicativo se basa en la hipótesis central de que la relación de dependencia estacional (modelo estacional) es la misma para todos los períodos.
En el ACF: fijarse en los retardos iniciales 1,2,3,4,… para identificar la estructura regular, y en los retardos estacionales s, 2s, 3s,… para identificar la estructura estacional. La interacción alrededor de los coeficientes estacionales puede entonces utilizarse como confirmación de la identificación realizada.
En el PACF: fijarse en los retardos iniciales 1,2,3,4… para identificar la estructura regular y en los retardos estacionales s,Ds,3s,… para la identificación de la estructura estacional.
GENERALIZACIONES
- Linealidad: Se asume que la dependencia de Xt respecto a los valores pasados y el término de error epsilont es lineal, a no ser que se especifique lo contrario. Si la dependencia no es lineal, el modelo se llamará media móvil no-lineal (NMA), autorregresivo no-lineal (NAR) o modelo de media móvil autorregresivo no-lineal (NARMA).
- Varianza: aquellos modelos no estacionarios en varianza se llaman modelos autorregresivos condiconales heterocedástico (ARCH) o modelos de media móvil integrado autorregresivo (ARIMA).
- Múltiples series: si ajustamos múltiples series entonces estamos ajustando un modelo vectorial ARIMA (o VARIMA) o un vector de autoregresión (VAR) o un vector de autoregresión de media móvil (VARMA).
- Memoria larga: si la serie muestra una larga memoria entonces será apropiado ajustar un modelo ARIMA fraccional (FARIMA o ARFIMA).
- Estacionalidad: si el modelo contiene efectos estacionales, los modelaremos con un SARIMA (ARIMA estacional) o un modelo ARMA periódico.
- Variables exógenas: refiere a modelos ARMAX(p,q,b) donde p refiere al término autoregersivo, q a la media móvil y b a los términos de entradas exógenas (que ingresan como combinación lineal de los b últimos términos de una serie de tiempo externa conocida dt).
Referencias:
- http://en.wikipedia.org/wiki/Autoregressive_moving_average_model
- Peña Sánchez de Rivera, Daniel. 2005. Análisis de Series temporales. Alianza Editorial, S.A.
Comentarios
Publicar un comentario