Series de tiempo con aplicaciones: Enfoque temporal Gladys E. Salcedo E. 25o Simposio Internacional de Estadística Agosto 6,7 de 2015 Armenia, Quindío
Datos 1: Series igualmente espaciadas Turbiedad 20 40 60 80 Silicatos 0 50 150 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes Clorofila 0 40 80 120 Nitritos 0.00 0.15 0.30 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes ph 7.0 8.0 9.0 Ortofosfatos 0.0 0.2 0.4 0.6 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes
Datos 2: Series estacionales
Datos 3: Series desigualmente espaciadas Nitritos 0.1 0.3 0.5 Fosfatos 0.5 1.0 1.5 2.0 0 100 200 300 400 Delta_i 0 100 200 300 400 Delta_i ph 7.0 7.5 8.0 8.5 Silicatos 1 3 5 7 0 100 200 300 400 Delta_i 0 100 200 300 400 Delta_i Clorofila 0 2 4 6 8 0 100 200 300 400 Delta_i
1. Algunas generalidades Sea (Ω, A, P) un espacio de probabilidad y sea T un conjunto de índices, un proceso estocástico es una función X(t, ω), definida en T Ω, tal que para cada t fijo X(t, ω) es una variable aleatoria sobre (Ω, A, P) y para cada ω fijo, X(t, ω) es una trayectoria, realización, función muestral del proceso o una serie de tiempo. Graficamente un proceso estacionario puede representarse así: Proceso estocástico como una familia de variables aleatorias
Proceso estocástico como una familia de trayectorias Xt 2 1 0 1 2 3 0 20 40 60 80 100 Tiempo La serie de tiempo como una trayectoria
El proceso {X t, t T} se dice que es estrictamente o fuertemente estacionario si las distribuciones conjuntas de (X t1, X t2,..., X tk ) y (X t1 +h, X t2 +h,..., X tk +h) son iguales para todo t 1, t 2,..., t k, h T, o sea, son invariantes a translaciones en el tiempo. Esto es, F Xt1,X t2,...,x tk (x 1, x 2,..., x k ) = F Xt1 +h,x t2 +h,...,x tk +h (x 1, x 2,..., x k ). Proceso estocástico estacionario
Dado el proceso {X t, t T} se define la función media del proceso por µ t = E(X t ) = la función varianza del proceso por σ 2 t = E(X t µ t ) 2 = X t df Xt, (X t µ) 2 df Xt, y la función de autocovarianza entre las variables X t1 y X t2 por γ x (t 1, t 2 ) = E(X t1 µ 1 )(X t2 µ 2 ) = si las integrales de Riemann-Stieltjes son finitas. (X t1 µ 1 )(X t2 µ 2 ) df Xt1,X t2.
Cuando un proceso {X t, t T} es estrictamente estacionario, con EX 2 t <, se tiene en particular que F Xtk (x) permanece invariante para todo k. Por otra parte, implicando que F Xt1, X t2 (x 1, x 2 ) = F Xt1 +k, X t2 +k (x 1, x 2 ) i) E(X t ) = µ t = µ, t T; ii) Var(X t ) = σ 2 = σ 2 x, t T; iii) γ x (t i, t j ) = γ x ( t i t j ) = γ x (k), para cualesquier t i, t j, k T. Esto es, la covarianza entre las dos variables X ti y X tj sólo depende de su separación t i t j = k. Note que γ x (0) = σx 2 y γ x (k) = γ( k), es decir, la función de autocovarianza tiene su máximo en cero y es una función simétrica alrededor de cero. Un proceso {X t, t T} que satisface las propiedades (i), (ii) y (iii) se dice que es débilmente estacionario o estacionario de segundo orden.
{X t, t T} es un proceso gaussiano si y solamente si las funciones de distribución de {X t1, X t2,..., X tk }, para cualquier k, son todas normales multivariadas. Cómo correlacionar las variables del proceso? La Función de Autocorrelación Simple (FAS) del proceso {X t, t T} a rezago k se define mediante la función ρ x (k) = Corr(X t, X t+k ) = γ x(k) γ x (0), k Z. La FAS de un proceso estacionario cumple las siguientes propiedades: i) ρ x (0) = 1, ii) ρ x (k) 1, k Z, iii) ρ x ( k) = ρ x (k), k Z, iv) ρ x (k) es no negativa definida en el sentido que n n j=1 k=1 a ja k ρ x ( t i t j ) 0, para cualesquier reales a 1,..., a n y t 1,..., t n de Z.
La Función de Autocorrelación Parcial(FAP) entre X t y X t+k corresponde a la función de correlación entre los errores e t y e t+k dada por ϕ x (k) = Corr(e t, e t+k ), donde X t = α 1 X t+1 + α 2 X t+2 +... + α k 1 X t+k 1 + e t y X t+k = β 1 X t+1 + β 2 X t+2 +... + β k 1 X t+k 1 + e t+k. Función de Autocorrelación
Cuando ambas funciones de autocorrelación, la simple y la parcial, son todas nulas para todo k 0 se dice que el proceso es sin memoria o es un ruido blanco. Una sucesión de variables aleatorias {a t, t T} es un proceso ruido blanco de media cero si i) E(a t ) = { 0, t T σ 2 ii) γ(k) = a para k = 0 0 para k 0, Función de Autocovarianza de un Ruido Blanco o sea que su esperanza es cero, su varianza es constante y los {a t, t = 1, 2,..., } son variables aleatorias no correlacionadas.
Transformaciones a series estacionarias Dada una serie {X t, t T}, considere el operador de rezagos B d, d Z +, tal que B d X t = X t d, t T B 0 X t = X t y B d C = C, para C una constante. A partir del operador B d se puede construir un nuevo operador (1 B) d, el cual transforma la serie {X t, t T} en la serie de las d-ésimas diferencias. Ejm. Si d = 1, se tiene Y t = (1 B)X t = X t BX t = X t X t 1, Y 1 = X 2 X 1 Y 2 = X 3 X 2.. Y t 1 = X t X t 1
Si d = 2, se tiene W t = (1 B) 2 X t = (1 B)(1 B)X t = (1 B)Y t = Y t Y t 1, es decir que {W t, t T} es la serie con las variaciones de las primeras diferencias, o sea la serie de las segundas diferencias de {X t, t T.}. Y así sucesivamente. Cuando la no estacionariedad de una serie se debe a que la media presenta tendencias polinómicas de orden d, una transformación de la serie original a través del operador (1 B) d permite convertirla en una serie estacionaria. En la práctica rara vez se requieren los valores de d mayores a 2.
Ejemplos: 0 20 40 60 80 100 120 140 Xt Xt 0 1000 2000 3000 4000 5000 Xt 0 10 20 30 40 50 0 10 20 30 40 50 t t (a) (b) Series no estacionarias generadas en el programa R Note que las series presentan tendencia, la figura (a) muestra una tendencia de tipo lineal mientras que la figura (b) presenta una tendencia de tipo cuadrático. 0 20 40 60 80 100 120 140 Yt=diff(Xt) 30 20 10 0 10 20 30 0 10 20 30 40 50 0 10 20 30 40 50 t t (a) (b) Serie estacionaria luego de transformada
Cuando la no estacionariedad se debe a que la varianza no permanece constante se podría realizar una Transformación de Box y Cox: Suponga que la varianza σ 2 t de la variable aleatoria X t puede expresarse como una función de su media, es σ 2 t = f (µ t ). Si T( ) es una función cuya primera derivada existe, por la expansión de Taylor de primer orden se puede obtener la siguiente aproximación lineal de T(X t ) alrededor de µ t : ( ) dt T(X t ) T(µ t ) + (X t µ t ). dx t Xt =µ t Aplicando varianza a ambos lados y resolviendo el lado derecho de la ecuación anterior se obtiene una aproximación lineal a la varianza de T(X t ) dada por ( 2 dt Var(T(X t )) dx t f (µ t ). Xt =µ t)
Se desea entonces que Var(T(X t )) = C 2, esto es ( ) 2 dt f (µ t ) = C 2 dx t Xt=µ t de donde T(µ t ) = C f (µt ) dµ t. Restringiendo la forma funcional de f a la familia de funciones potencia, resulta fácil determinar la transformación T. Si la varianza es proporcional a µ 2(1 α) t para algún α, se tiene que T(µ t ) = { C Cµt α µ 1 α dµ t = α α 0 t Cln(µ t ) α = 0 En general, la función T que estabiliza la varianza de X t es { Xt α T(X t ) = α α 0 ln(x t ) α = 0 que es la Transformación de Box y Cox.
El valor de α puede identificarse mediante el siguiente procedimiento: 1. Divida la realización en varios subconjuntos y calcule para cada subconjunto la media, el rango y la desviación típica. 2. Haga un gráfico cartesiano con los valores de las medias en el eje horizontal y las desviaciones típicas en el vertical. 3. Si los puntos presentan una tendencia paralela al eje horizontal tome α = 1 y en tal caso no se necesita una transformación. Si los puntos se aproximan a una recta con pendiente positiva tome α = 0 y en este caso la transformación logarítmica es adecuada. Valores de α para la transformación de Box y Cox
2. Modelos Lineales para Series de Tiempo De acuerdo al tipo de relación lineal que se establezca entre las variables del proceso, los modelos lineales para series de tiempo pueden ser Autorregresivos(AR), de Medias Móviles(MA) y Autorregresivos de Medias Móviles (ARMA). 2.1. Los Procesos Autorregresivos El proceso {X t, t T} es Autorregresivo de orden p, p Z +, si X t = C + ϕ 1 X t 1 + ϕ 2 X t 2 + + ϕ p X t p + a t, donde {a t, t T} es un ruido blanco. Notación: AR(p). Si el proceso es estacionario en media, y tomando esperanza a ambos lados de esta ecuación se tiene
E[X t ] = E[C] + ϕ 1 E[X t 1 ] + ϕ 2 E[X t 2 ] + + ϕ p E[X t p ] + E[a t ], µ = C + ϕ 1 µ + ϕ 2 µ + + ϕ p µ, de donde, p C = µ(1 ϕ i ). i=1 Reemplazando C y denotando por X t = X t µ, se tiene X t = ϕ 1 X t 1 + ϕ 2 X t 2 + + ϕ p X t p + a t, la cual corresponde a un AR(p) de media cero. En términos del operador B el modelo queda en la forma X t = ϕ 1 B X t + ϕ 2 B 2 X t + + ϕ p B p X t + a t (1 ϕ 1 B ϕ 2 B 2 ϕ p B p ) X t = a t, ϕ p (B) X t = a t. ϕ p (B) = 0 es la ecuación característica del proceso. El proceso AR(p) es estacionario si todas las raíces de ϕ p (B) = 0 están fuera del círculo unitario.
2.1.1. Procesos Autorregresivos de orden 1 En particular cuando p = 1 se tiene X t = ϕ 1 X t 1 + a t, donde ϕ 1 (B) = 1 ϕ 1 B y la ecuación característica 1 ϕ 1 B = 0 tiene su raíz fuera del círculo unitario cuando ϕ 1 < 1, lo cual corresponde a la condición de estacionariedad para el proceso AR(1). Si el proceso también es estacionario en varianza se tiene que de donde V( X t ) = ϕ 2 1V( X t ) + V(a t ), σ 2 x = σ 2 a (1 ϕ 2 1 ). Luego la condición de estacionariedad, ϕ 1 < 1, también garantiza que σ 2 x sea finita y positiva.
La función de autocorrelación simple del proceso AR(1) tiene la forma ρ x (k) = ϕ k 1, para k 1, y por lo tanto cuando el proceso es estacionario, la función ρ x (k) decrece a cero en forma exponencial. La función de autocorrelación parcial tiene la forma { ϕ1 si k = 1 ϕ x (k) = 0 si k 1. Gráficamente: FAS 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.0 0.2 0.4 0.6 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un modelo AR(1) para ϕ 1 = 0.65
Ejemplo: Color Rio Quindio 2 3 4 5 6 7 8 9 0 20 40 60 80 100 120 Mes Serie Color Rio Quindío FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.0 0.2 0.4 0.6 0.8 0 5 10 15 20 5 10 15 20 FAS y FAP para Color
Modelo: X t = 3.51 + 0.86X t 1 + a t Residuales color 2 1 0 1 2 3 0 20 40 60 80 100 120 Mes Serie residual para modelo de Color FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.1 0.0 0.1 0.2 0 5 10 15 20 5 10 15 20 FAS y FAP para residuales de Color
2.1.2. Procesos Autorregresivos de orden 2 Cuando p = 2, se tiene X t = ϕ 1 X t 1 + ϕ 2 X t 2 + a t, donde ϕ 2 (B) = 1 ϕ 1 B ϕ 2 B 2 = 0, es la ecuación característica y tiene sus raíces fuera del círculo unitario cuando se cumplen las tres siguientes condiciones: ϕ 2 < 1, ϕ 1 + ϕ 2 < 1, ϕ 2 ϕ 1 < 1, las cuales corresponden a las condiciones de estacionariedad del proceso AR(2), y además también garantizan que la varianza de X t sea finita, dado que Var( X t ) = (1 ϕ 2 )σ 2 a (1 + ϕ 2 )(1 ϕ 1 ϕ 2 )(1 + ϕ 1 ϕ 2 ).
Si el modelo AR(2) se premultiplica por X t k y se toma valor esperado se llega a la ecuación en diferencias γ x (k) = ϕ 1 γ x (k 1) + ϕ 2 γ x (k 2), k 1. Al dividir la anterior ecuación entre γ x (0) se obtiene ρ x (k) = ϕ 1 ρ x (k 1) + ϕ 2 ρ x (k 2), k 1, cuya ecuación característica es justamente ϕ 2 (B) = 1 ϕ 1 B ϕ 2 B 2 = 0.
Luego la función de autocorrelación simple ρ x (k), para el proceso AR(2), depende de la solución de la ecuación característica, así: i) Si ambas raíces denotadas G 1 1 y G 1 2 son reales pero distintas entonces ρ x (k) = A 1 G k 1 + A 2G k 2 con A 1 y A 2 dos constantes resultantes de aplicar las condiciones iniciales ρ(0) = 1 y ρ 1 = ϕ 1 1 ϕ 2. ii) Si ambas raíces son reales e iguales (G 1 ), entonces ρ x (k) = A 1 G k + A 2 kg k donde A 1 y A 2 se obtienen de las condiciones iniciales. iii) Si las raíces son un par de complejos conjugados denotados G 1 1 y G 1 2, entonces la función de autocorrelación tiene una forma sinusoidal amortiguada dada por ρ x (k) = signo(ϕ 1 ) k r k sin(kω + α) sin α donde r = ϕ 2, cos ω = ϕ 1 2 ϕ 2, tan α = 1+r2 1 r 2 tan ω.
La función de autocorrelación parcial del proceso AR(2) tiene la forma ρ 1 = ϕ 1 1 ϕ 2 si k = 1 ρ ϕ x (k) = 2 ρ 2 1 = ϕ 1 ρ 2 22 si k = 2 1 0 si k 3. En resumen gráficamente: FAS 0.4 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.6 0.4 0.2 0.0 0.2 0.4 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un AR(2) para ϕ 1 = 0.85 y ϕ 2 = 0.55
En general, para el proceso AR(p) ϕ p (B) X t = a t, la ecuación característica ϕ p (B) = 0, tiene p raíces, G 1 1, G 1 2,..., G 1 p, con lo cual se genera la solución general de la ecuación en diferencias, de la forma ρ x (k) = A 1 G k 1 + A 2G k 2 + + A pg k p, G i < 1, donde los A i se obtienen de las condiciones iniciales y los G i son reales o complejos; por lo tanto la función de autocorrelación simple ρ x (k) es una combinación lineal de funciones sinusoidales amortiguadas. Note que la función de autocorrelación parcial caracteriza los procesos autorregresivos, ya que el número de valores no nulos de esta función corresponden a su orden.
Ejemplo: Turbidez 20 40 60 80 100 0 20 40 60 80 100 Mes Serie de Turbidez Ciénaga Grande FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0.3 0.4 0.5 0 5 10 15 20 5 10 15 20 FAS y FAP para la serie de Turbidez
El modelo: Modelo sin constante: Normalidad residual: X t = C + ϕ 1 X t 1 + ϕ 2 X t 2 + a t, ϕ 1 ϕ2 Ĉ 0.3457 0.3434 56.5328 (0.0901) (0.0905) 4.7558 X t = ϕ 1 X t 1 + ϕ 2 X t 2 + a t, ϕ 1 ϕ2 Ĉ 0.3457 0.3434-0.7055 (0.0901) (0.0905) 4.7558 Test p-valor Kolmogorov-Smirnov 0.489
Mes Residuales 20 0 20 40 60 0 20 40 60 80 100 Serie residual de Turbidez Ciénaga Grande FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 5 10 15 20 FAS y FAP para la serie residual del modelo AR(2)
2.2. Procesos de Medias Móviles Cuando las variables del proceso dependen solamente de las variables de un proceso ruido blanco, surgen los modelos de Medias Móviles (MA). Un modelo de Medias Móviles de orden q está dado por X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, q Z +, donde {a t, t T} es un proceso de ruido blanco. En términos del operador de rezagos B, el modelo MA(q) puede representarse como X t = (1 θ 1 B θ 2 B 2 θ q B q )a t X t = θ q (B)a t, donde θ q (B) representa el polinomio característico del proceso.
De la ecuación X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, observe que E( X t ) = 0 y Var( X t ) = (1 + θ 2 1 + + θ2 q)σ 2 a, así que el proceso MA(q) es siempre estacionario y si las raíces de la ecuación θ q (B) = 0 caen fuera del círculo unitario, se dice que el proceso es invertible. 2.2.1. Procesos de Medias Móviles de orden 1 En el modelo MA(q), cuando q = 1 se tiene el proceso de medias móviles de orden 1, MA(1) X t = (1 θ 1 B)a t, así que el proceso es invertible si θ 1 < 1.
La función de autocorrelación del proceso es dada por ρ x (k) = { θ1 1+θ 2 1 si k = 1 0 si k > 1, La función de autocorrelación parcial es dada por ϕ x (k) = θk 1 (1 θ2 1 ) 1 θ 2(k+1), k 1. 1 En un MA(1) la FAS es cero a partir del rezago dos, mientras que la FAP decrece a cero exponencialmente. FAS 0.5 0.0 0.5 1.0 FAP 0.4 0.3 0.2 0.1 0.0 0.1 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un MA(1) para θ 1 = 0.75
2.2.2. Procesos de Medias Móviles de orden 2 Cuando q = 2 se tiene el proceso X t = (1 θ 1 B θ 2 B 2 )a t. El proceso estacionario, y las condiciones de invertibilidad son: θ 2 < 1, θ 1 + θ 2 < 1, θ 2 θ 1 < 1. La función de autocorrelación del proceso MA(2) es dada por θ 1 (1 θ 2 ) si k = 1 1+θ1 2+θ2 2 ρ x (k) = θ 2 si k = 2 1+θ 1 2+θ2 2 0 si k > 2 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un MA(2) para θ 1 = 0.94 y θ 2 = 0.33
En general, en el proceso MA(q), X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, la varianza es dada por Var( X t ) = σ 2 a q j=0 θ2 j. Por su parte, la función de autocorrelación simple tiene la forma ρ x (k) = { θk +θ 1 θ k+1 + +θ q k θ q 1+θ 2 1 + +θ2 q si k = 1, 2,..., q 0 si k > q. Como en el proceso MA(2), la función de autocorrelación parcial del proceso MA(q) decae a cero, en forma exponencial o sinusoidal, dependiendo de las raíces de la ecuación característica 1 θ 1 B θ q B q = 0. Note que, en los procesos de medias móviles, el número de valores no nulos de la función de autocorrelación simple caracterizan su orden. Muchas situaciones prácticas corresponden a procesos mixtos, es decir que tienen parte autorregresiva y parte promedio móvil, se conocen como procesos ARMA.
2.3. Procesos de Autoregresivos de Medias Móviles Un modelo ARMA(p, q) con p el orden de la parte autorregresiva y q el orden del promedio móvil, tiene por ecuación X t = ϕ 1 X t 1 +ϕ 2 X t 2 + +ϕ p X t p θ 1 a t 1 θ 2 a t 2 θ q a t q +a t. En términos del operador de rezagos la ecuación toma la forma donde y ϕ p (B) X t = θ q (B)a t, ϕ p (B) = 1 ϕ 1 B ϕ 2 B 2 ϕ p B p θ q (B) = 1 θ 1 B θ 2 B 2 θ q B q. La estacionariedad y la invertibilidad del proceso depende de que las raices de las ecuaciones ϕ p (B) = 0 y θ q (B) = 0 estén fuera del C.U.
Para construir la FAS se se multiplica la ecuación del modelo a ambos lados por X t k y se toman las esperanzas γ k ϕ 1 γ k 1... ϕ p γ k p = E[ X t k a t 1 ] θ q E[ X t k a t q ]. Puede verificarse, que para k > q los valores esperados se hacen cero. Dividiendo luego por γ 0 se llega a o sea, ρ k ϕ 1 ρ k 1 ϕ p ρ k p = 0, ϕ p (B)ρ k = 0, k > q. Por lo tanto para valores de k > q la FAS tiene el mismo comportamiento que el ρ k de un AR(p) y para k = 1, 2,, q, el comportamiento depende de los parámetros ϕ i y θ i. Así que la FAS tiene un comportamiento irregular en los primeros q valores y a partir de allí se comporta como un AR(p). En cuanto a la función de autocorrelación parcial, ya que el proceso ARMA(p, q) contiene el proceso MA(q), la FAP cae en forma exponencial o sinusoidal dependiendo de las raices de las ecuaciones ϕ p (B) = 0 y θ q (B) = 0.
2.3.1. Procesos ARMA(1,1) La situación más simple en los procesos ARMA(p, q) ocurre cuando p = q = 1. En tal caso la ecuación del proceso está dada por (1 ϕ 1 B) X t = (1 θ 1 B)a t o también X t = ϕ 1 X t 1 θ 1 a t 1 + a t así el proceso es estacionario cuando ϕ 1 < 1 y para que sea invertible se requiere que θ 1 < 1. La FAS de un ARMA(1, 1) es 1 para k = 0 (ϕ ρ k = 1 θ 1 )(1 ϕ 1 θ 1 ) 1+θ1 2 2ϕ para k = 1 1θ 1 ϕ 1 ρ k 1 para k > 1 Note que ρ k tiene un decrecimiento geométrico que se inicia a partir de k = 1.
En cuanto a la función de autocorrelación parcial, ya que el proceso contiene un MA(1) la FAP decrece exponencialmente, y su forma depende de las magnitudes y signos de los parámetros del modelo, lo que gráficamente puede representarse en la siguiente forma: FAS 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.1 0.0 0.1 0.2 0.3 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un ARMA(1,1) para ϕ 1 = 0.87 y θ 1 = 0.62 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.6 0.4 0.2 0.0 0.2 0.4 0.6 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un ARMA(1,1) para ϕ 1 = 0.73 y θ 1 = 0.45
2.4. Procesos ARIMA Lo analizado hasta ahora parte del supuesto de que el proceso {X t, t T} es estacionario en media. De no serlo sería necesario una transformación del tipo Y t = (1 B) d X t, y el análisis se haría entonces sobre el proceso {Y t, t T}. Para obtener nuevamente X t se requiere la transformación inversa X t = y por ejemplo para d = 1 se tiene Y t (1 B) d, X t = Y t (1 B) = i=0 B i Y t = t Y t i = Y j, i=0 j= o sea que X t resulta ahora de un proceso de Integración de Y t.
La ecuación del proceso después de restar la media, toma entonces la siguiente forma: ϕ p (B)Ỹ t = θ q (B)a t, que corresponde a ϕ p (B)(1 B) d X t = θ q (B)a t, o sea que depende de tres parámetros (p, d, q) con p como el orden de la parte autorregresiva, q el orden de la parte promedio móvil y d el orden de diferenciación para conseguir estacionariedad en media. Se dice entonces que el proceso X t, t T es del tipo ARIMA(p, d, q), esto es, Autorregresivo Integrado de Médias móviles.
Ejemplo: Estudiantes de Periodismo 100 200 300 400 500 Serie diferenciada 40 0 20 40 0 5 10 15 20 25 30 0 5 10 15 20 25 30 Semestre Semestre FAS 0.4 0.0 0.4 0.8 FAP 0.2 0.0 0.2 0.4 0.6 0 5 10 15 2 4 6 8 10 12 14 Serie de ingresos semestrales a Periodismo UQ Modelo ARIMA(1,1,0): ϕ 1 (B)(1 B) X t = a t, (1 0.68B) Z t = a t Z t = 0.68 Z t 1 + a t.
Semestre Residuales 40 20 0 20 0 5 10 15 20 25 30 Serie residual para modelo de Periodismo p-valor test de Kolmogorov-Smirnov = 0.8378 FAS 0.4 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0.3 0 5 10 15 2 4 6 8 10 14 FAS y FAP para la serie residual
2.5. Procesos SARIMA Suponga que se desconoce que el proceso {X t, t T} presenta una componente periódica y se le ajusta un modelo ARIMA(p, d, q), esto es ϕ p (B)(1 B) d X t = θ q (B)N t. Obviamente N t, t T no será un ruido blanco, y presentará correlaciones entre períodos estacionales, esto es ρ N (ks) = E(N t µ N )(N t ks µ N ) σ 2 N 0, k = 1, 2,.... Puede demostrarse que los períodos estacionales siguen un modelo ARIMA(P, D, Q) Φ P (B s )(1 B s ) D N t = Θ Q (B s )a t. donde y Φ P (B s ) = 1 Φ 1 B s Φ 2 B 2s Φ P B Ps Θ Q (B s ) = 1 Θ 1 B s Θ 2 B 2s Θ Q B Qs.
si las raíces de esos polinomios caen fuera del círculo unitario, del modelo del proceso {N t, t T} se puede llegar a la expresión ϕ p (B)Φ P (B s )(1 B s ) D (1 B) d X t = θ(b)θ Q (B s )a t, que se denomina el modelo ARIMA estacional multiplicativo o SARIMA(p, d, q) (P, D, Q) s.
Mes Salinidad 0 5 10 15 20 25 30 35 0 20 40 60 80 100 Serie Salinidad mensual Ciénaga Grande de Santa Marta FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.0 0.2 0.4 0.6 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP para la serie de salinidad
Mes Salinidad diferenciada 20 10 0 10 20 0 20 40 60 80 100 Serie salinidad diferenciada CGSM FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP para la serie de salinidad diferenciada
Algunos modelos candidatos Modelo SARIMA AIC σ 2 a Test K-S (0, 1, 1)(1, 0, 0) 12 644.41 31.08 0.3788 (0, 1, 0)(1, 0, 1) 12 648.82 32.15 0.162 (0, 1, 0)(1, 0, 0) 12 648.06 33.33 0.083 (0, 1, 1)(0, 0, 1) 12 651.15 34.80 0.292 (0, 1, 0)(0, 0, 1) 12 653.27 36.37 0.220 Residuales Modelo 2 20 10 0 10 0 20 40 60 80 100 Mes Serie residual para el Modelo 1 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP de la serie residual del Modelo 1
Referencias Bibliográficas 1. Box,G.E.P. and Jenkins,G.M.(1976), Time Series Analysis Forescasting and Control, 2nd. Ed., Holdan-Day, San Francisco. 2. Heyse, J.F. and Wei, W.W.S. (1984), Partial Process Autocorrelation for Vector Time Series, Tech. Report No.30, Department of Statistics, Temple University. 3. Lutkepohl, H. (1991), Introduction to Multiple Time Series Analysis (MTS), Heidelberg. Springer Verlang. 4. Reinsel, G.C. (1993), Elements of Multivariate Time Series Analysis, Springer Verlag, New York. 5. Wei, W.W.S. (1990), Time Series Analysis: Univariate and Multivariate methods, Addison Wesley, California.