Tópicos en Series de Tiempo

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tópicos en Series de Tiempo"

Transcripción

1 Tópicos en Series de Tiempo Autor: Grisel M. Britos Directora: Dra. Silvia María Ojeda Córdoba, Diciembre de 2012

2

3 Agradecimientos A mi familia por la paciencia, la comprensión y tanto que me han dado en todos estos años de la carrera. A Martín Ocampo por las sonrisas, la compañía y el amor que me dió y sigue dando. A mi directora, por la confianza, la dedicación y sobre todo por las palabras de apoyo y aliento. A los compañeros y amigos de la Facultad: gracias por hacer más llevaderas las largas horas de estudio. A los amigos de la vida, por alegrarla. A aquellos profesores que en la Facultad me enseñaron con paciencia y entrega. De nuevo, GRACIAS. I

4 Resumen El objetivo de este trabajo es iniciar un estudio sobre series de tiempo basándose en el libro de Leiva R. [1]. En el primer capítulo se introducirán las principales definiciones y resultados teóricos. En los capítulos II y III se estudiarán y analizarán características de las diferentes representaciones de series estacionarias y no estacionarias que luego nos permitirán identificar algún modelo que pudiera haber generado una dada serie de tiempo real. En el capítulo IV se verán algunos métodos para predecir como continuará el comportamiento de la serie de tiempo que se estudia, mientras que en el capítulo V se presentarán distintos criterios útiles para determinar si el modelo elegido para la serie es adecuado o se debe proponer un nuevo modelo. Al final de cada capítulo se resuelven algunos ejercicios propuestos en la obra de Leiva [1]. Por último, se tomará una serie de tiempo real y se tratará de modelar su comportamiento atendiendo a todo lo estudiado en este trabajo. Clasificación (Math. Subject Classification) 62M10, 60G10. Palabras Claves -Serie de Tiempo -Estacionaridad -Modelos ARIMA II

5 Índice general Agradecimientos Resumen I II 1. Introducción Definiciones Básicas Estimación de las características de una serie de tiempo estacionaria Estimación de la media µ Estimación de las autocovarianzas Estimación de las autocorrelaciones Estimación de las autocorrelaciones parciales Ejercicios del Capítulo I Modelos para series de tiempo estacionarias Representaciones de una serie de tiempo Representación como un proceso de promedios móviles de orden infinito Representación como un proceso autorregresivo de orden infinito Modelos autoregresivos de orden finito Modelo autoregresivo de orden Modelo autoregresivo de orden p Modelos de promedios móviles de orden finito El modelo de medias móviles de orden Modelos Autorregresivos de Promedios Móviles Modelo ARMA(1,1) Modelo ARMA(p,q) Ejercicios del Capítulo II Modelos para series de tiempo no estacionarias Enfoque clásico Estimación de m t por el método de cuadrados mínimos Estimación de la tendencia mediante suavizamiento por promedios Estimación de la tendencia y la estacionalidad cuando la tendencia es constante durante cada período de la componente estacional Estimación de la tendencia y la estacionalidad: Caso General Modelos ARIMA y SARIMA Modelos ARIMA Procesos SARIMA (ARIMA estacionales) Transformaciones Ejercicios del Capítulo III III

6 4. Predicción Predictor Lineal con Error Cuadrático Medio Mínimo Predicción de un ARMA conocido todo su pasado Predicción de un ARIMA conocido todo su pasado Ejercicios del Capítulo IV Estimación e identificación de los modelos de series de tiempos Identificación de procesos. Determinación del orden y verificación de diagnóstico Criterios de Akaike: FPE, AIC, BIC Reglas prácticas para la identificación de procesos Aplicación 70 Bibliografía 79 IV

7 Capítulo 1 Introducción Muchas veces en la vida real se cuenta con observaciones ordenadas de hechos que acontecen a intervalos equiespaciados en el tiempo y que se encuentran relacionados con diferentes actividades propias del quehacer humano. Por ello, el estudio de las series de tiempo es una herramienta importante para el análisis de datos que no son independientes entre sí; por ejemplo, tasas de mortalidad y nacimiento, índices de precio al consumidor, producción anual de soja, caudales de ríos, etc. El análisis de series temporales se aborda usualmente desde la perspectiva que proporcionan la Probabilidad y la Estadística y permite comprender y describir los procesos generadores de los datos observados, como así también realizar predicciones de valores futuros de la serie. Este trabajo apunta a realizar un primer acercamiento al estudio de las series de tiempo a partir de la teoría expuesta por Leiva [1] y Brockwell- Davis [2]; luego, en trabajos futuros, se espera focalizar aspectos vinculados con la generalización a dos dimensiones de esta teoría, la cual a su vez es requerida en tópicos de análisis y procesamiento de imágenes digitales. El interés del trabajo se centró en la comprensión de las principales definiciones y resultados teóricos propuestos en la bibliografía citada, poniendo especial atención a la resolución de los ejercicios que se encuentran al final de cada sección del libro de Leiva [1]. El trabajo implicó además una aproximación inicial al conocimiento y utilización del software estadístico y de libre acceso, R, para modelar una serie de tiempo real Definiciones Básicas Definición Sea (Ω, A, P ) un espacio de probabilidad y sea T un conjunto no vacío de índices. Se llama serie de tiempo (o proceso estocástico) a valores reales a una función X :T Ω R tal que para cada t fijo, X :t Ω R es una variable aleatoria X t, que será denotada como {X t : t T }. Debido a la dependencia que hay entre las variables aleatorias X t, t T se hace necesario realizar algunas suposiciones sobre la forma en que se han generado los datos aleatorios, lo que motiva las siguientes definiciones: Definición : Una serie de tiempo {X t : t T }, es estrictamente estacionaria si F Xt1,X t2,...,x tn = F Xt1 +k,x t2 +k,...,x tn+k para todo k, n N y para todo t 1, t 2,..., t n, t 1 + k, t 2 + k,..., t n + k en el conjunto de índices T, donde F Xt1,X t2,...,x tn denota la función de distribución conjunta de las variables X t1, X t2,..., X tn. Esta definición nos dice que la distribución conjunta de dos o más variables que componen la serie depende solo de la distancia entre los elementos del subconjunto de T ; sin embargo, debido a la dificultad de verificar esta condición, la definición anterior se relaja del siguiente modo: Definición : Se dice que una serie de tiempo {X t : t T } es estacionaria si se verifica que : a) E[X t ] = µ < para todo t T 1

8 b) cov(x t, X t+k ) = E[(X t µ)(x t+k µ)] = γ k < para todo t, t + k T Puede verificarse que si una serie de tiempo es estacionaria entonces es también estrictamente estacionaria, pero no viceversa (ver ejercicio 1.3.1). Enunciaremos las definiciones que nos acompañaran de ahora en adelante: Definición : Dada una serie de tiempo estacionaria {X t : t T } se llama función de autocovarianza teórica a la función γ : Z R que a cada entero k le asigna el valor γ k = cov(x t, X t+k ) = E[(X t µ)(x t+k µ)] Definición : Dada una serie de tiempo estacionaria {X t : t T } se llama función de autocorrelación teórica a la función ρ : Z R que a cada entero k le asigna el valor ρ k = corr(x t, X t+k ) = cov(x t,x t+k ) var(xt)var(x t+k ) = γ k γ 0 Esta última tiene la ventaja de no estar influenciada por las unidades de medida que se usan para obtener los valores de la serie de tiempo. Algunas de las propiedades de las funciones de autocovarianza y de autocorrelación se muestran a continuación: a) γ k γ 0 = var(x t ) y ρ k ρ 0 = 1 k Z b) γ k = γ k y ρ k = ρ k c) Las funciones de autocovarianza y autocorrelación son semidefinidas positivas, i.e. para todo n N y para todo t 1, t 2,..., t n T se verifica que: n n a i a j γ ti t j 0 i=1 j=1 y n n a i a j ρ ti t j 0 i=1 j=1 Ejemplo : Dada una serie de tiempo {A t : t Z} se dice que la serie es un proceso de ruido blanco si las variables aleatorias A t son no correlacionadas entre si, con media µ t = E[A t ] y varianza σ 2 A = var(a t) para todo t Z Ejemplo : Sea {A t : t Z} un proceso de ruido blanco. Se dice que la serie de tiempo {X t : t Z} es un proceso autorregresivo de orden 1 (o AR(1)) si se puede representar de la siguiente forma: X t = φx t 1 + A t para todo t Z siendo φ un número real fijo. La serie del ejemplo deja en evidencia una dependencia lineal entre X t y X t+k. Es decir que los valores obtenidos por la varible X en el pasado influyen en el valor de X en el tiempo presente. Esta influencia se observa de forma directa entre X t+1 y X t+2 pues estan relacionadas de la forma X t+2 = φx t+1 + A t+2 y como a su vez X t+1 = φx t + A t+1 se ve que X t influye de forma indirecta sobre X t+2. Considerando la situación general de una serie de tiempo {X t : t T } nos gustaría saber cual es la dependencia lineal directa entre dos variables X t y X t+k. Para ello se define el coeficiente de autocorrelación parcial de orden k como una medida de la relación lineal entre observaciones separadas k períodos con independencia de los valores intermedios. 2

9 Definición Se define el coeficiente de correlación parcial π k como π k = corr(x t, X t+k /X t+1,..., X t+k 1 ) y que es igual a π k = 1 ρ 1 ρ 2... ρ k 2 ρ 1 ρ 1 1 ρ 1... ρ k 3 ρ ρ k 1 ρ k 2 ρ k 3... ρ 1 ρ k 1 ρ 1 ρ 2... ρ k 2 ρ k 1 ρ 1 1 ρ 1... ρ k 3 ρ k ρ k 1 ρ k 2 ρ k 3... ρ 1 1 Dicha fórmula se obtiene de realizar una regresión lineal de X t+k respecto de X t+k 1, X t+k 2,...,X t, o sea: X t+k = φ k0 + φ k1 X t+k 1 + φ k2 X t+k φ kk X t + E t+k donde {E t } es un proceso de ruido blanco y se supone que las variables E t+k no están correlacionadas con X t, X t+1,..., X t+k 1 para todo t. Luego, resulta que el coeficiente φ kk de X t es el coeficiente de correlación parcial teórico π k entre X t+k y X t. Definición Se denomina función de autocorrelación parcial teórica de la serie de tiempo estacionaria {X t : t Z} a la función π :Z R que a cada entero k le asigna el coeficiente de correlación parcial teórico π k entre X t+k y X t Estimación de las características de una serie de tiempo estacionaria Los elementos que caracterizan a una serie de tiempo estacionaria son su media µ, su varianza σ 2, sus autocorrelaciones ρ k y sus autocorrelaciones parciales π k. Es necesario poder realizar estimaciones de estos elementos ya que en muchos casos no se puede contar con más de una realización de la serie de tiempo Estimación de la media µ Dada una serie de tiempo {X t : t Z}, si se conocen solo n valores de una realización x 1,..., x n, el estimador natural de la media común es la media muestral X n = 1 n ya que éste es un estimador insesgado para µ y si además se cumple que lím k ρ k = 0 entonces X n es un estimador consistente en cuadrados medios para µ (ver Leiva [1]) Estimación de las autocovarianzas Dadas n observaciones x 1,..., x n de la serie de tiempo estacionaria, se puede considerar para un k fijo (0 k n 1) los siguientes n k pares: (x 1, x 1+k ), (x 2, x 2+k ),..., (x n k, x n ) y mirando a la n t=1 X t 3

10 primera entrada de cada par como una observación de una variable y a la segunda como la observación de otra variable, se puede calcular una estimación de γ k mediante la fórmula: donde n k 1 (x t x n k (1) )(x t+k x (2) ) t=1 x (1) = 1 n k x t y x n k (2) = 1 n k t=1 n t=k+1 Como en general x (1) = x(2) se reemplazan ambas por x n = 1 n n t=1 x t y se obtiene el siguiente estimador para γ k : γ = 1 n k (X t X n )(X t+k X n ) n t=1 Definición La función γ : Z R que a cada k Z le asigna el valor γ k recibe el nombre de función de autocovarianza muestral Estimación de las autocorrelaciones Un estimador natural de ρ k es ρ k = γ n k k t=1 = (X t X n )(X t+k X n ) γ n 0 t=1 (X para k = 0, ±1,..., ±(n 1) (1.2.1) t X n ) 2 Definición La función ρ : Z R que a cada k Z le asigna el valor ρ k recibe el nombre de función de autocorrelación muestral, y su gráfico a partir de la muestra x 1,..., x n es llamado correlograma muestral Estimación de las autocorrelaciones parciales Los estimadores naturales de π k = φ kk se obtienen reemplazando en la fórmula que expresa π k como cociente de determinantes, a los ρ j por sus estimadores ρ j. Para valores muy grandes de k es conveniente usar un método recursivo para su cálculo, comenzando por π 1 = φ 11 = ρ 1 y luego π k+1 = φ k+1,k+1 = ρ k+1 k j=1 φ k,j ρ k+1 j 1 k j=1 φ k,j ρ j (1.2.2) x t. donde, φ k,j = φ k 1,j φ k 1,k j π k j = 1,..., k (1.2.3) 1.3. Ejercicios del Capítulo I Ejercicio Sean {X t : t N {0}} variables aleatorias independientes que cumplen { P (X t = 1) = P (X t = 1) = 1/2, si t es par; P (X t = 3) = P (X t = 3) = 1/18, (a) Es {X t } un proceso estrictamente estacionario? si t es impar 4

11 (b) Es estacionario en sentido amplio? Solución. (a) Sean n = 1 = k. Si t es par F Xt ( 1) = P (X t 1) = P (X t = 1) = 1/2 pero F Xt+1 ( 1) = P (X t+1 1) = P (X t+1 = 3) = 1/18 por lo que F Xt F Xt+1 y resulta que {X t } no es estrictamente estacionario. (b) Si t es par, E[X t ] = ( 1).P (X t = 1) + 1.P (X t = 1) = 1/2 + 1/2 = 0 y si t es impar se puede ver del mismo modo que E[X t ] = 0. Además, si t es par V ar[x t ] = ( 1) 2.P (X t = 1) P (X t = 1) = 1/2 + 1/2 = 1 (igual se ve para t impar) y si h 0, cov(x t, X t+h ) = 0 pues X t, X t+h son independientes. Por lo tanto {X t } es estacionario en sentido amplio. Ejercicio Considere la serie {X t : t Z} definida por X t = θa t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. (a) Qué tipo de proceso es {X t }? (b) Cuál es el valor de γ k = cov(x t, X t+k )? (c) Cuál es el valor de ρ k = corr(x t, X t+k )? (d) Si θ = 0,7 y si σ 2 A = 4 i) Cuál es el valor de γ k? ii) Grafique la función de autocovarianza teórica para k = 0, 1, 2, 3, 4, 5. (e) Si θ = 0,9 y si σ 2 A = 4 i) Cuál es el valor de ρ k? ii) Grafique la función de autocorrelación teórica para k = 0, 1, 2, 3, 4, 5. Solución. (b) (a) Es un proceso de medias móviles de orden 1 ó MA(1). γ k = cov(x t, X t+k ) = E[X t X t+k ] = E[(θA t 1 + A t )(θa t+k 1 + A t+k )] = θ 2 E[A t 1 A t+k 1 ] + θ(e[a t 1 A t+k ] + E[A t A t+k 1 ]) + E[A t A t+k ] = θ 2 δ k + θδ k+1 + θδ k 1 + δ k donde δ k es la autocovarianza de {A t }, o sea { σa 2, si k = 0; δ k = 0, si k 0 entonces (θ 2 + 1)σA 2, si k = 0; γ k = θσa 2, si k = 1; 0, si k > 1 5

12 (c) (d) ρ k = γ k γ 0 = 5,96, si k = 0; γ k = 2,8, si k = 1; 0, si k > 1 1, si k = 0; θ/(θ 2 + 1), si k = 1; 0, si k > 1 (e) 1, si k = 0; ρ k = 0,497, si k = 1; 0, si k > 1 Ejercicio Considere la serie {X t : t Z} definida por X t = φx t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. (a) Qué tipo de proceso es {X t }? (b) Cuál es el valor de γ k = cov(x t, X t+k )? (c) Cuál es el valor de ρ k = corr(x t, X t+k )? (d) Si φ = 0,7 y si σ 2 A = 4 i) Cuál es el valor de γ k? ii) Grafique la función de autocovarianza teórica para k = 0, 1, 2, 3, 4, 5. (e) Si φ = 0,9 y si σ 2 A = 4 i) Cuál es el valor de ρ k? ii) Grafique la función de autocorrelación teórica para k = 0, 1, 2, 3, 4, 5. Solución. (a) Es un proceso autorregresivo de orden 1 ó AR(1). (b) X t = φx t 1 + A t = φ(φx t 2 + A t 1 ) + A t = φ 2 X t 2 + φx t 1 + A t =... k 1 = φ k X t k + φ i A t i 6

13 Si φ < 1 entonces E[(X t k 1 φi A t i ) 2 ] = E[X t k ]φ k Mφ k 0 si k. Luego, X t = φ i A t i y Entonces, E[X t ] = φ i E[A t i ] = 0 γ k = cov(x t, X t+k ) = E[X t X t+k ] = E[( φ i A t i )( φ j A t+k j )] = = φ k σ 2 A φ i+j E[A t i A t+k j ] = φ 2i = φk σ 2 A 1 φ 2 φ 2i+k E[A 2 t i] = φ 2i+k σa 2 (c) Como ρ 0 = (d) γ k = 7,843(0,7) k σ2 A 1 φ 2 entonces ρ k = φ k. (e) ρ k = ( 0,9) k Ejercicio Los siguientes números corresponden a 20 observaciones sucesivas de un proceso estocástico estacionario {X t : t N} a) Grafique las observaciones en función del tiempo. 7

14 b) Observando el gráfico de la parte (a), trate de adivinar el signo y el valor absoluto (aproximado) del coeficiente de autocorrelación de orden 1 del proceso estocástico que generó estos datos. c) Grafique x t versus x t+1 y observando esta nube de puntos trate nuevamente de adivinar el valor de la autocorrelación de orden 1. d) Calcule usando los datos el valor estimado ρ 1. e) Grafique x t versus x t+2 y observando esta nube de puntos trate nuevamente de adivinar el valor de la autocorrelación de orden 2. f) Calcule usando los datos el valor estimado ρ 2. g) Calcule con los datos los valores de y t y z t siendo y t = x t ρ 1 x t+1, z t = x t+2 ρ 1 x t+1 y grafique y t versus z t. h) Teniendo en cuenta el gráfico de la parte (g) adivine el valor de la autocorrelación parcial de orden 2 (π 2 ) del proceso estocástico que generó los datos. i) Calcule con los datos una estimación de π 2. Solución. a) Serie de tiempo {X t } b) No se puede decir nada sobre el coeficiente de autocorrelación de orden 1 sólo mirando el gráfico de la parte (a). Necesitaríamos observar como se comportan las estimaciones de la función de autocorrelación. c) x t versus x t+1 Se puede observar una tendencia lineal con pendiente negativa por lo que ρ 1 < 0 8

15 d) De acuerdo a (1.2.1), ρ 1 = 0,343 e) x t versus x t+2 No se puede apreciar ninguna tendencia por lo que ρ 2 = 0. f) De acuerdo a (1.2.1), ρ 2 = 0,03258 g) v t = x t ρ 1 x t+1 versus w t = x t+2 ρ 1 x t+1 h) Parece que no existe una tendencia lineal entre los puntos graficados por lo que π 2 debe ser aproximadamente 0. i) De acuerdo a (1.2.2) y (1.2.3), π 2 = 0,0964. Ejercicio Considere la serie de tiempo {X t : t Z} definida por X t = 0,9A t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A = 4. a) Qué tipo de proceso es {X t }?. b) Cuál es la forma general (con el mismo orden) del tipo de proceso que identificó en la parte (a)?. c) Cuál es el valor de su media? Por qué?. d) Cuál es el valor de γ k?. e) Cuál es el valor de ρ k?. f) Dados 50 datos x 1,..., x 50 generados por este proceso de ecuación X t = 0,9A t 1 + A t, si se grafican los pares de puntos (x t 1, x t ), t = 2,..., 50, Cuál es la ecuación de la recta teórica alrededor de la cual esta nube de puntos graficados tiende a concentrarse?. 9

16 g) Si se grafican los puntos (x t 2, x t ), t = 3,..., 50, Cuál es la tendencia de esta nube de puntos?. h) Si se grafican los puntos (y t, z t ) donde y t = x t 0,9 x 1+0,9 2 t+1 y z t = x t+2 0,9 x 1+0,9 2 t+1 para t = 1,..., 48, Cuál es la tendencia de esta nube de puntos?. Solución. a) {X t } es un proceso de medias móviles de orden 1 (MA(1)) b) La forma general es X t = θa t 1 + A t. c) E[X t ] = 0,9E[A t 1 ] + E[A t ] = 0, = 0. d) Por lo visto en el ejercicio 1.3.2, (0, )4, si k = 0; γ k = 0,9 4, si k = 1; 0, si k > 1 7,24, si k = 0; = 3,6, si k = 1; 0, si k > 1 e) 1, si k = 0; ρ k = 0,9/(1 + 0,9 2 ), si k = 1; 0, si k > 1 1, si k = 0; = 0,497, si k = 1; 0, si k > 1 f) La ecuación de la recta es z = 0,49y + 0,26. g) La nube de puntos no parece concentrarse alrededor de ninguna recta y esto es coherente con el echo de que ρ 2 = 0 en un proceso MA(1). h) Los puntos siguen teniendo una tendencia lineal pero menos marcada que en los puntos anteriores y obedece a la ecuación w = 0,4v + 0,35. 10

17 Ejercicio Considere la serie de tiempo {X t : t Z} definida por X t = 0,9X t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A = 4. a) Qué tipo de proceso es {X t }?. b) Cuál es la forma general (con el mismo orden) del tipo de proceso que identificó en la parte (a)?. c) Cuál es el valor de su media? Por qué?. d) Cuál es el valor de γ k?. e) Cuál es el valor de ρ k?. f) Dados 50 datos x 1,..., x 50 generados por este proceso de ecuación X t = 0,9X t 1 + A t, si se grafican los pares de puntos (x t 1, x t ), t = 2,..., 50, Cuál es la ecuación de la recta teórica alrededor de la cual esta nube de puntos graficados tiende a concentrarse?. g) Si se grafican los puntos (x t 2, x t ), t = 3,..., 50, Cuál es la tendencia de esta nube de puntos?. h) Si se grafican los puntos (y t, z t ) donde y t = x t 0,9x t+1 y z t = x t+2 0,9x t+1 para t = 1,..., 48, Cuál es la tendencia de esta nube de puntos?. Solución. a) {X t } es un proceso autorregresivo de orden 1 (AR(1)). b) La forma general es X t = φx t 1 + A t. c) De acuerdo con las cuentas hechas en el ejercicio 1.3.3, el proceso AR(1) se puede escribir como un proceso de medias móviles de orden infinito y entonces E[X t ] = 0. d) Por el ejercicio 1.3.3, γ k = 4 0,9k 1 0,9 k = 21,05(0,9) k. e) ρ k = 0,9 k f) La ecuación de la recta es z = 0,8y + 0,16. 11

18 g) La ecuación de la recta es z 2 = 0,5y 2 + 0,3. h) Los puntos no parecen mostrar ninguna tendencia lineal lo cual concuerda con el echo de que π 2 = 0 en un proceso AR(1). Ejercicio En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) b) k ρ k π k k ρ k π k Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(1) de la forma X t = φx t 1 +A t ya que en esos modelos la autocorrelación teórica es ρ k = φ k y la autocorrelación parcial teórica es π k = 0 si k 1 y π 1 = φ. En este caso debe ser φ > 0. 12

19 b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(1) de la forma X t = θa t 1 + A t ya que en esos modelos la autocorrelación teórica es ρ k = 0 si k > 1 y ρ k = θ si k = 1. En este caso debe ser θ > 0. 1+θ 2 13

20 Capítulo 2 Modelos para series de tiempo estacionarias En esta sección se presentarán los principales modelos que pueden regir el comportamiento de una serie de tiempo estacionaria junto con las características que permiten distinguir a cuál de esos modelos corresponde una serie de datos observados Representaciones de una serie de tiempo Representación como un proceso de promedios móviles de orden infinito Un resultado importante referido a los procesos estacionarios es el probado por Wold en 1938; este dice que todo proceso estacionario {X t : t Z} que sea no determinístico puro puede expresarse como un promedio móvil de orden infinito, es decir X t = µ + α i A t i con α 0 = 1, {A t : t Z} proceso de ruido blanco con media 0 y varianza σ 2 A y tal que α2 i <. Definición Se llama operador de cambio hacia atrás y se denota por B al operador definido por BX t = X t 1. Notación. Por simplicidad de usará la notación Ẋt = X t µ. Proposición 1. Si {X t } un proceso de medias móviles de orden infinito X t = µ + α ia t i con α 0 = 1, {A t : t Z} proceso de ruido blanco con media 0 y varianza σa 2 y tal que α2 i < entonces {X t } es un proceso estacionario. Demostración. Haciendo uso del operador de cambio hacia atrás, se puede escribir a X t como X t = µ + α i B i A t = µ + α(b)a t donde α(b) = α ib i y α 0 = 1, o sea Ẋt = α(b)a t. Es claro que E[X t ] = µ + α i E[A t i ] = µ + 0 = µ, 14

21 V ar(x t ) = E[X 2 t ] µ 2 y E[Xt 2 ] = E[(µ + α i A t i )(µ + α j A t j )] = 2µ α i E[A t i ] + µ 2 + α i α i E[A t j A t i ] = µ 2 + σa 2 i, α 2 i entonces y V ar(x t ) = σa 2 αi 2 (2.1.1) Como γ k = cov(ẋt, Ẋ t+k ) (2.1.2) = E[( α i A t i )( α j A t j )] = = σ 2 A α i α j E[A t i A t+k j ] α i α i+k < γ k γ 0 = σ 2 A αi 2 <, se cumplen las condiciones de la definición por lo que resulta que {X t } es un proceso estacionario Representación como un proceso autorregresivo de orden infinito Definición Se dice que una serie de tiempo {X t : t Z} es invertible o equivalentemente es un proceso autorregresivo de orden infinito, si Ẋ t = X t µ se puede expresar como Ẋ t = A t + β i Ẋ t i i=1 con β i <. i=1 O sea, β(b)ẋt = A t donde β(b) = β i B i. Proposición 2. Sea {X t } un proceso invertible como en la definición Si las raíces de β(b) = 0 son de módulo mayor que uno entonces la serie resulta ser un proceso estacionario. i=1 1 Demostración. Como β(x) 0 cuando x 1, existe un ε > 0 tal que series de potencia 1 β(x) = α j x j = α(x), x < 1 + ε. β(x) tiene una expansión en 15

22 Si (1 + ε 2 ) < x < (1 + ε), como α j x j 0 cuando j resulta que α j (1 + ε/2) j 0 cuando j y por lo tanto, existe K (0, ) tal que α j < K(1 + ε/2) j j = 0, 1, 2,... En particular, α j < y α(x)β(x) 1 para todo x 1. Mas aún, α2 j <. Luego, resulta que {X t} posee una expresión como un proceso de medias móviles de orden infinito y por la proposición 1, {X t } es estacionario. Análogamente, un proceso estacionario Ẋt = α(b)a t será invertible si las raíces de α(b) = 0 son 1 de módulo mayor que 1 pues entonces α(b) = β(b) con i=1 β i < Modelos autoregresivos de orden finito Definición Se dice que una serie de tiempo {X t : t Z} es un proceso autorregresivo de orden p (se denota AR(p)), con p N fijo, si Ẋ t = X t µ se puede expresar como p Ẋ t = A t + φ i Ẋ t i i=1 t Z donde {A t : t Z} es un proceso de ruido blanco con media 0 y varianza σ 2 A. Al ser un caso particular de un proceso autorregresivo de orden infinito, el proceso será estacionario si las raíces de Φ p (B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 son de módulo mayor que 1. La siguiente definición se usará en la demostración de algunos resultados que se presentarán a continuación pero cuyas pruebas no se incluirán en este trabajo. Definición Se llama ecuación lineal en diferencias con coeficientes constantes de orden k, a una ecuación de la forma y t + α 1 y t α k y t k = a t para t T, donde a t : t T es una función real de t que no depende de y, tal que α 1,..., α k son constantes con α k 0 y donde T es un intervalo de números enteros (o sea T Z) que sin pérdida de generalidad podemos suponer que es de la forma [z, ) o [z, z + h] o (, ) Modelo autoregresivo de orden 1 Un proceso autorregresivo de orden 1 se expresa de la forma X t µ = φ 1 (X t 1 µ) + A t o bien Entonces Ẋ t = φ 1 Ẋ t 1 + A t con Ẋ t = X t µ. E[X t ] = µ, y γ k = cov(x t, X t+k ) = cov(ẋt, Ẋ t+k ) = σa 2 1 φ 2 1 π k = { φ 1, si k = 1; 0, si k > 1 16 φ k 1 si φ 1 < 1

23 (ver ejercicio 1.3.3). Además, este proceso será estacionario si la raíz de Φ(B) = 1 φ 1 (B) = 0 es de módulo mayor que 1, o equivalentemente φ 1 < 1. Los cálculos de arriba se pueden realizar usando ecuaciones en diferencias: la solución de la ecuación en diferencias de primer orden X t φx t 1 = A t es la suma de una solución particular y de una solución complementaria que es solución de la ecuación X t φx t 1 = 0. Una solución particular es X t = φ i 1A t i y una solución complementaria es de la forma cφ t 1. Por lo que la solución general es X t = cφ t 1 + φ i 1A t i. Para calcular las autocorrelaciones de X t µ = φ 1 (X t 1 µ) + A t se multiplica a ambos miembros de la ecuación por (X t k µ) y se obtiene γ k = φ 1 γ k 1. Por lo tanto, la función de autocorrelación saldrá de resolver la ecuación ρ k φ 1 ρ k 1 = 0. Esta tiene solución general de la forma ρ k = ab k donde b es solución de b φ 1 = 0, o sea b = φ 1 y como 1 = ρ 0 = aφ 0 1 = a entonces ρ k = φ k Modelo autoregresivo de orden p La definición de que un proceso {X t : t Z} sea autorregresivo de orden p es equivalente a que sea solución de la ecuación Ẋ t φ 1 Ẋ t 1 φ 2 Ẋ t 2... φ p Ẋ t p = A t donde {A t : t Z} es un proceso de ruido blanco. La solución general será suma de una solución particular Xt y de una solución complementaria Xt. Si z 1,..., z p son las raíces de φ(b) = 1 φ 1 B φ 2 B 2... φ p B p = 0 entonces la solución particular es X t = 1 φ(b) A t = ( p i=1 1 (1 z i B) )A t = ( p i=1 k i (1 z i B) )A t donde las constantes k i se eligen de tal forma que se verifique la igualdad, y si además z i > 1 para i = 1,..., p resulta p p Xt = ( (k i z j i Bj ))A t = ( k i z j i )A t j i=1 verificándose que Xt es estacionaria. La solución complementaria será una suma de p términos que dependerán del tipo de raíces z 1,..., z p que tenga su polinomio característico i=1 z p φ 1 z p 1 φ 2 z p 2... φ p 1 z φ p. 1. Por cada raíz real y distinta z j hay un término de la forma c j z t j. 2. Por cada raíz real z i repetida m i veces hay un término de la forma (c i1 + c i2 t c imi t m i 1 )z t i. 3. Por cada par de raíces complejas conjugadas hay un término de la forma R t (c 1 cos(tλ)+c 2 sen(tλ)). 4. Por cada par de raíces complejas conjugadas repetidas h veces hay un término de la forma R t [(c 11 cos(tλ) + c 12 sen(tλ)) + t(c 21 cos(tλ) + c 22 sen(tλ)) t h 1 (c h1 cos(tλ) + c h2 sen(tλ))]. 17

24 (ver Leiva [1]). Para calcular la función de autocorrelación de (X t µ) = φ 1 (X t 1 µ)+φ 2 (X t 2 µ)+...+φ p (X t p µ) + A t se multiplica a ambos miembros por X t k µ y se divide todo por γ 0, obteniendose ρ k = φ 1 ρ k 1 + φ 2 ρ k φ p ρ k p Particularizando esta última ecuación para k = 1,..., p se obtiene el conocido sistema de ecuaciones de Yule-Walker: ρ = R. φ donde φ t = [φ 1...φ p ], ρ t = [ρ 1...ρ p ] y 1 ρ 1... ρ p 1 R = ρ p 1 ρ p La solución será una mezcla de exponenciales, debido a los términos con raíces reales, y sinusoidales, debidas a las raíces complejas conjugadas. La función de autocorrelación parcial se anula a partir del lag p+1 pues el determinante del numerador en la definición se hace cero por ser la última columna combinación lineal de las p primeras Modelos de promedios móviles de orden finito Definición Se dice que {X t : t Z} es un proceso de medias móviles de orden q y se denota por MA(q), si Ẋ t = X t µ se puede expresar como q Ẋ t = A t + θ i A t i i=1 t Z donde {A t : t Z} es un proceso de ruido blanco con media 0 y varianza σ 2 A. Un proceso MA(q) con q fijo siempre es estacionario pues α2 i = 1 + θ θ2 q < Como Ẋt = θ(b)a t donde θ(b) = 1 + θ 1 B θ q B q, la condición suficiente para que el proceso sea invertible es que las raíces de θ(b) = 0 sean de modulo mayor que 1 (la demostración es similar a la de la proposición 2). Además, como de vio en la demostración de la proposición 1 (ver ecuaciones (2.1.1) y (2.1.2)) pero con α i = θ i para i = 1,..., q y α i = 0 si i > q resulta que E[X t ] = µ, V ar(x t ) = σa(1 2 + θ θq), 2 { σa 2 γ k = (θ k + θ 1 θ k θ q k θ q ), si k q; 0, si k > q ρ k = { θk +θ 1 θ k θ q k θ q 1+θ θ2 q, si k q; 0, si k > q Como se ve, la autocovarianza se anula para k > q y es una propiedad que caracteriza a los procesos MA(q) (ver Brockwell [2]). 18

25 El modelo de medias móviles de orden 1 Un proceso de medias móviles de orden 1 se expresa como X t µ = A t +θ 1 A t 1 donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. Como ya se vió en el ejercicio 1.3.2, este proceso es estacionario con E[X t ] = µ, σa 2 (1 + θ2 1 ), si k = 0; γ k = σa 2 θ 1, si k = 1; 0, si k > 1 ρ k = { θ1 1+θ 2 1, si k = 1; 0, si k > 1 En la función de autocorrelación parcial π k (definición 1.1.6), el determinante del numerador es ( 1) k+1 ( θ 1 ) k pues 1+θ1 2 θ 1 1 θ θ1 2 1+θ1 2 θ 1 θ num(π k ) = 1+θ1 2 1+θ θ 1 1+θ 2 1 = ( 1) k+1 θ θ θ 1 1+θ 2 1 θ 1 1+θ θ 1 1+θ θ 1 1+θ 2 1 θ 1 = ( 1) k+1 θ θ1 2 ( 1 + θ1 2 ) k 1 = ( 1) k+1 ( 1 + θ1 2 θ 1 ) k mientras que el determinante del denominador es k = 1+θ θ2k 1 (1+θ1 2)k usando el hecho de que k = k 1 ( θ 1 ) 2 1+θ1 2 k 2 e inducción en k. Por lo tanto, que se prueba fácilmente ( 1) k+1 θ1 k ( θ 1 ) k π k = 1 + θ1 2 = θ2k θ θ2k 1 = ( θ 1) k (1 θ 2 1 ) 1 θ 2(k+1) 1 si k 1. Para que este proceso sea invertible, la raíz de θ(b) = 1 + θ 1 B = 0 debe ser de modulo mayor que 1, o equivalentemente θ 1 < Modelos Autorregresivos de Promedios Móviles Definición Se dice que la serie de tiempo {X t : t Z} es un proceso autorregresivo de medias móviles de órdenes p y q respectivamente y se lo denota por ARMA(p,q), si se verifica que Ẋt = X t µ se puede expresar como (1 φ 1 B φ 2 B 2... φ p B p )Ẋt = (1 + θ 1 B + θ 2 B θ q B q )A t, 19

26 donde φ 1, φ 2,..., φ p, θ 1, θ 2,..., θ q son constantes con φ p 0 θ q y {A t : t Z} un proceso de ruido blanco con varianza σ 2 A. Una condición suficiente para que el proceso sea estacionario es que las raíces de Φ(B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 sean de módulo mayor que 1 (ver proposición 2). Mientras que una condición suficiente para que el proceso sea invertible es que las raíces de θ(b) = 1 + θ 1 B + θ 2 B θ q B q = 0 sean de módulo mayor que 1 (la demostración es similar a la de la proposición 2) Modelo ARMA(1,1). Un proceso ARMA(1,1) puede expresarse como Ẋt = φ 1 Ẋ t 1 + A t + θa t 1 o bien como Φ(B)Ẋt = θ(b)a t donde Φ(B) = 1 φ 1 B y θ(b) = 1 + θ 1 B. Como se vió en la proposición 2, este proceso es estacionario si la raíz de Φ(B) = 1 φ 1 B = 0 es de módulo mayor que 1, o equivalentemente φ 1 < 1. En este caso se puede escribir Ẋ t = θ(b) Φ(B) A 1 t = (1 + θ 1 B) (1 φ 1 B) A t = (1 + θ 1 B)( φ i 1B i )A t = (1 + (φ i 1 + θ 1 φ i 1 1 ))A t que es su expresión como media móvil de orden infinito. Similarmente, el proceso será invertible si la raíz de θ(b) = 1 + θ 1 B = 0 es de módulo mayor que 1, es decir si θ 1 < 1. En este caso A t = Φ(B) 1 θ(b) Ẋt = (1 φ 1 B) = (1 φ 1 B)( ( θ 1 ) i B i (1 + θ 1 B)Ẋt )Ẋt = (1+ (θ1 i 1 (φ 1 +θ 1 )( 1) i ))Ẋt que es su expresión como un proceso autorregresivo de orden infinito. Para calcular la función de autocovarianza se puede usar su expresión como media móvil de orden infinito; entonces por (2.1.2) para k 0 γ k = σ 2 A(α k + α i α i+k ) i=1 = σa(φ 2 1 k 1 (φ 1 + θ 1 ) + (φ 1 + θ 1 ) 2 φ k 2 1 (φ 2 1) i ) i=1 φ 2 1 = σa(φ 2 k 1 1 (φ 1 + θ 1 ) + (φ 1 + θ 1 ) 2 φ k φ 2 1 = σa 2 (φ 1 + θ 1 )φ1 k 1 (1 + φ 1 θ 1 ) 1 φ 2 1 i=1 i=1 y si k = 0 γ 0 = σa 2 αi 2 = σa(1 2 + (φ 1 + θ 1 ) 2 φ 2(i 1) 1 ) = σa(1 2 + (φ 1 + θ 1 ) 2 1 φ 2 ) = σa( φ 1θ 1 + θ φ 2 ) 1 Por lo tanto, i=1 σa 2 γ k = ( 1+2φ 1θ 1 +θ1 2 ), si k = 0; 1 φ 2 1 (φ 1 +θ 1 )φ k 1 1 (1+φ 1 θ 1 ), si k 1; σ 2 A 1 φ

27 y ρ k = (φ 1 + θ 1 )φ k 1 1 (1 + φ 1 θ 1 ) 1 + 2φ 1 θ 1 + θ 2 1 si k 1 Los valores de π k decrecerán de forma exponencial dependiendo del signo y magnitud de φ 1 y θ 1. Los siguientes gráficos representan las posibles funciones de autocorrelación y autocorrelación parcial de un proceso ARMA(1,1). φ 1 > θ 1 > 0 θ 1 > φ 1 > 0 θ 1 < φ 1 < 0 φ 1 < θ 1 < 0 21

28 φ 1 < 0 < θ 1 y φ 1 + θ 1 > 0 φ 1 < 0 < θ 1 y φ 1 + θ 1 < 0 θ 1 < 0 < φ 1 y φ 1 + θ 1 < 0 θ 1 < 0 < φ 1 y φ 1 + θ 1 > Modelo ARMA(p,q) Como se dijo al comienzo de la sección 2.4, si el módulo de las raíces de Φ(B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 son mayores que 1 entonces el proceso será estacionario y se podrá expresar como un proceso de medias móviles de orden infinito X t = α ia t i con α 0 = 1 y α2 i <. Con esta representación se puede calcular la función de autocovarianza ya que en un proceso MA( ) γ k = σa 2 α j α j+k para k 0. 22

29 Lo único que hace falta es saber el valor de los α i. Para ello se puede recurrir al hecho de que α i x i = θ(x) Φ(x), es decir que (1+α 1 x+α 2 x )(1 φ 1 x φ 2 x 2... φ p x p ) = (1+θ 1 x+θ 2 x θ q x q ) e igualando los coeficientes de las sucesivas potencias de x se calculan los α i. Las funciones de autocorrelación y autocorrelación parcial de los procesos ARMA combinan propiedades de los procesos AR y MA: en la función de autocorrelación ciertos primeros valores dependen del orden de la parte MA y después hay un decrecimiento dictado por la parte AR. En la función de autocorrelación parcial los valores iniciales dependen del orden de la parte AR y sigue un decrecimiento debido a la parte MA. Esta estructura compleja hace difícil poder identificar este modelo en la práctica (ver Peña [3]). El siguiente cuadro resume las características de las funciones de autocorrelación de un ARMA: AR(p) Tabla 1 Autocorrelación Muchos coeficientes no nulos que decrecen con el retardo como mezcla de exponenciales y sinoides. q primeros coeficientes no nulos y el resto cero. Autocorrelación Parcial p primeros coeficientes no nulos y el resto cero. M A(q) Muchos coeficientes no nulos que decrecen con el retardo como mezcla de exponenciales y sinoides. ARM A(p, q) Decrecimiento hacia cero. Decrecimiento hacia cero Ejercicios del Capítulo II Ejercicio Encontrar la función de autocorrelación, la función de autocorrelación parcial y graficar ambas para k = 1, 2, 3, 4, 5. a) X t = 0,5X t 1 + A t b) X t = 0,2X t 1 + 0,5X t 2 + A t c) X t = 0,7X t 1 + 0,1X t 2 + A t Solución. a) Como φ 1 = 0,5 < 1 entonces ρ k = ( 0,5) k y { 0,5, si k = 1; π k = 0, si k > 1; 23

30 b) La ecuación cuadrática correspondiente es z 2 + 0,2z 0,5 que tiene como raíces a z 1 = 0,614 y z 2 = 0,814 entonces ρ k = c 1 (0,614) k + c 2 ( 0,814) k que con las condiciones iniciales ρ 0 = 1 y ρ 1 + 0,2 0,5ρ 1 = 0 resulta que ρ k = 0,289(0,614) k + 0,71( 0,814) k y φ 1 1 φ 2, si k = 1; 0,4, si k = 1; π k = φ 2, si k = 2; = 0,5, si k = 2; 0, si k > 2; 0, si k > 2; c) La ecuación cuadrática correspondiente es z 2 + 0,7z 0,1 que tiene como raíces a z 1 = 0,121 y z 2 = 0,821 entonces ρ k = c 1 (0,121) k + c 2 ( 0,821) k que con las condiciones iniciales ρ 0 = 1 y ρ 1 + 0,7 0,1ρ 1 = 0 resulta que ρ k = 0,047(0,121) k + 0,953( 0,821) k y φ 1 1 φ 2, si k = 1; 0,777, si k = 1; π k = φ 2, si k = 2; = 0,1, si k = 2; 0, si k > 2; 0, si k > 2; Ejercicio En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k ρ k π k b) k ρ k π k

31 c) d) k ρ k π k k ρ k π k Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 +φ 2 X t 2 +A t ya que en esos modelos la autocorrelación parcial es φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 Luego φ 2 = 0,4 y φ 1 = 0,5 b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,3 y φ 1 = 0,43 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 25

32 c) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,9 y φ 1 = 1,5 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 d) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,4 y φ 1 = 1,3 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 Ejercicio En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k ρ k π k

33 b) c) d) k ρ k π k k ρ k π k k ρ k π k Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 < 0 y θ 2 > 0 b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 > 0 y θ 2 > 0 27

34 c) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 > 0 y θ 2 > 0 d) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 < 0 y θ 2 > 0 28

35 Ejercicio Considere la serie de tiempo {X t } definida por X t µ = θa t 1 +A t, donde 0 < θ 1 y donde {A t } es un proceso de ruido blanco con varianza σ 2 A. Defina el proceso {Y t} como la primera diferencia del proceso X t, es decir Y t = X t X t 1 para todo t Z. a) Qué tipo de proceso es {Y t }? b) Cúal es el valor τ k = cov(y t, Y t+k ) en función de la función de autocovarianza γ del proceso X t? c) Cúal es el valor ρ k = corr(y t, Y t+k ) en función de la función de autocorrelación ρ del proceso X t? d) Es Y t un proceso invertible? Solución. a) b) Y t = X t X t 1 = θa t 1 + A t (θa t 2 + A t 1 ) = A t + (θ 1)A t 1 θa t 2 Por lo tanto, {Y t } es un proceso de medias móviles de orden 2 (MA(2)). τ k = cov(y t, Y t k ) = E[Y t Y t k ] = E[(X t X t 1 )(X t k X t k 1 )] = E[X t X t k ] E[X t X t k 1 ] E[X t 1 X t k ] + E[X t 1 X t k 1 ] = γ k γ k+1 γ k 1 + γ k = 2γ k γ k+1 γ k 1 c) τ 0 = 2γ 0 γ 1 γ 1 = 2(γ 0 γ 1 ) ρ k = 2γ k γ k 1 γ k+1 2(γ 0 γ 1 ) = 2ρ k ρ k 1 ρ k+1 2(ρ 0 ρ 1 ) d) Otra forma de expresar a {Y t } es Y t = (1 + (θ 1)B θb 2 )A t = θ(b)a t. Como θ(b) = (1 + (θ 1)B θb 2 ) = 0 tiene como raíces a b 1 = 1 y b 2 = 1/θ pero b 1 1 entonces {Y t } no es invertible. Ejercicio Sea {A t } un proceso de ruido blanco con media cero y varianza σa 2 siguientes ecuaciones en diferencias y considere las 29

36 a) X t 1/2X t 1 = A t 1/3A t 1. b) X t 1/3X t 1 = A t 0,7A t 1 + 0,1A t 2. Para cada una de estas ecuaciones considere el proceso {X t } que es su solución. i. Halle en cada caso la función de autocovarianza del proceso {X t }. ii. Halle en cada caso la función de autocorrelación del proceso {X t }. iii. Calcule a función de autocorrelación parcial π k para k = 1, 2. Solución. a) i. γ k = σa 2 1+θ1 2+2φ 1θ 1 1 φ 2 1 σa 2 (φ 1 +θ 1 )φ k 1 1 (1+φ 1 θ 1 ) 1 φ 2 1 {, si k = 0;, si k 1; = 1,04.σA 2, si k = 0; 0,185 σ 2 2 k 1 A, si k 1; ii. iii. π 2 = ρ k = k+1 π 1 = ρ 1 = 5/28 = 0, /28 5/28 5/56 = 45/ /28 = 0,059 5/28 1 b) i. Como la raíz de la ecuación característica x 1/3 = 0 es x = 1/3 entonces γ k = c( 1 3 )k donde c es tal que γ k 1/3γ k 1 = σa 2 2 j=k θ jα j k y α k = (1/3) k Entonces para k = 0, 1 tendremos el sistema de ecuaciones γ 0 1/3γ 1 = σa 2 2,333 y γ 1 1/3γ 0 = 2σA 2 de donde sale que γ 1 = 1,375σA 2 y γ 0 = 1,875σA 2 = c Por lo tanto, γ k = 1,875σ 2 A( 1 3 )k ii. ρ k = ( 1 3 )k iii. π 1 = ρ 1 = 1/3. 1 1/3 1/3 1/9 π 2 = = 0 1 1/3 1/3 1 Ejercicio En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k ρ k π k

37 b) c) d) k ρ k π k k ρ k π k k ρ k π k Solución. a) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 > 0. b) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 > 0. c) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 < 0. 31

38 d) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 < 0. Ejercicio Sea {X t } un proceso ARMA(1,1) de ecuación donde {X t } es un proceso de ruido blanco. a) Defina el proceso {B t } mediante la igualdad exprese (2.5.1) como X t φ 1 X t 1 = A t + θ 1 A t 1 B t = A t + θ 1 A t 1 (2.5.1) X t φ 1 X t 1 = B t. (2.5.2) Suponiendo que φ 1 < 1 y usando argumentos similares a los empleados en el caso AR(1), demuestre que {X t } puede expresarse como X t = b) Usando (2.5.1) y (2.5.3) comprebe que X t puede expresarse como φ j 1 B t j (2.5.3) X t = A t + (φ 1 + θ 1 ) j=1 φ j 1 1 A t j. c) Suponiendo que θ 1 < 1 y usando (2.5.1) muestre que A t puede expresarse como A t = ( θ 1 ) j B t j (2.5.4) 32

39 d) Suponiendo que θ 1 < 1 y usando (2.5.2) y (2.5.4) muestre que A t puede expresarse como A t = X t (φ 1 + θ 1 ) j=1 ( θ) j 1 1 X t j. e) Considerese ahora el proceso AR(1) estacionario (causal) {Z t } solución de la ecuación Z t = φ 1 Z t 1 + A t. Demuestre (usando (2.5.1)y (2.5.3)) que X t puede expresarse como X t = Z t + θ 1 Z t 1 (2.5.5) f) Usando (2.5.5) calcule la función de autocovarianza τ del proceso {X t } en términos de la función de autocovarianza del proceso {Z t }. g) Usando el resultado de la parte (f) calcule la función de autocovarianza γ y de autocorrelación ρ del proceso {X t }. Solución. a) b) entonces y X t = φ 1 X t 1 + B t = φ 1 (φ 1 X t 2 + B t 1 ) + B t = φ 2 1X t 2 + φ 1 B t 1 + B t =... j 1 = φ j 1 X t j + φ i 1B t i pues φ 1 < 1. Por lo tanto, j 1 j 1 X t φ i 1B t i = φ j 1 X t j E[X t φ i 1B t i ] = φ j 1 E[X t j] = φ j 1 E[X t] 0 si j X t = = = X t = φ i 1B t i. φ i 1B t i φ i 1(A t i + θ 1 A t i 1 ) φ i 1A t i + φ1 i 1 θ 1 A t i = A t + i=1 i=1 φ i 1 1 (θ 1 + φ 1 )A t i 33

40 c) Luego, j 1 A t = B t θ 1 A t 1 = B t θ 1 (B t 1 θ 1 A t 2 ) =... j 1 = ( θ 1 ) j A t j + ( θ 1 ) j A t j E[A t ( θ 1 ) j A t j ] = ( θ 1 ) j E[A t j ] = ( θ 1 ) j E[X t ] 0 si j pues θ 1 < 1. Por lo tanto, A t = ( θ 1 ) j B t j. d) A t = = ( θ 1 ) j B t j ( θ 1 ) j (X t i φ 1 X t i 1 ) = X t + ( θ 1 ) j 1 ( θ 1 φ 1 )X t j j=1 = X t (φ 1 + θ 1 ) j=1 ( θ) j 1 1 X t j e) Como Z t es solución de Z t = φ 1 Z t 1 + A t entonces Z t = φi 1 A t i. Y además, Z t + θ 1 Z t 1 = A t + φ i 1A t i + θ 1 φ i 1 1 A t i i=1 = A t + (φ 1 + θ 1 ) = X t i=1 i=1 φ i 1 1 A t i f) Como Z t = φ 1 Z t 1 + A t es un AR(1), entonces la autocorrelación es τ k = σa 2 Luego, φ k 1 1 φ 2 1 si φ 1 < 1. γ k = cov(x t, X t k ) = E[(Z t + θ 1 Z t 1 )(Z t k + θ 1 Z t k 1 )] = E[Z t Z t k ] + θ 1 (E[Z t Z t k 1 ] + E[Z t 1 Z t k ]) + θ 2 1E[Z t 1 Z t k 1 ] = τ k + θ 1 (τ k+1 + τ k 1 ) + θ 2 1τ k g) φ k 1 φ k+1 1 φ k 1 1 γ k = σa 2 1 φ 2 + θ 1 (σa φ 2 + σa φ 2 ) + θ1σ 2 A φ 2 1 φ k 1 1 = σa 2 1 φ 2 (φ 1 + θ 1 (φ ) + θ1φ 2 1 ) 1 34 φ k 1

41 Y ρ k = φ k 1 Este ejercicio nos muestra una forma simple de calcular la función de autocovarianza de un proceso ARMA(1,1) a partir de conocer la expresión de la función de autocovarianza de un proceso AR(1). Ejercicio Sea {X t } un proceso estacionario con función de autocovarianza γ. Defina la función G mediante la igualdad G(z) = γ k z k (2.5.6) k= suponiendo que la serie converge para todo z en un anillo de la forma {z : 1/r < z < r} para algún r > 1. La funcion G definida por (2.5.6) se la llama función generadora de autocovarianzas. a) Cuál es la función generadora de autocovarianzas correspondiente a un proceso de ruido blanco? b) Sea {X t } el proceso de ecuación X t = j= α j A t j (2.5.7) donde {A t } es un proceso de ruido blanco. Suponiendo que existe r > 1 donde j= α j x j converge para todo x {z : 1/r < z < r}, demuestre que la función G puede expresarse como G(z) = σ 2 Aα(z)α(z 1 ) (2.5.8) donde α(x) = α k x k. (2.5.9) k= c) Considere ahora el caso en que {X t } es un proceso ARMA(p,q) de ecuación Φ(B)X t = θ(b)a t (2.5.10) donde Φ(z) es distinto de 0 para z = 1. Expresando apropiadamente (2.5.10) y usando (2.5.7), (2.5.8) y (2.5.9), probar que la función generadora de autocovarianzas de este proceso esta dada por G(z) = σa 2 θ(z)θ(z 1 ) Φ(z)Φ(z 1 para 1/r < z < r. (2.5.11) ) d) Use (2.5.6) y (2.5.11) para hallar la expresión de la función de autocovarianza de un proceso MA(2). Solución. entonces a) Como γ k = { σa 2, si k = 0; 0, si k 0 G(z) = γ 0 z 0 = σ 2 A 35

42 b) σ 2 Aα(z)α(z 1 ) = σ 2 A = σ 2 A = k= α k z k k= i= i= = G(z) γ i z i i= α i z i α k α k+i z i c) Si las raíces de Φ(B) son de módulo mayor que 1, entonces X t = θ(b) Φ(B) A t = α(b). Luego, d) G(z) = σ 2 Aθ(z)θ(z 1 ) G(z) = σaα(z)α(z 2 1 ) = σa 2 θ(z)θ(z 1 ) Φ(z)Φ(z 1 ) = σ 2 A(1 + θ 1 z + θ 2 z 2 )(1 + θ 1 z 1 + θ 2 z 2 ) = σa[(1 2 + θ1 2 + θ2) 2 + θ 2 z 2 + (θ 1 + θ 1 θ 2 )z 1 + (θ 1 + θ 1 θ 2 )z + θ 2 z 2 ] = γ k z k k= Entonces, igualando los coeficientes de cada potencia se obtiene que: 1. si k > 2, γ k = 0 2. γ 2 = θ 2 3. γ 1 = θ 1 + θ 1 θ 2 4. γ 0 = 1 + θ θ γ 1 = θ 1 + θ 1 θ 2 6. γ 2 = θ 2 36

43 Capítulo 3 Modelos para series de tiempo no estacionarias No todas las series de tiempo pueden ser modeladas mediante procesos ARMA, sin embargo, en la práctica la mayoría de las series reales no estacionarias pueden ser transformadas en series que responden al patrón de algún proceso ARMA(p,q). En este capítulo abordaremos el estudio de métodos que producen transformaciones sobre una serie de tiempo para convertirla en otra susceptible de ser modelada mediante un proceso ARMA Enfoque clásico donde Una serie de tiempo {Z t } puede ser expresada como Z t = m t + s t + X t (3.1.1) * m t es una función determinística de variación suave conocida como la tendencia. * s t es una función determinística con período conocido denominada estacionalidad. Se la entiende como una pauta regular de comportamiento períodico de la serie. * X t es la componente aleatoria denominada ruido aleatorio o componente estacionaria. Ejemplo Un ejemplo de una serie de tiempo real es el índice diferencial normalizado de vegetación (también llamado NDVI) de la Región Amazónica cuyo gráfico se observa abajo: 37

44 A continuación se mostrarán algunos métodos llamados clásicos para estimar y luego extraer las componentes determinísticas m t y s t esperando que la componente aleatoria residual X t pueda ser modelada por un proceso ARMA (ver Leiva [1]) Estimación de m t por el método de cuadrados mínimos Asumamos que en la ecuación (3.1.1) la componente de estacionalidad s t no está presente; entonces (3.1.1) queda: Z t = m t + X t con E[X t ] = 0. Se trata primero de estimar la tendencia suponiendo que m t es un polinomio en t con grado fijo de la forma m t = a 0 + a 1 t a k t k. Luego se aplica el método de mínimos cuadrados para aproximar a 0,..., a k, o sea, elegirlos tal que minimizen n t=1 (Z t m t ) 2. Se tendrá entonces m t = â 0 + â 1 t â k t k donde â 0, â 1,..., â k son las estimaciones obtenidas por el método de mínimos cuadrados (ver Leiva [1]). Por último, a los valores residuales x t = z t m t se los estima apropiadamente y con dicha estimación se puede mejorar la de m t. Ejemplo Se aplicó a la serie del ejemplo el método de mínimos cuadrados suponiendo que m t es un polinomio de grado 1 de la forma m t = a 0 + a 1 t. De ésta estimación de la tendencia resultó que a 0 = 3,809 y a 1 = 0,033 y su gráfico se muestra a continuación: Luego se estimó el residuo resultando una serie como se observa en el siguiente gráfico: 38

45 Estimación de la tendencia mediante suavizamiento por promedios En este caso también se supone que la componente de estacionalidad s t en el ejemplo no está presente y que m t es aproximadamente lineal en intervalos de tiempo de longitud L = 2h + 1 con h real y fijo. Una estimación de m t es ya que m t = P t = 1 2h + 1 h Z t+i para t [h + 1, n h] i= h P t = 1 2h + 1 h (m t+i + X t+i ) = 1 2h + 1 i= h pues como m t = At + b y E[Xt ] = 0, entonces 1 2h + 1 h i= h m t+i = 1 2h + 1 h i= h h i= h m t+i + 1 2h + 1 h X t+i = mt + 0 = m t i= h A(t + i) + b = (At + b) + 1 2h + 1 h i = m t. Para los valores extremos de m t se pueden usar los promedios ponderados unilaterales con α (0, 1): i= h n t t 1 m t = α(1 α) j Z t+j si t = 1,..., h y m t = α(1 α) j Z t j si t = n h + 1,..., n Esta ponderación se realiza asumiendo que los valores extremos de la serie tendrán una menor influencia en su comportamiento. Estas últimas estimaciones no son altamente sensibles a los valores de α. Empíricamente se ha encontrado que con α (0,1; 0,3) las estimaciones son razonables [2] Estimación de la tendencia y la estacionalidad cuando la tendencia es constante durante cada período de la componente estacional Consideremos que Z t se puede descomponer como Z t = m t + s t + X t (notar que ahora están presente tanto la tendencia como la componente estacional) donde E[X t ] = 0 y s t = s t+d t Z con d j=1 s j = 0; siendo d un número natural fijo que responde al tiempo en que la serie vuelve a repetir su comportamiento, o sea, el período de la serie. La condición d j=1 s j = 0 no es restrictiva pues si d j=1 s j = s 0 entonces d s j = s + j=1 = s + = s + d (s j s) j=1 d (s j s d ) con s j = s j s d. Luego, Z t = m t + s d + s t + X t = m t + s t + X t con d j=1 s j = 0. Para eliminar la tendencia y la estacionalidad simultáneamente, supondremos que los cambios en la tendencia son pequeños durante cada uno de los períodos de longuitud d de la estacionalidad. 39 j=1 d j=1 s j

46 Suponiendo que en el k-ésimo período de longitud d se verifica que d j=1 s j+(k 1)d = 0 y que además m (k 1)d+1 = m(k 1)d+2 =... = m(k 1)d+d 1 = mk (debido a que la tendencia es muy pequeña en cada uno de los períodos), entonces un estimador de m t con t [(k 1)d + 1, kd] es m t = P k pues P k = 1 d = 1 d d j=1 Z (k 1)d+j d m (k 1)d+j + 1 d j=1 = m k = m k donde r es el número de períodos de longitud d. Ahora, una buena estimación para s j es d s (k 1)d+j + 1 d j=1 d j=1 x (k 1)d+j pues ŝ j = 1 r 1 (Z kd+j m kd+j ) para j = 1,..., d r k=0 ŝ j = 1 r 1 (Z kd+j m kd+j ) r k=0 r 1 = 1 (Z kd+j P k+1 ) r k=0 r 1 = 1 (m kd+j + s kd+j + X kd+j m k+1 ) r k=0 r 1 = 1 (m kd+j m k+1 ) + 1 r 1 X kd+j + 1 r 1 r r r k=0 = r = 1 r = s j r 1 s j k=0 r 1 s kd+j k=0 ya que m kd+j = mk+1, E[X t ] = 0 y s j = s j+d =... = s j+(r 1)d. O sea, la estimación de s t está dada por ŝ t = ŝ j para t = kd + j k = 0, 1,..., r 1. Finalmente, la estimación de la componente estacionaria viene dada por: para k = 0,..., r 1 y j = 1,..., d. k=0 k=0 s kd+j X t = Z t m t ŝ t = Z t P k ŝ j si t = kd + j, Ejemplo Se aplicó a los primeros 100 valores de la serie del ejemplo el método estudiado en esta sección. Suponiendo que el período es d = 12, el gráfico de la serie junto con la tendencia resulta ser: 40

47 Luego se estimaron la componente estacional junto con el residuo lo que resulto en: Estimacio n de la tendencia y la estacionalidad: Caso General Este me todo es ma s general que el anterior ya que no se supone que la tendencia sea aproximadamente constante en cada perı odo. Primero se hace una estimacio n inicial de la tendencia mediante un suavizamiento con un promedio, de acuerdo con el siguiente procedimiento: Si d = 2h + 1 entonces h X 1 Pt = Zt+i para h + 1 t n h 2h + 1 i= h 41

48 y si d = 2h entonces P t = 1 2h [1 2 Z t h + ( h 1 i= h+1 Z t+i ) Z t+h] para h + 1 t n h La influencia de las componentes estacionales en cada promedio es igual a cero pues la longitud de los intervalos de tiempo donde se analizan los promedios es igual a la longitud del período de la componente estacional; mientras que por ser E[X t ] = 0, el promedio de las componentes estacionarias es aproximadamente igual a cero. Luego, P t es una buena estimación de m t para t = h + 1,..., n h. Partiendo de esta estimación inicial de m t, se consideran las desviaciones δ t = z t P t para h + 1 t n h y se calculan promedios de estas desviaciones q j : j = 1,..., d. Así para el caso en que n = rd, si d = 2h + 1, 1 r 1 r 1 k=1 δ j+kd, si j = 1,..., h; y si d = 2h, q j = q j = 1 r 1 r 1 r 1 k=0 δ j+kd, si j = h + 1; r 2 k=0 δ j+kd, si j = h + 2,..., d { 1 r 1 r 1 1 r 1 k=1 δ j+kd, si j = 1,..., h; r 2 k=0 δ j+kd, si j = h + 1,..., d Notemos que en cada promedio sólo están involucradas las desviaciones referidas a una misma componente estacional. Las componentes estacionales s j se estiman mediante ŝ j = q j 1 d d q i. i=1 Se reestima la tendencia mediante un suavizado con promedios de los datos desestacionalizados z t o por ajuste mediante cuadrados mínimos. Finalmente, se calculan las estimaciones de la componente estacionaria X t mediante X t = Z t m t ŝ t Modelos ARIMA y SARIMA El método que se verá en esta sección se basa en la utilización de diferencias de los datos originales para la eliminación de la tendencia y la estacionalidad y poder luego modelar la componente estacionaria resultante. Definición Sea {Z t : t Z} una serie de tiempo, se define el operador diferencia por Z t = (1 B)Z t = Z t Z t 1 Se puede notar que si aplicamos este operador k veces a un polinomio de grado k se obtiene una constante (ver ejercicio 3.4.6). Definición Sea {Z t : t Z} una serie de tiempo y sea d N, se define el operador diferencia de tamaño d, d por d Z t = (1 B d )Z t = Z t Z t d Se puede verificar que si se aplica este operador a un proceso Z t = m t + s t + X t donde s t es la componente estacional de período d se tendrá d Z t = m t + X t donde m t = m t m t d y X t = X t X t d. 42

49 Modelos ARIMA Los procesos ARIMA generalizan a los procesos ARMA. Estos procesos ARIMA sirven para modelar series de tiempo que luego de diferenciarlas un número finito de veces, se reducen a un proceso ARMA. Definición Si k N {0}, se dice que {Z t : t Z} es un proceso Autorregresivo Integrado de Promedios Móviles de órdenes p,k,q y se lo indica por ARIMA(p,k,q), si la serie de tiempo {X t } que se obtiene de diferenciar k veces a {Z t }, es decir X t = k Z t, es un proceso ARMA(p,q). Equivalentemente, se puede decir que {Z t } es un proceso ARIMA(p,k,q) si satisface la ecuación en diferencias Φ(B)(1 B) k Z t = θ(b)a t con Φ(B) = 1 φ 1 B... φ p B p y θ(b) = 1 + θ 1 B θ q B q donde {A t } es un proceso de ruido blanco y donde se supone que los polinomios Φ(x) y θ(x) no tiene raíces comunes y que Φ(x) 0 si x = 1. En especial, es interesante que la serie {X t } que resulta de la definición defina un proceso estacionario e invertible, por lo que se requerirá que las raíces de Φ(x) y θ(x) sean todas de módulo mayor que 1. Notemos que el proceso ARIMA(p,k,q) se reduce a un: a) Proceso ARMA(p,q) cuando k = 0 b) Proceso MA(q) cuando p = 0 = k c) Proceso AR(p) cuando q = 0 = k d) Proceso ARI(p,k) cuando q = 0 e) Proceso IMA(k,q) cuando p = 0 Estos procesos ARIMA se caraterizan por tener una función de autocorrelación teórica con decaimiento positivo muy lento. Sin embargo, esta condición es suficiente pero no necesaria ya que por ejemplo los procesos ARMA con una raíz del polinomio de su parte autorregresiva cercana a 1 también presentan un comportamiento similar. Un problema que tienen estos procesos ARIMA(p,k,q) es que modelan solamente la no estacionariedad que tienen una raíz igual a 1 en su parte autorregresiva, es decir, ψ(b)z t = θ(b)a t donde ψ(b) = φ(b)(1 B) k con φ(b) = 1 φ 1 B... φ p B p tal que Φ(x) 0 si 1 < x Procesos SARIMA (ARIMA estacionales) En los modelos ARIMA se incorporaba en la descomposición clásica (3.1.1) la función períodica s t con el fin de modelar la presencia de estaciones en una serie de tiempo. Esta componente estacional es rígida en el sentido que su contribución se repite en cada uno de los ciclos. Los modelos SARIMA permiten cierta aleatoriedad en el comportamiento estacional de un ciclo al siguiente, lo que parece más razonable en la práctica. Definición Si k, h N {0}, se dice que {Z t : t Z} es un proceso ARIMA Estacional de período d y órdenes (p, k, q) y (r, h, s) d y se lo denota por SARIMA (p, k, q), (r, h, s) d si la serie diferenciada X t = k h d Z t = (1 B) k (1 B d ) h Z t, satisface la ecuación Φ(B)ψ(B d )X t = θ(b)η(b d )A t donde {A t } es un proceso de ruido blanco y donde Φ(x) = 1 φ 1 x... φ p x p, ψ(x) = 1 ψ 1 x... ψ r x r, θ(x) = 1 + θ 1 x θ q x q y η(x) = 1 + η 1 x η s x s. 43

50 Para identificar estos procesos primero se determinarán los valores k y h tal que los datos diferenciados X t = (1 B) k (1 B d ) h Z t sean aparentemente estacionarios. Después, se seleccionarán r y s tales que los valores de autocorrelación ρ id con i N de la serie {X t } pueda ser modelado por un proceso ARMA(r,s). Por último, se elegirán p y q tal que los valores ρ j con i = 1,..., d (q + 1) sean compatibles con las de un proceso ARMA(p,q) Transformaciones Con frecuencia se verifica que var(z t ) = f(µ t ) donde f es una función no negativa. A veces, este problema se puede resolver aplicando una transformación T a la serie {Z t } para obtener una serie {Y t } donde Y t = T (Z t ) que va a tener varianza constante a lo largo del tiempo. Una forma de encontrar T es usar el desarrollo de Taylor de orden 1 alrededor de µ t como sigue: T (Z t ) = T (µ t ) + T (µ t )(Z t µ t ). Como supongo que T (µ t ) es no aleatoria, resulta que Y como quiero var(t (µ t )) = k constante entonces var(t (Z t )) = T (µ t ) 2 f(µ t ). T (µ t ) = k f(µt ) o sea, T (µ t ) = k f(µt ) dµ t (3.3.1) Box y Cox en 1964 introdujeron para estabilizar la varianza de una serie de tiempo {Z t } a la familia T (Z t ) = Zλ t 1 λ donde λ es llamado el parámetro de la transformación. Notar que para λ = 0, Zt λ 1 lím = log(z t ) λ 0 λ Ejemplo Si var(z t ) = mµ t, o sea, la desviación estándar de Z t varía proporcionalmente al nivel µ t, entonces f(µ t ) = m 2 µ 2 t y T (µ t ) = k m 2 µ 2 t dµ t = k 1 k dµ t = mµ t m log(µ t) (3.3.2) Por lo que la transformación que estabiliza la varianza en este caso es la transformación logarítmica. 44

51 3.4. Ejercicios del Capítulo III Ejercicio Considere el siguiente conjunto de datos que corresponden al consumo bimestral de gas natural de una familia durante el período de enero de 1983 a diciembre de a) Grafique los datos en función de t. BIMESTRES AÑO b) Calcule y grafique las funciones muestrales de autocorrelación y autocorrelación parcial de estos datos. c) Suponga que los datos han sido generados por un proceso que responde a la forma Z t = m t + s t + X t, donde m t es la tendencia, s t es la estacionalidad con período d y donde {X t } es un proceso estacionario con media 0. Basándose en las partes (a) y (b), determine el valor del período d. d) Suponga que la tendencia es constante dentro cada período y calcule y grafique las estimaciones m t, s t y x t para t = 1,..., 54. e) Utilice las estimaciones de s t halladas en la parte (d) para calcular los datos desestacionalizados, es decir calcule y t = z t ŝ t para t = 1,..., 54. Con estos valores, que responden aproximadamente a la forma y t = z t ŝ t = mt + X t, calcule otra estimación de la tendencia ajustándoles por mínimos cuadrados una recta de ecuación r(t) = a 0 + a 1 t. Dibuje en un mismo gráfico la recta obtenida, la estacionalidad estimada y los residuos ŷ t = z t ŝ t m t. f) Calcule y grafique las funciones muestrales de autocorrelación y autocorrelación parcial de los residuos obtenidos en la parte (e). g) Determine un modelo apropiado para X t en base a lo observado en la parte (f) y estime sus coeficientes. Solución. a) La serie de tiempo es 45

52 b) Las funciones de autocorrelación y de autocorrelación parcial son respectivamente: c) De acuerdo a los gráficos de las partes (a) y (b) se puede decir que el período es d=6. d) Las estimaciones de m t, s t y x t son respectivamente: e) Con la nueva estimación de m t = r(t) = 173,4 + 1,65t, los gráficos de la tendencia, la estacionalidad y el residuo queda: 46

53 f) Las funciones de autocorrelación y de autocorrelación parcial son respectivamente: g) De acuerdo a lo observado en la parte (f) y atendiendo al criterio de parsimonia podemos decir que el residuo x t puede ser modelado por un proceso AR(2) y usando la función de autocorrelación parcial teórica de estos procesos podemos estimar los coeficientes como φ 1 = 0,485 y φ 2 = 0,409. Ejercicio Considere el conjunto de datos z t con t = 1,..., 54 del ejercicio que corresponden al consumo bimestral de gas natural de una familia durante el período de enero de 1983 a diciembre de a) Para corregir la no estacionariedad que se observa en la varianza use la transformación logarítmica. Es decir calcule y t = log(z t ) para t = 1,..., 54. b) Calcule y grafique las funciones muestrales de autocorrelación y autocorrelación parcial. c) En base a lo observado en la parte (b), diferencie a los datos transformados con un retardo (lag) apropiado y luego résteles la media de los datos diferenciados. d) Grafique los datos finales obtenidos en la parte (c) y calcule y grafique las funciones muestrales de autocorrelación y autocorrelación parcial. e) Basándose en lo observado en la parte (d), determine posibles modelos para los datos graficados en (d) y sus correspondientes modelos para los datos originales. 47

54 Solución. a) Los siguientes son los valores de z t del ejercicio anterior a los cuales le aplicamos logaritmo. BIMESTRES AÑO b) Las funciones de autocorrelación y autocorrelación parcial resultan ser: c) Con un lag = 6 la media de los valores diferenciados resulta ser Por lo que los valores de los datos diferenciados menos su media son: BIMESTRES AÑO d) Los datos y sus funciones de autocorrelación y autocorrelación parcial resultan ser ahora: 48

55 e) Como las autocorrelaciones de los datos diferenciados se comportan como ruido blanco, entonces el modelo correspondiente a los datos de consumo es ((1 B 6 )log(z t ) 0,045) = A t con {A t } ruido blanco. Ejercicio En cada uno de los siguientes casos los valores dados en la tabla son los primeros seis valores de las funciones teóricas de autocorrelación y autocorrelación parcial de la primera diferencia X t = Z t Z t 1 de un proceso {Z t }. Especifique los modelos de serie de tiempo estacionaria {X t } a los que podrían pertenecer los pares de funciones teóricas de autocorrelación y autocorrelación parcial dadas y establezca luego la relación que define en forma general a {Z t } en el modelo que le corresponde de acuerdo al modelo especificado para X t. Cuando sea posible determine el signo y/o valores de los coeficientes involucrados. a) b) c) d) k ρ k π k k ρ k π k k ρ k π k k ρ k π k

56 Solución. a) Dado que no hay correlación ni correlación parcial entre los datos, decidimos que {X t } es un proceso de ruido blanco. Por lo que (1 B)Z t = A t. b) Dado que la correlación de {X t } se anula para k > 2 podemos decir que es un proceso MA(2) con θ 2 < 0. Por lo que (1 B)Z t = A t + θ 1 A t 1 + θ 2 A t 2. c) Dado que la correlación parcial de {X t } se anula para k > 2 podemos decir que es un proceso AR(2) con φ 2 = 0,5 < 0 y φ 1 = 1,4 > 0 Por lo que (1 B)Z t = A t + φ 1 (1 B)Z t 1 + φ 2 (1 B)Z t 2, o sea (1 (1 + φ 1 )B + (φ 1 φ 2 )B 2 + φ 2 B 3 )Z t = A t. d) Dado que ambas funciones de correlación y correlación parcial son positivas y decresen a cero, diremos que se trata de un proceso ARMA(1,1), o sea (1 φ 1 B)(1 B)Z t = (1 + θ 1 B)A t. Ejercicio Sea {X t } un proceso ARIMA(p,2,q) que satisface la ecuación en diferencias Φ(B)(1 B) 2 X t = θ(b)a t, (3.4.1) donde {A t } es un proceso de ruido blanco. Demuestre que cualquiera sean las variables aleatorias V y W, el proceso {Y t } definido por Y t = V + tw + X t, también satisface la ecuación (3.4.1). Solución. Φ(B)(1 B) 2 Y t = Φ(B)(1 B) 2 (V + tw + X t ) = Φ(B)(1 B) 2 V + Φ(B)(1 B) 2 tw + Φ(B)(1 B) 2 X t = Φ(B)(V 2V + V ) + W Φ(B)(t 2(t 1) + (t 2)) + Φ(B)A t = Φ(B)A t. Por lo tanto, {Y t } satisface la ecuación (3.4.1). Ejercicio Sean {Y t } y {Z t } dos procesos. Demuestre que Solución. Por inducción, Si k = 1, Supongamos cierto para k 1, veamos para k k (ay t + cz t ) = a k Y t + c k Z t n Z (ay t + cz t ) = ay t + cz t ay t 1 + cz t 1 = a(y t Y t 1 ) + c(z t Z t 1 ) = a Y t + c Z t. k (ay t + cz t ) = k 1 ( (ay t + cz t )) = k 1 (a Y t + c Z t ) = a k 1 ( Y t ) + c k 1 ( Z t ) = a k Y t + c k Z t. Ejercicio Si P k es un polinomio en t de grado k dado por demostrar que P k (t) = a 0 + a 1 t a k t k con a k 0, (3.4.2) 50

57 a) i P k (t) es un polinomio de grado k i, es decir i P k (t) = b 0 + b 1 t b k i t k i, para todo i = 0, 1,..., k. b) k P k (t) = k!a k. Solución. a) Se puede probar fácilmente usando la fórmula del binomio sobre (t 1) j que t j = t j (t 1) j es un polinomio de grado j 1 con coeficiente principal j. Luego, usando la linealidad de y lo anterior se puede ver que si P k (t) = a 0 + a 1 t a k t k es un polinomio de grado k, entonces P k (t) es un polinomio de grado k 1 con coeficiente principal ka k. Por otro lado, se ve también usando la fórmula del binomio que si i j, i t j es un polinomio de grado j i con coeficiente principal j! (j i)!. Combinando estos resultados y usando la linealidad de resulta que i P k (t) es un polinomio de grado menor o igual que k i con coeficiente principal a k k! (k i)!. b) De la parte (a) se deduce inmediatamente que k P k (t) = a k k! (k k)! = a kk!. Ejercicio Sea d el operador diferencia de tamaño d definido por d = 1 B d. a) Demuestre que d es un operador lineal. Concretamente, siendo {Y t } y {Z t } dos procesos demuestre que d (ay t + cz t ) = a d Y t + c d Z t. b) Demuestre que k d es un operador lineal para todo k N. c) Pruebe que d t k es un polinomio de grado k 1 con coeficiente principal igual a kd. d) Demuestre, usando el resultado de las partes (a) y (c) anteriores, que si P k (t) es un polinomio de grado k como el de la ecuación (3.4.2) entonces i d P k(t) es un polinomio de grado k i, es decir i d P k(t) = b 0 + b 1 t b k i t k i, con coeficiente principal igual a a k d i k! (k i)!, para todo i = 0, 1,..., k. En particular, k d P k(t) = k!d k a k. Solución. a) d (ay t + cz t ) = ay t + cz t ay t d + cz t d = a(y t Y t d ) + c(z t Z t d ) = a d Y t + c d Z t. b) Se prueba del mismo modo que se probó en el ejercicio usando inducción en k y la parte (a) para el caso k = 1. c) d t k = t k (t d) k = k 1 ( k ) i ( d) k i t i que es un polinomio de grado k 1 con coeficiente k! principal (k 1)! d = kd. d) Se puede ver usando la fórmula del binomio que si i k, i d tk es un polinomio de grado k i con coeficiente principal d i k! (k i)!. Si P k(t) = a 0 + a 1 t a k t k, por la linealidad de i d y lo anterior, i d P k(t) es un polinomio de grado k i con coeficiente principal a k d i k! (k i)!. En particular, k d P k(t) = a k d k k!. Ejercicio Demuestre que si {X t } es un proceso estacionario con E[X t ] = µ y autocovarianza γ k entonces a) X t = X t tal que t Z es un proceso estacionario con media cero y autocovarianza cov(x t, X t+k ) = 2γ k γ k 1 γ k+1. 51

58 b) X t = d X t tal que t Z es un proceso estacionario con media cero y autocovarianza cov(x t, X t+k ) = 2γ k γ k d γ k+d. Solución. a) X t = X t X t 1 E[X t ] = E[X t ] E[X t 1 ] = µ µ = 0 cov(x t, X t+k ) = E[X tx t+k X t X t+k 1 X t 1 X t+k + X t 1 X t 1+k ] = E[X t X t+k ] E[X t X t+k 1 ] E[X t 1 X t+k ] + E[X t 1 X t 1+k ] = 2γ k γ k 1 γ k+1 b) X t = X t X t d E[X t ] = E[X t ] E[X t d ] = µ µ = 0 cov(x t, X t+k ) = E[X tx t+k X t X t+k d X t d X t+k + X t d X t d+k ] = E[X t X t+k ] E[X t X t+k d ] E[X t d X t+k ] + E[X t d X t d+k ] = 2γ k γ k d γ k+d Ejercicio Sean {V t } y {W t } dos procesos estacionarios con medias µ V y µ W y autocovarianzas τ k y δ k respectivamente. Si Z t = V t + tw t para todo t Z demostrar que a) {Z t } no es estacionario pues no cumple ninguna de las dos propiedades de la definición de estacionariedad. b) Y t = Z t no es estacionario a menos que W t = W para todo t. Solución. a) E[Z t ] = E[V t ] + te[w t ] = µ V + tµ W (depende de t). cov(z t, Z t+k ) = τ k +(t+k)e[v t W t+k ]+te[w t V t+k ]+(t 2 +tk)δ k µ 2 V (k+2t)µ V µ W (t 2 +kt)µ 2 W que depende de t. b) E[Y t ] = E[Z t ] E[Z t 1 ] = µ W cov(z t, Z t+k ) = E[(Z t Z t 1 )(Z t+k Z t+k 1 )] µ 2 W que depende de t pues cov(z t, Z t+k ) depende de t. 52

59 Capítulo 4 Predicción Uno de los motivos más importantes del estudio de las series de tiempo es el hecho de poder predecir los valores futuros, conocidos sus datos pasados. Esto es, se quiere predecir el valor X n+m conocidos los valores X 1, X 2,..., X n y a este valor predicho se lo designará por X 1,n (m). El criterio que usaremos para comparar predictores del valor X n+m es mediante la evaluación del Error Cuadrático Medio de cada predictor X 1,n (m) dado por ECM(X 1,n (m)) = E[(X n+m X 1,n (m)) 2 ] y eligiendo como el mejor a aquél que minimiza este valor. Si P está definida como la clase de todos los predictores de X n+m donde se realiza la búsqueda y si además se agrega la condición de que estos predictores sean funciones de X 1, X 2,..., X n, entonces el mejor predictor de X n+m, que se denota X 1,n (m), es X 1,n (m) = E[X n+m /X t : 1 t n]. (4.0.1) Esto se puede entender como que el mejor estimador para el tiempo n + m es el promedio de los X n+m correspondientes a todas las posibles realizaciones de X t cuyos valores hasta el tiempo n coinciden con las observaciones x 1,..., x n. Sin embargo, este resultado no es útil ya que requiere conocer la estructura probabilística de {X t }. Por ello se restringirá la clase P de predictores admitidos de X n+m a los que son una combinación lineal de X 1, X 2,..., X n y de esta familia el que tenga menor Error Cuadrático Medio se lo denominará mejor predictor lineal, que se denotará por X 1,n (m). En general, este predictor no coincidirá con el dado en (4.0.1), pero igual hay casos donde se da la coincidencia como se verá en la sección (4.2) Predictor Lineal con Error Cuadrático Medio Mínimo Sea {X t } un proceso estacionario con función de autocovarianza γ y media cero. El mejor predictor lineal de X n+m está dado por X 1,n (m) = φ (m) n,1 X n φ (m) n,n X 1 = X nφ (m), con X n = (X n, X n 1,..., X 1 ), y donde φ (m) n,1,..., φ(m) n,n se obtienen de resolver φ m = (φ (m) n,1,..., φ(m) n,n ) Γ n φ m = γ n,m (4.1.1) donde γ n,m = (γ m, γ m+1,..., γ m+n 1 ) 53

60 y γ 0 γ 1... γ n 1 γ 1 γ 0... γ n 2 Γ n = γ n 1 γ n 2... γ 0 Cuando Γ n es singular, el sistema puede tener infinitas soluciones pero todas ellas dan lugar al mismo predictor X 1,n (m). En el caso donde Γ n es no singular, la solución del sistema es y en este caso φ (m) = Γ 1 n γ n,m (4.1.2) ECM( X 1,n (m)) = E[(X n+m X 1,n (m)) 2 ] = E[(X n+m X nφ (m) ) 2 ] = E[X n+mx n+m ] + φ (m) E[X n X n]φ (m) 2E[X n+m X n]φ (m) = γ 0 + φ (m) Γ n φ (m) 2γ n,m Γ 1 n γ n,m = γ 0 γ n,m Γ 1 n γ n,m Desde el punto de vista práctico es poco útil cuando se posee una gran cantidad de datos, por eso existen algunos algoritmos que permiten superar estos problemas. Uno de ellos es el algoritmo de Durbin-Levinson que establece un procedimiento recursivo para calcular el vector de coeficientes φ. Otro algoritmo se basa en la representación de X 1,n (m) como combinación lineal de las innovaciones X n j+m X 1,n j (m) para j = m,..., n + m 1, es decir mediante la determinación de los coeficientes θ n 1+m,j con j = m,..., n + m 1 tales que se verifica X 1,n (m) = n+m 1 j=m θ n 1+m,j (X n j+m X 1,n j (m)) y tiene como ventaja que sirve también para procesos no estacionarios cuya función de autocovarianza γ ij no depende únicamente de la distancia i j entre los tiempos Predicción de un ARMA conocido todo su pasado El mejor predictor lineal de X n+m conocido los valores de {X t } con < t n se lo denota por X n (m). Los resultados teóricos que se obtengan de esta sección servirán para estimaciones que se hagan cuando se conocen solo los valores de X 1, X 2,..., X n. Consideremos una serie {X t } que corresponde a un proceso ARMA(p,q) estacionario e invertible dado por X t φ 1 X t 1... φ p X t p = A t + θ 1 A t θ q A t q, donde {A t } es un proceso de ruido blanco formado por variables aleatorias independientes entre sí. Como es un proceso estacionario (causal) se puede representar como un proceso MA( ) de la forma X t = con α 0 = 1 y α2 j <. En particular, α j A t j t Z (4.2.1) X n+m = α j A n+m j (4.2.2) 54

61 Entonces, X n (m) = β j A n j t Z (4.2.3) pues X n (m) es función lineal de {X t } con < t n y que a la vez por (4.2.1) son funciones de {A t } con t n. Para calcular los β i se usan (4.2.2) y (4.2.3) para llegar a la expresión X n+m X n (m) = m 1 α i A n+m i + (α m+j β j )A n j y como las variables del ruido blanco están no correlacionadas entre sí resulta que E[(X n+m X n (m)) 2 ] = σ 2 A m 1 α 2 i + σ 2 A (α m+j β j ) 2 (4.2.4) que será mínimo cuando la segunda sumatoria se anule, es decir cuando β j = α m+j para j = 0, 1,... Por ello la fórmula (4.2.3) se reduce a y (4.2.4) queda X n (m) = α m+j A n j (4.2.5) ECM( X n (m)) = σ 2 A m 1 α 2 i (4.2.6) que claramente aumenta a medida que se desea predecir un X n+m más alejado de X n pero igualmente este crecimiento va a estar acotado por α2 i <. Probemos que X n (m) dado por (4.2.5) coincide con el predictor óptimo X n (m). Dado que { 0, si j < m; E[A n+m j /X t : < t n] = A n+m j, si m j pues los valores de X t : < t n dependen solo de A t : t n, entonces X n (m) = E[X n+m /X t : < t n] = = α j A n+m j = j=m = X n (m) α m+i A n i α j E[A n+m j /X t : < t n] Si a X t : < t n se le agrega con el devenir del tiempo la observación X n+1 se puede volver a calcular el predictor lineal de X n+m. Por la fórmula (4.2.5) para m = 1, Xn (1) = α 1+jA n j y por (4.2.2) para m = 1, X n+1 = A n+1 + α i A n+1 i = A n+1 + X n (1) i=1 55

62 por lo que Luego, X n+1 X n (1) = A n+1 (4.2.7) X n+1 (m 1) = α m 1+i A n+1 i = α m 1 A n+1 + α m+j A n j = α m 1 (X n+1 X n (1)) + X n (m) que puede interpretarse como que el predictor X n+1 (m 1) modifica al predictor X n (m) ya que incorpora información y este cambio tiene que ver con el error cometido al estimar X n+1 a partir de X t : t n Predicción de un ARIMA conocido todo su pasado Sea {Z t } un proceso ARIMA(p,k,q) donde φ(b)(1 B) k Z t = θ(b)a t. Supongamos que el proceso de ruido blanco {A t } está compuesto por variables aleatorias independientes entre sí y los polinomios φ(x) = 1 φ 1 x... φ p x p y θ(x) = 1+θ 1 x+...+θ q x q no tienen raíces comunes, siendo las raíces de θ(b) en módulo mayor que 1, y además φ(1) 0. Supongamos también que conocemos Z t : < t n y trataremos de encontrar el predictor óptimo Ẑn(m) de Z n+m. Por ser un proceso invertible, admite una expresión como un proceso AR( ) de la forma donde que es lo mismo que β(b) = En particular, para t = n + m φ(b)(1 B)k θ(b) β(b)z t = A t, (4.3.1) = Z t = A t β i B i con Z n+m = A n+m β i < β i Z t i (4.3.2) i=1 β i Z n+m i (4.3.3) Multiplicamos ambos miembros de (4.3.3) por el operador τ(b) = 1+τ 1 B +...+τ m 1 B m 1 y elegimos los τ 1,..., τ m 1 de tal forma que se hagan cero los coeficentes correspondientes a Z n+m 1,..., Z n+1. O i=1 56

63 sea, despejando Z n+m y agrupando los distintos Z t se tiene m 1 Z n+m = τ(b)a n+m i=1 m 1 = τ(b)a n+m i=1 m 1 τ i Z n+m i i=1 (τ i + β i )Z n+m i m 1 = τ(b)a n+m (τ i + β i )Z n+m i i=1 m 1 = τ(b)a n+m (τ i + β i + i=2 m 1 = τ(b)a n+m ( i=1 m 1 β i (1 + m 1 j=1 j=1 i=j+1 τ j B j )Z n+m i β i j τ j Z n+m i i 1 β i j τ j Z n+m i i=2 j=1 i 1 β i j τ j )Z n+m i j=1 i τ j β i j )Z n+m i i=m m 1 ( i=m m 1 β i (1 + τ j B j )Z n+m i j=1 β i Z n+m i i=m β i Z n+m i i=m i 1 (β i + β i j τ j )Z n+m i Z n+m 1 (τ 1 + β 1 ) i=m j=1 τ j β i j )Z n+m i donde τ 0 = β 0 = 1 que es lo mismo que donde m 1 Z n+m = τ(b)a n+m β (m) i = i=1 β (m) i Z n+m i i=m { i τ jβ i j, si 1 i m 1; m 1 τ jβ i j, si i m y como se quiere que los coeficientes de Z n+m 1,..., Z n+1 sean cero, i τ j β i j = 0 para i = 1,..., m 1 β (m) i Z n+m i (4.3.4) Es decir, se eligen τ 1,..., τ m 1 del operador τ(b) = 1 + τ 1 B τ m 1 B m 1 tal que resuelvan τ 1 β 1 β τ 2 β 2 β 2 β τ 3 = β β m 2 β m 3 β m Entonces, (4.3.4) se reduce a m 1 Z n+m = A n+m + τ j A n+m j j=1 y como E[A s /Z t : t n] = 0 si s > n entonces y tiene ECM de predicción: Ẑ m = E[Z n+m /Z t : t n] = τ m 1 i=m i=m β m 1 β (m) i Z n+m i (4.3.5) β (m) i Z n+m i (4.3.6) ECM(Ẑm) = E[(Z n+m Ẑm) 2 ] = (1 + τ τ 2 m 1)σ 2 A (4.3.7) 57

64 4.4. Ejercicios del Capítulo IV Ejercicio Sea {X t } un ARMA(p,q) estacionario (causal) de ecuación φ(b)x t = θ(b)a t, donde {A t } es un proceso de ruido blanco con varianza σ 2 A y sea X t = α(b)a t la expresión de este proceso = α ib i con α 0 = 1 y α2 i <. Considere el como un MA( ), es decir α(b) = θ(b) φ(b) predictor lineal óptimo X n (m) de X n+m basado en X t : < t n dado por a) Demuestre que X n (m) = { α m+ia n i, si m > 0; X n+m, si (n 1) < m 0 X n (m) φ 1 Xn (m 1)... φ p Xn (m p) = { q m θ m+ia n i, si q m; 0, si q < m (use la expresión válida para k N, φ(b)α k = θ k donde se supone que α j = 0 si j < 0 y θ k = 0 si k > q). b) En la expresión obtenida en la parte (a), reemplace A n i por la innovación X n i X n i 1 (1) y compruebe que la fórmula resultante es la misma que se obtiene de la ecuación φ(b)x n+m = θ(b)a n+m reemplazando X n+k por X n (k) si k > 0, A n k por 0 si k > 0 y A n+k por la innovación X n+k X n+k 1 (1) si k > 0. c) Use la fórmula obtenida en la parte (a) para hallar la expresión X n (k) para m = 1 y m = 2, en el caso en que {X t } es un AR(p) estacionario (causal) de ecuación φ(b)x t = A t siendo X 1,..., X n las observaciones con n > p. Solución. a) Sea m > p, b) Como X n (m) φ 1 Xn (m 1)... φ p Xn (m p) = α k p φ i α k i = i=1 (α m+i { 0, si k q + 1 θ k, si 0 k q entonces la primera ecuación queda { q m θ m+ia n i, si q m 0, si q < m p φ j α m+i j )A n i j=1 que es igual a como se quería. φ(b)x n+m = X n (m) φ 1 Xn (m 1)... φ p Xn (m p) q = θ(b)a n+m = A n+m + θ j A n+m j = q m j= m θ m+j A n j { q m θ m+i(x n i X n i 1 (1)), si q m 0, si q < m 58

65 c) En un AR(p), Xn (m) φ 1 Xn (m 1)... φ p Xn (m p) = 0 Si m = 1, Xn (1) = φ 1 Xn (0) φ p Xn (1 p) = φ 1 X n φ p X n p+1 Si m = 2, X n (2) = φ 1 Xn (1) φ p Xn (2 p) = φ 1 Xn (1) φ p X n p+2 = φ 1 (φ 1 X n φ p X n p+1 ) φ p X n p+2 = (φ φ 2 )X n + (φ 1 φ 2 + φ 3 )X n (φ 1 φ p + φ p 1 )X n p+1 + φ p X n p+2 Ejercicio Sea {X t } un proceso de promedios móviles de orden q que satisface la ecuación X t = θ(b)a t, donde {A t } es un proceso de ruido blanco con varianza σ 2 A y donde θ(b) = 1+θ 1B +...+θ q B q con θ q 0. a) Demostrar que X n (m) = { q m θ m+ia n i, si m q 0, si m > q b) Mostrar que si q m, X n (m) = q m θ m+i (X n i X n i 1 (1)), lo que constituye un procedimiento iterativo que permite calcular el mejor predictor lineal Xn (m) de X n+m a partir de X t : t n. Solución. a) Este es un caso particular (p = 0) de lo que se vio para un proceso ARMA donde el estimador óptimo resulta ser X n (m) = α m+ia n i con α j = θ j si 0 j q y α j = 0 si j > q. Entonces, si m + i q con i = 0,..., q m, o sea m q queda X n (m) = q m α m+i A n i = q m ; y si m + i > q con i = 0,..., q m, es decir q < m resulta que como se quería. X n (m) = 0 b) Como X n (1) = q 1 θ 1+iA n i y X t = q θ ia t i entonces X n i = q θ j A n i j = A n i + = A n i + X n i 1 (1) A n i = X n i X n i 1 (1) α m+i A n i q θ j A n i j j=1 Por lo tanto, Xn (m) = q m θ m+i(x n i X n i 1 (1)). 59

66 Ejercicio Sea {X t } un proceso autorregresivo de orden p estacionario (causal) de ecuación Φ(B)X t = A t, (4.4.1) donde {A t } es un proceso de ruido blanco con varianza σ 2 A y donde Φ(B) = 1 + φ 1B φ p B p con φ p 0. a) Halle la expresión de los coeficientes α i : i N que corresponden a la representación de este proceso como un MA( ), es decir a la representación donde α(b) = 1 Φ(B) = α ib i con α 0 = 1 y α2 i <. X t = α(b)a t (4.4.2) b) Suponga que por un error de especificación se ha considerado que el proceso {X t } admite la representación θ(b)x t = E t, (4.4.3) donde θ(b) = 1 θ 1 B... θ q B q con θ q 0 y q p. En consecuencia, {E t } no es un proceso de ruido blanco, pero X t admite aún la representación X t = δ(b)e t, (4.4.4) donde δ(b) = 1 θ(b) = δ ib i con δ 0 = 1 y δ2 i <. Mostrar que en este caso {E t } es en realidad un proceso ARMA(p,q); para ello halle la expresión E t en función de θ(b), Φ(B) y {A t }. c) Suponga que en el modelo equivocado (4.4.3) se calcula el mejor predictor lineal de X n+m. Si designamos a este predictor con la notación X n(m) muestre que se verifica que X n(m) = θ 1 X n(m 1) θ q X n(m q). (4.4.5) d) Use (4.4.3) y (4.4.5) para mostrar que el error de predicción Y n (m) = X n+m X n(m) satisface la ecuación en diferencias e) Compruebe que Y n (m) θ 1 Y n (m 1)... θ q Y n (m q) = E n+m. (4.4.6) Y n (m) = E n+m + δ 1 E n+m δ m 1 E n+1 (4.4.7) es solución de la ecuación en diferencias (4.4.6) hallada en la parte (d). f) Use (4.4.4) y (4.4.7) para mostrar que el predictor lineal X n(m) está dado por X n(m) = δ m+i E n i, y en consecuencia se verifica que Y n (m) = Y n 1(m + 1) δ m E n (recordar que E n se puede expresar como E n = X n Y n 1 (1)). 60

67 g) Sea ahora X n (m) el mejor predictor lineal de X n+m usando el modelo correcto (4.4.1) y sea Y n (m) = X n+m X n (m) el error de predicción usando este modelo. Compruebe que el error de predicción cometido usando el modelo equivocado (4.4.3) se puede expresar como Y n (m) = (X n+m X n (m)) + ( X n (m) X n(m)), siendo los dos sumandos entre paréntesis no correlacionados entre sí y, en consecuencia, var(y n (m)) = var(y n (m)) + var( X n (m) X n(m)). Solución. a) Se buscan los α i tal que α(b)φ(b) = (1 + α 1 B + α 2 B 2 + α 3 B )(1 φ 1 B... φ p B p ) = 1. Distribuyendo e igualando potencias se tiene: α 0 φ 0 = 1 1 = 1 α 1 φ 0 α 0 φ 1 = 0 entonces α 1 = φ 1 α 0 φ 2 α 0 φ 1 α 1 + α 2 φ 0 = 0 entonces α 2 = α 0 φ 2 + α 1 φ 1 φ 3 α 0 φ 2 α 1 φ 1 α 2 + α 3 φ 0 = 0 entonces α 3 = α 0 φ 3 + α 1 φ 2 + α 2 φ 1... siguiendo así se llega a que si 1 k p, α k α k = p j=1 φ jα k j. = k 1 α iφ k i = k j=1 φ jα k j y si k > p, b) E t = θ(b)x t = θ(b) 1 φ(b) A t por lo tanto {E t } satisface la ecuación φ(b)e t = θ(b)a t por lo que es un proceso ARMA(p,q). c) Con el modelo equivocado Xn(s) = δ s+je n j s N donde los δ i resultan de resolver la ecuación δ(b)θ(b) = 1 o sea δ k = q j=1 θ jδ k j si k > q. Luego, X n(m) q θ i Xn(m i) = i=1 = δ m+j E n j (δ m+j pues m + j m > q y entonces δ m+j = q i=1 θ iδ m i+j. q θ i δ m+j i E n j i=1 q θ i δ m i+j )E n j = 0 i=1 d) Y n (m) = X n+m X n(m) entonces e) Y n (m) Y n (m) q i=1 q θ i Yn (m i) = X n+m Xn(m) i=1 = X n+m q θ i (X n+m i Xn(m i)) i=1 q θ i X n+m i Xn(m) + i=1 = (1 θ 1 B... θ q B q )X n+m = E n+m m 1 θ i Yn (m i) = E n+m + δ j E n+m j j=1 61 q j=1 q θ i Xn(m i) i=1 m i 1 θ i (E n+m i + δ j E n+m i j ) j=1

68 q q = θ(b)e n+m + δ j E n+m j Xn(m) θ i δ j E n+m j i + θ i Xn(m i) j=1 = θ(b)e n+m + δ j (E n+m j j=1 i=1 j=1 i=1 q θ i B i E n+m j ) i=1 = θ(b)e n+m + θ(b)( δ j E n+m j E n+m ) = θ(b)δ(b)e n+m = E n+m f) Xn(m) = X n+m Yn (m) m 1 = δ j E n+m j δ j E n+m j = δ j E n+m j = j=m δ i+m E n i Por lo tanto, Yn (m) Yn 1(m + 1) = X n+m δ i+m E n i (X n+m δ i+m+1 E n i 1 ) j=1 = δ i+m E n i + δ j+m E n j = δ m E n g) Por un lado, Y n (m) = X n+m X n(m) = (X n+m X n (m)) + ( X n (m) X n(m)) X n+m X n (m) = = α j A n+m j α m+j A n i i= m α i+m A n i α m+j A n i = 1 i= m = α 0 A n+m + α 1 A n+m α m 1 A n+1 α i+m A n i 62

69 por otro lado, X n (m) Xn(m) = = = α m+j A n j δ i+m E n i α m+j A n j δ i+m β j A n i j α m+j A n j δ i+m β k i A n k k=i que involucra a los A t : t n y como X n+m X n (m) involucra a A n+1,..., A n+m 1, A n+m resulta que los dos términos que están entre paréntesis no estan correlacionados. Por lo tanto, var(y n (m)) = var(x n+m X n (m))+var( X n (m) X n(m)) = var(y n (m))+var( X n (m) X n(m)). Ejercicio Sea {Z t } un proceso autorregresivo integrado de promedios móviles de órdenes (p,k,q) invertible de ecuación Φ(B)(1 B) k Z t = θ(b)a t, donde {A t } es un proceso de ruido blanco con varianza σ 2 A y sea β(b)z t = A t la expresión de este proceso como un AR( ), es decir que β(b) = Φ(B)(1 B)k θ(b) = β i B i, con β 0 = 1 y β i <. Considere el predictor óptimo Ẑn(m) de Z n+m basado en los datos Z t : t n dado por donde X n (m) = j=m β (m) j Z n+m j si m > 0, β (m) m 1 j = τ i β j i para j m, donde τ 0 = 1 y donde τ 1,..., τ m 1 se obtienen del sistema β β 2 β β m 2 β m 3 β m τ 1 τ 2 τ 3. τ m 1 = β 1 β 2 β 3. β m 1 a) Muestre que la variable Y n (m) = Z n+m Ẑn(m), que mide el error de predicción, está dado por Y n (m) = b) Calcule la varianza de la variable Y n (m). m 1 τ i A n+m i si m > 0. 63

70 c) Compruebe que para m fijo mayor que 1 se verifica que {Y n (m) : n N} es un proceso de promedios móviles de orden m 1 y que cuando m = 1 resulta ser un proceso de ruido blanco. d) Demuestre que para m 1 se verifica que { 0, si m k h cov(y k (m), Y h (m)) = σa 2 m 1 k h τ j τ j+ k h, si m > k h e) Demuestre que para m, s 1 se verifica que f) Compruebe que se verifica que cov(y n (m), Y n (s)) = σ 2 A min{m,s} 1 var(y n (m + k)) = var(y n (m)) + σ 2 A τ j τ j+ m s. k 1 τn+i. 2 g) Deduzca del resultado de la parte (f) que var(y n (m)) como función de m es monótona creciente y que, en consecuencia, la longitud L(m) del intervalo de predicción del (1 α) 100 % de confianza para Z n+m es también una función monótona creciente de m. h) Compruebe que cov(ẑn(m), Y n (m)) = 0 y que por lo tanto se verifica que var(z n+m ) = var(y n (m))+ var(ẑn(m)). i) Compruebe que Y n 1 (m + 1) = Y n (m) + τ m A n y deduzca de esto que Ẑ n (m) = Ẑn 1(m + 1) + τ m (Z n Ẑn 1(1)). (4.4.8) j) Notar que el resultado (4.4.8) obtenido en la parte (i) anterior, constituye un procedimiento que sirve para actualizar predictores, ya que Ẑn 1(m + 1) es el predictor de X n+m a partir de los datos hasta el tiempo n 1 y Ẑn(m) es el predictor de Z n+m cuando se cuenta con el dato adicional Z n. Analice como actúa este procedimiento cuando el nuevo valor observado Z n es menor (mayor) que lo que Ẑn 1(1) predijo. Solución. a) Y n (m) = Z n+m X n (m) = Z n+m + vio en las páginas 49 y 50. b) j=m β(m) j m 1 var(y n (m)) = E[Y n (m) 2 ] = E[( τ i A n+m i ) 2 ] Z n+m j = m 1 τ ia n+m i como se m 1 = E[ τi 2 A 2 n+m i + i jτ i τ j A n+m i A n+m j ] m 1 = τi 2 E[A 2 n+m i] = c) Si m > 1, por la parte (a), Y n (m) = m 1 τ ia n+m i que claramente es un proceso MA(m 1). Si m = 1, Y n (1) = A n+1 o sea es un proceso de ruido blanco. 64 m 1 τ 2 i σ 2 A

71 d) Se sabe que cov(y k (m), Y h (m)) = E[Y k (m)y h (m)] = m 1 m 1 τ iτ j E[A k+m i A h+m j ] Si m k h, k + m i h m + j = (k h) + (j i) k h j i > m + (1 m) = 1 entonces E[A k+m i A h+m j ] = 0. Por otra parte, supongamos sin pérdida de generalidad que k < h. Si k + m i h m + j = (k h) + (j i) = 0 entonces 0 i = j + k h m 1, es decir 0 i m 1 (h k) y 0 m 1 (h k) m 1 (o sea k h < m). Por lo tanto, E[A k+m i A h+m j ] = σa 2 como se quería. e) Como se sabe cov(y n (m), Y n (s)) = m 1 m 1 τ iτ j E[A n+m i A n+s j ]. Supongamos primero que m > s entonces n + m i (n + s j) = m s + j i = 0 y luego 0 i = j + m s m 1 por lo que 0 j s 1 y se tiene cov(y n (m), Y n (s)) = s 1 τ jτ j+(m s) σa 2. Supongamos ahora que s m entonces n + m i (n + s j) = m s + j i = 0 y luego 0 j = i m + s m 1 por lo que m s 0 j m 1 + m s m 1 y se tiene cov(y n (m), Y n (s)) = m 1 τ iτ i (m s) σa 2. f) var(y n (m + k)) = cov(y n (m + k), Y n (m + k)) = = m 1 m+k 1 τj 2 σa 2 + j=m = var(y n (m)) + σ 2 A g) Si m < l, existe un k N tal que l = m + k. Entonces, τ 2 j σ 2 A k 1 τi+m 2 m+k 1 τ 2 j σ 2 A k 1 var(y n (l)) = var(y n (m + k)) = var(y n (m)) + σa 2 τi+m 2 var(y n (m)). Por lo tanto, es monótona creciente. La parte de este ítem que corresponde a longitud del intervalo de predicción no se desarrollará ya que es necesario conocer sobre ruido blanco gaussiano que no se desarrollo en este trabajo. h) Por (a), Y n (m) = m 1 τ ia n+m i, o sea están involucrados A n+1,..., A n+m. Mientras que Ẑ n (m) = j=m β(m) j Z n+m j = m 1 j=m τ iβ j i Z n+m j que involucra a los A t : t n pues β(b)z t = A t por lo que Y n (m) y Ẑn(m) no están correlacionados y cov(ẑn(m), Y n (m)) = 0. Además, var(z n+m ) = var((z n+m Ẑn(m)) + Ẑn(m)) = var(y n (m) + Ẑn(m)) = var(y n (m)) + var(ẑn(m)). i) Y n (m) Y n 1 (m + 1) = m 1 τ i A n+m i m τ i A n+m i = τ m A n. 65

72 Además, como Y n (m) = Z n+m Ẑn(m), Y n 1 (m + 1) = Z n+m Ẑn 1(m + 1) y por el resultado anterior resulta que Ẑ n (m) = Ẑn 1(m + 1) + τ m A n que debido a que Ẑ n 1 (1) = = j=1 β (1) j Z n j β j Z n j = ( β j Z n j β 0 Z n ) j=1 = (A n Z n ) = Z n A n la fórmula queda Ẑ n (m) = Ẑn 1(m + 1) + τ m (Z n Ẑn 1(1)) j) La relación Ẑn(m) = Ẑn 1(m + 1) + τ m (Z n Ẑn 1(1)) nos dice que el predictor Ẑn 1(m + 1) de Z n+m se modifica al agregar el conocimiento del dato X n y esta modificación dependerá de τ m y del error al predecir Z n pero no se puede analizar el cambio de acuerdo a si Z n es mayor (o menor) que Ẑn 1(1) pues este también dependerá de como sea τ m. 66

73 Capítulo 5 Estimación e identificación de los modelos de series de tiempos 5.1. Identificación de procesos. Determinación del orden y verificación de diagnóstico Las técnicas de identificación permiten decidir cual es el proceso que mejor se ajusta a los datos observados. Entre estas técnicas está el estudio del comportamiento de las funciones de autocorrelación muestral y autocorrelación parcial muestral. Una manera de verificar que el modelo diagnosticado es el correcto es analizando el residuo  t = X t X t donde X t es la estimación hecha con el modelo elegido. Si  t se comporta como un proceso de ruido blanco es porque el modelo elegido es el adecuado. Por otro lado, si con los datos X 1,..., X n se ha estimado un proceso ARMA(p,q) de ecuación Φ p (B)X t = θ q (B)E t y los residuos Êt = X t X t son tales que se comportan como un proceso ARMA(r,s), entonces el modelo adecuado para los datos originales es un ARMA(p+r,q+s). Un test basado en la función de autocorrelación muestral ρâ(k) de los residuos que sirven para verificar la hipótesis nula H 0 : ρ A (1) = ρ A (2) =... = ρ A (m) = 0 es el llamado Test de Portmanteau de falta de ajuste, que usa la estadística P = n(n + 2) m k=1 1 n k ρ2  (k) que tiene una distribución aproximadamente Chi-cuadrado con m e grados de libertad, donde e es el número de parámetros estimados en el modelo Criterios de Akaike: FPE, AIC, BIC Akaike propuso en 1969 el método del Error de Predicción Final (FPE) que sirve para determinar el orden del modelo AR que mejor ajusta a los datos. Consiste en calcular: F P E(k) = n + k n k σ2 A (5.1.1) donde n es el número de observaciones y σ A 2 es la estimación máxima verosímil de la varianza residual que está dada por σ A 2 = γ 0 φ 1 γ 1... φ p γ p y se elige el orden p como aquel valor de k que minimiza F P E(k). Otro método propuesto por Akaike en 1971 y 1974, es el Criterio de Información de Akaike y se 67

74 lo indica por AIC. Si el número de parámetros estimados independientemente es e entonces el AIC correspondiente está definido por AIC(e) = 2log(verosimilitud maximada) + 2e = 2 L + 2e (5.1.2) En particular, para modelos ARMA con ruido blanco gaussiano, L = m 2 log( σ2 A) m 2 (5.1.3) para m suficientemente grande, donde m es el número efectivo de datos considerados. En 1976, Shibata demostró que el AIC tiende a sobreestimar el orden de la parte autorregresiva y en 1978 y 1979, Akaike desarrolló una extensón bayesiana del AIC a la que denominó Criterio de Información Bayesiana (que se indica BIC) y demostró mediante simulación que este método es menos proclive a sobreestimar el valor de p. Este está definido por BIC(e) = nlog( σ 2 A) (n e)log( n e n ) + elog(n) + elog( σ2 X σ2 A e σ A 2 ) (5.1.4) donde e es el número de parámetros estimados, n el número total de variables observadas, σ X 2 es la varianza muestral de la serie y σ A 2 es la estimación máximo verosímil de la varianza residual. El método consiste en elegir el modelo que minimiza BIC(e). Hurvich y Tsai propusieron en 1989 una versión corregida del criterio de Akaike original (se lo denominó AICC) que toma el sumando 2e de AIC y lo reemplaza por 2e.n n e 1 que penaliza aún más la incorporación de nuevos parámetros al modelo, eliminando de esa forma la sobreestimación del criterio de Akaike Reglas prácticas para la identificación de procesos En la práctica, los métodos de identificación y estimación propuestos en la sección anterior puede convertirse en una tarea larga y complicada. A continuación se esbozarán los pasos a seguir para simplificar la búsqueda: 1. Es importante entender que es lo miden los datos, cual es el significado dentro de la disciplina en la que se encuadran y conocer dentro de lo posible los métodos con que ellos se obtuvieron. Esto sirve para conocer ciertos aspectos sobre el comportamiento de los datos y también es útil como elemento de juicio entre modelos diferentes igualmente aceptables según los criterios de identificación. 2. El análisis de la representación gráfica de los datos nos permitirá observar si se satisfacen las condiciones básicas de estacionariedad: media y varianza constantes en el tiempo. También se puede descubrir la presencia de periodicidades propias de las componentes estacionales. Si existe una tendencia debe observarse si la dispersión en los datos varía con la tendencia. En ese caso, deben transformarse los datos para estabilizar la varianza. 3. Una vez estabilizada la varianza se debe observar si hay tendencia y/o estacionalidad, en cuyo caso se aplicará algunos de los métodos discutidos en la sección 3: método clásico o método de la diferenciación. En este último caso se aplicará el operador diferencia de tamaño d hasta que se elimine la estacionalidad y luego se usará el operador diferencia tantas veces como sea necesario para deshacerse de la tendencia. 68

75 4. Cuando los datos no presenten desviaciones evidentes de estacionariedad, se intentará ajustar por un modelo ARMA. Las funciones de autocorrelación muestral y autocorrelación parcial muestral permitirán seleccionar de forma descriptiva los posibles modelos que ajustan observando los coeficientes de correlación que son significativamente distintos de cero. Por lo general se considera 2 que un valor es significativo si en módulo supera el valor n. Esto proviene de suponer que si las variables e t no estuvieran correlacionadas entre sí entonces los coeficientes de correlación tendrían una distribución muestral normal con media cero y una cierta desviación estándar, esto es, que en el 95 % de los casos los coeficientes caerán entre la media (= 0) más menos 1.96 de desviación estándar (que se suele redondear a 2), y solamente el 5 % de los coeficientes de correlación se apartarán de una media cero en ±1,96 de desviación estándar. Es decir, el coeficiente de correlación es estadísticamente significativo si con un 95 % de confianza la media de las correlaciones es cero. Una vez elegidos, se estiman los parámetros de cada uno de ellos. Es conveniente establecer intervalos de confianza para los coeficientes, pues cuando el intervalo de algún coeficiente incluye el cero se puede considerar como modelo alternativo el que corresponde a forzar en el modelo original que dicho coeficiente sea cero. 5. La decisión sobre el modelo que mejor ajusta a los datos se realiza usando los criterios de identificación de procesos vistos en la sección anterior. El criterio corregido de Akaike y el criterio de información bayesiana son los que mejor desempeño tienen. Sin embargo, cuando hay más de un modelo adecuado según estos criterios se recurre a tomar consideraciones como el análisis de los residuos, simplicidad del modelo y facilidad en su interpretación desde el punto de vista de la disciplina en la que se está estudiando la serie de tiempo en consideración. 69

76 Capítulo 6 Aplicación Las imágenes satelitales proporcionan diversas herramientas para discriminar entre masas vegetales en una región fitogeográfica, siendo el índice diferencial normalizado de vegetación, NDVI, una de ellas. De este indicador es posible obtener numerosas variables, tales como contenido de agua en las hojas, productividad neta de la vegetación, contenido de clorofila en la hoja, evapotranspiración potencial, etc. El NDVI varía entre -1 y +1, aunque es frecuente el tratamiento de valores reparametrizados del índice; cuanto más próximo a 1, mayor resulta el vigor vegetal (Chuvieco [6]). Diferentes autores han estudiado series temporales de este índice. Por ejemplo, Barbosa et al [5] emplearon una serie mensual correspondiente a 20 años del NDVI en la región noreste de Brasil para estudiar el comportamiento temporal del índice en la región. En este capítulo nos propusimos encontrar un modelo ARIMA para explicar el comportamiento del NDVI en la selva Misionero-Brasileña. Esta zona corresponde a la región fitogeográfica Paranaense (Cabrera [4]), que comprende la provincia de Misiones y gran parte de la provincia de Corrientes. El estudio se basó en una serie de tiempo mensual de 17 años de NDVI de la zona (período ). Los datos fueron provistos por CONAE (Comisión Nacional de Actividades espaciales) y fueron, producidas por el sensor AVHRR (Advanced Very High Resolution Radiometer) que se encuentra a bordo de satélites meteorológicos de la serie NOAA (National Oceanic and Atmospheric Administration). Este sensor genera imágenes en cinco canales o bandas, cuyas combinaciones posibilitan la determinación de diferentes indicadores de propiedades biofísicas, entre ellos el NDVI que se calcula con datos de los canales 1 y 2 del sensor, según: NDV I = Ch2 Ch1 Ch1 + Ch2 donde Ch1 y Ch2 son los valores provistos por las bandas 1 y 2 del AVHRR, respectivamente. El Gráfico 6.1 muestra los datos de la serie de NDVI objeto de análisis y el 6.2, el gráfico de las funciones de autocorrelación simple y parcial de la serie. 70

77 Gráfico 6.1: Serie de tiempo de NDVI Gráfico 6.2: Función de autocorrelación simple de la serie (izq.). Función de autocorrelación parcial de la serie (der.) De la simple observación de ρ k y π k (Gráfico 6.2) se dificulta la propuesta de un modelo ARIMA que ajuste razonablemente los datos de la serie, ya que ambas funciones muestran correlaciones significativas (fuera de las bandas de confianza) para rezagos altos. Por otro lado, en la Gráfico 6.1 se puede apreciar a partir del dato 115 un aumento en la tendencia que se detiene aproximadamente en el dato correspondiente a k = 150. Ello nos alentó a analizar por separado dos sub-series de la serie original; por un lado los datos entre 1 y 115, y por otro, los datos entre 116 y 228. Denotaremos a estas series como {z1 t } y {z2 t } respectivamente. A continuación presentamos el gráfico de {z1 t }: Gráfico 6.3: Serie de tiempo {z1 t} de NDVI en la región Paranaense. 71

78 Restamos a {z1 t } su media para conseguir una serie de media cero y estabilizamos su varianza aplicando la transformación logaritmo (ver sección 3.3). Resulta entonces que las funciones de autocorrelación simple y parcial muestrales de la serie corregida corresponden a las exhibidas en el Gráfico 6.4. A los efectos de no complicar en exceso la notación, de ahora en más {z1 t } designará la versión corregida de {z1 t }. Gráfico 6.4: Funciones de autocorrelación simple y parcial de {z1 t} A través del criterio de Akaike Corregido (AICC) y usando el método de Yule-Walker, el programa R propuso un modelo AR(1) para la serie. Pero atendiendo a las funciones de autocorrelación se propone finalmente un modelo ARMA(1,1): Z1 t = φz1 t 1 + θa1 t 1 + A1 t donde {A1 t } es un proceso de ruido blanco y φ y θ son parámetros a estimar. Estimamos φ y θ por el método de Mínimos Cuadrados Condicionales: φ = 0, 3206 θ = 0,1198 El gráfico 6.5, muestra el patrón de los residuos estandarizados correspondientes al modelo ajustado a la serie. Gráfico 6.5 Residuos estandarizados para el ARMA(1,1) ajustado a la serie {z1 t}. r Si el modelo fuese adecuado, la serie generada a partir de la diferencia entre la serie observada y la estimada debería comportarse, una vez estandarizada, como un proceso de ruido blanco con media 0 y 72

79 varianza 1. Esta serie recibe el nombre de serie de residuos estandarizados, o simplemente residuos estandarizados. Un análisis descriptivo de los residuos estandarizados se puede apreciar a través de los siguientes gráficos: Gráfico 6.6: Cuantiles de los residuos vs. cuantiles de una normal estándar. Gráfico 6.7: histograma de los residuos estandarizados. Gráfico 6.8: Funciones de autocorrelación simple y parcial muestrales de los residuos estandarizados. Se observa que los residuos estandarizados no están correlacionados, aunque el supuesto de normalidad parece no satisfacerse (es evidente la asimetría en el gráfico 6.7). Teniendo en cuenta que {z1 t } constituye el pasado más remoto de la serie original, concentraremos nuestra atención en el análisis de la serie {z2 t }, la historia más reciente de la serie de NDVI objeto de estudio (valores de la serie 73

80 de t = 116 a t = 228). El siguiente gráfico muestra el perfil de estos datos corregidos (se estabilizó su varianza con la ayuda de la función logaritmo y se restó su media). Igual que procedimos con {z1 t }, de ahora en adelante {z2 t } denotará a la serie {z2 t } estabilizada o corregida: Gráfico 6.8: Serie {z2 t} corregida. Gráfico 6.9: Funciones de autocorrelación simple y parcial de la serie {z2 t} corregida. Analizando descriptivamente las autocorrelaciones, una opción sería quedarnos con un modelo autorregresivo y proponer un modelo AR(15). Cuando le sugerimos a R este modelo, en base al criterio de Akaike Corregido (AICC) y usando el método de Yule-Walker, el programa R propone un modelo AR(2). Sin embargo la función de autocorrelación parcial de la serie no muestra evidencias de que la autocorrelación parcial de orden 2 sea estadísticamente significativa, por lo que no se justificaría incluir un término autorregresivo de orden 2 en el modelo. Se pensó entonces en un modelo ARMA(1,4), atendiendo a las autocorrelaciones simples y parciales más notables fuera de las bandas en el gráfico 6.9: Z2 t = φz2 t 1 + θ 1 A2 t 1 + θ 2 A2 t 2 + θ 3 A2 t 3 + θ 4 A2 t 4 + A2 t donde {A2 t } es un proceso de ruido blanco y φ y θ 1, θ 2, θ 3, θ 4 son parámetros a estimar. Cabe mencionar en este punto que un modelo constituye una representación de la realidad. Pueden formularse diferentes modelos y el hecho de quedarnos con uno, no implica que no exista otro que pueda superarlo sobre la base de ciertos criterios o requisitos que se desee satisfacer, como por ejemplo la parsimonia. 74

81 Las estimaciones de los parámetros involucrados en el modelo ARMA(1,4) propuesto se muestran a continuación: φ = 0,6715, θ1 = 0,2416, θ2 = 0,0413, θ3 = 0,0649, θ4 = 0,0495 El gráfico 6.10 muestra los residuos estandarizados una vez que se ajustó a la serie z2 t un modelo ARMA(1,4). Gráfico 6.10: Residuos estandarizados para el ARMA(1,4) ajustado a la serie {z2 t}. El análisis descriptivo de los residuos muestra que el modelo es aceptable. Este estudio puede apreciarse a través de los gráficos 6.11, 6.12 y Gráfico 6.11: Cuantiles de los residuos vs. cuantiles de una normal estándar. 75

82 Gráfico 6.12: histograma de los residuos estandarizados. Gráfico 6.13: Funciones de autocorrelación simple y parcial muestrales de los residuos estandarizados. Debido a que la serie original de NDVI (Gráfico 6.1) presenta un cambio en la tendencia entre t = 115 y t = 150 aproximadamente, y teniendo presente que lo importante será poder predecir valores futuros de la serie a partir de su pasado más reciente, consideramos sólo los últimos 7 años de la serie. A esta nueva serie la llamamos {z t } y sus valores corregidos y funciones de autocorrelación simple y parcial se muestran en los siguientes gráficos: Gráfico 6.14: Datos correspondientes a la serie {z t}. Gráfico 6.15: Funciones de autocorrelación simple y parcial de la serie {z t} corregida. 76

83 A partir de las correlaciones proponemos un modelo AR(15) que comparando a través del criterio AICC y el método de Yule-Walker con modelos autorregresivos de menor orden, es desplazado por un modelo AR(1): Z t = φz t 1 + A t donde {A t } es un proceso de ruido blanco y φ un parámetro a estimar. Se estimó el valor de φ por el método de Yule-Walker, obteniéndose φ = 0,4243 Los gráficos 6.16 a 6.19, muestran los residuos estandarizados una vez que se ajustó la serie {z t } un modelo AR(1) y un análisis descriptivo de los mismos. Gráfico 6.16: Residuos estandarizados para el modelo AR(1) ajustado a la serie {z t}. Gráfico 6.17: Cuantiles de los residuos vs. cuantiles de una normal estándar. 77

84 Gráfico 6.18: histograma de los residuos estandarizados. Gráfico 6.19: Funciones de autocorrelación simple y parcial de los residuos para el ajuste AR(1) obtenido para la serie {z t} corregida. El análisis previo evidencia que el modelo propuesto es adecuado ya que se cumplen sobre los residuos los supuestos asumidos, con lo cual sería factible su utilización para realizar predicciones a corto y mediano plazo del NDVI de la región Paranaense. 78

85 Bibliografía [1] Leiva, R Introducción al Análisis de las series de tiempo. Facultad de Ciencias Económicas de la Universidad Nacional de Cuyo. ISBN e-isbn [2] Brockwell, P., Davis, R Introduction to Time Series and Forecasting. Springer Texts in Statistics. ISBN Springer New York Dordrecht Heidelberg London. [3] Peña Sánchez de Rivera D Estadística, modelos y métodos: Fundamentos 2. Modelos lineales y series temporales. Alianza Universal Textos. ISBN e-isbn Alianza Editorial. [4] Cabrera, ÁL (1976) Regiones fitogeográficas argentinas. En Kugler WF (Ed.) Enciclopedia argentina de agricultura y jardinería. Tomo 2. 2a edición. Acme. Buenos Aires. Argentina. Fascículo 1. pp [5] Barbosa, HA, Huetea, AR, Baethgenb, WE (2006) A 20-year study of NDVI variability over the Northeast Region of Brazil. Journal of Arid Environments [6] Chuvieco Salinero E (1996) Teledetección Ambiental Capitulo 2, Editorial Ariel SA. 79

Procesos autorregresivos

Procesos autorregresivos Capítulo 3 Procesos autorregresivos Los procesos autorregresivos deben su nombre a la regresión y son los primeros procesos estacionarios que se estudiaron. Proceso autorregresivo: Un proceso autorregresivo

Más detalles

Tema 2: Modelos probabilísticos de series

Tema 2: Modelos probabilísticos de series Tema 2: Modelos probabilísticos de Tema 2: Modelos probabilísticos de 1 2 3 4 5 6 Definición Un proceso estocástico con conjunto de índices T es una colección de variables aleatorias {X t } t T sobre (Ω,

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Series de tiempo Introducción Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Una característica intrínseca muy importante de las series de tiempo,

Más detalles

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1, Capítulo 5 Procesos Integrados Un proceso no estacionario puede no ser estable en la media, en la varianza o en las autocorrelaciones. Por ejemplo, las series 3, 5-13, 19, 29-31, 35-37, y 39 del Capítulo

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos ARMA Definición: Ruido blanco. Se dice que el proceso {ɛ t } es ruido blanco ( white noise ) si: E(ɛ t ) = 0 Var(ɛ t ) = E(ɛ 2 t ) = σ 2 Para todo

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Enero 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe que los

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe

Más detalles

Análisis de series temporales

Análisis de series temporales CAPíTULO 8 Análisis de series temporales Los datos estadísticos y, en particular, los datos económicos se recopilan a menudo en forma de series temporales. Una serie temporal es un conjunto ordenado de

Más detalles

Econometria con Series Temporales

Econometria con Series Temporales May 24, 2009 Porque series temporales? Inhabilidad de la economia de producir experimentos controlados para estudiar relaciones causales entre variables. Una alternativa consiste en estudiar estas relaciones

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Procesos autorregresivos Profesora: Dolores García Martos E-mail:[email protected] Este documento es un resumen/modificación de la documentación

Más detalles

ANÁLISIS EN EL DOMINIO DEL TIEMPO

ANÁLISIS EN EL DOMINIO DEL TIEMPO Matemáticas y Estadística aplicada POLITÉCNICA ANÁLISIS EN EL DOMINIO DEL TIEMPO Indice de contenidos: INTRODUCCIÓN MODELOS DE SERIES TEMPORALES (Box-Jenkins, 1973): De Procesos estacionarios De Procesos

Más detalles

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 2015 Contenido Procesos estacionarios y débilmente estacionarios Algunos procesos estocásticos útiles: Procesos puramente aleatorios (ruido

Más detalles

Procesos Estocásticos Estacionarios

Procesos Estocásticos Estacionarios Capítulo 2 Procesos Estocásticos Estacionarios Las series temporales se pueden clasificar en dos tipos: Series con valores estables alrededor de un nivel constante (capítulos 2-4). Series con tendencias,

Más detalles

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA Modelización Económica II Referencias: Mills y Markellos (2008) "The Econometric Modelling of Financial Time Series", Cambridge University Press.

Más detalles

Tema1. Modelo Lineal General.

Tema1. Modelo Lineal General. Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La

Más detalles

Tema 10: Introducción a los problemas de Asociación y Correlación

Tema 10: Introducción a los problemas de Asociación y Correlación Tema 10: Introducción a los problemas de Asociación y Correlación Estadística 4 o Curso Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 10: Asociación y Correlación

Más detalles

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013 Estadística Miguel Ángel Chong R miguel@sigmaiimasunammx de abril del 03 Autorregresivos Diremos que un proceso {X t } tt es un autorregresivo de orden p, y lo denotaremos como AR(p), si para p unenteroy,,

Más detalles

Procesos de media móvil y ARMA

Procesos de media móvil y ARMA Capítulo 5 Procesos de media móvil y ARMA Herman Wold (1908-1992) Estadístico y económetra sueco. Desarrolló la representacion general de procesos estacionarios y la metodología econométrica estudiando

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:[email protected] Este documento es

Más detalles

INTRODUCCIÓN. FUNCIONES. LÍMITES.

INTRODUCCIÓN. FUNCIONES. LÍMITES. INTRODUCCIÓN. FUNCIONES. LÍMITES. Este capítulo puede considerarse como una prolongación y extensión del anterior, límite de sucesiones, al campo de las funciones. Se inicia recordando el concepto de función

Más detalles

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros. MODELOS DE SERIES DE TIEMPO 1 Introducción Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros. Originalmente tuvieron como objetivo hacer predicciones. Descomposición

Más detalles

Modelos Arma y método Box & Jenkins

Modelos Arma y método Box & Jenkins Modelos Arma y método Box & Jenkins Alumno: Aldo Fournies Pallavicini. Profesor: Humberto Villalobos. 17/07/2013 Índice. Introducción... 3 Conceptos Básicos... 4 Modelos de autoregresión.... 5 Modelo AR(p)...

Más detalles

Curso de nivelación Estadística y Matemática

Curso de nivelación Estadística y Matemática Modelo de Curso de nivelación Estadística y Matemática Pruebas de hipótesis, y Modelos ARIMA Programa Técnico en Riesgo, 2017 Agenda Modelo de 1 2 Asociación Medidas de asociación para variables intervalo

Más detalles

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1 Series temporales 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1 Introducción Introducción Serie temporal: Conjunto de observaciones z t, cada

Más detalles

Tema 8: Regresión y Correlación

Tema 8: Regresión y Correlación Tema 8: Regresión y Correlación Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 8: Regresión y Correlación Curso 2008-2009 1 / 12 Índice

Más detalles

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES Departamento de Matemática Aplicada a las T.I.C. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EAMEN FINAL Otoño 25-6 FECHA: 5 de Enero de 26 Fecha publicación notas: 22 de Enero de 26 Fecha revisión

Más detalles

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos

Más detalles

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Técnicas en Predicción Administración y Dirección de Empresas Departamento de Estadísitica

Más detalles

De los tres conceptos que se estudian es este tema, funciones, límites y continuidad, el primero y el último son muy sencillos de comprender.

De los tres conceptos que se estudian es este tema, funciones, límites y continuidad, el primero y el último son muy sencillos de comprender. INTRODUCCIÓN. FUNCIONES. LÍMITES. Este tema lo iniciamos recordando el concepto de función y dando algunas nociones básicas sobre funciones, para dar paso al estudio del límite de una función, cálculo

Más detalles

ANÁLISIS DE REGRESIÓN

ANÁLISIS DE REGRESIÓN ANÁLISIS DE REGRESIÓN INTRODUCCIÓN Francis Galtón DEFINICIÓN Análisis de Regresión Es una técnica estadística que se usa para investigar y modelar la relación entre variables. Respuesta Independiente Y

Más detalles

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58 Repaso de álgebra de matrices y probabilidad Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 58 Preliminares Definición (matriz) Una matriz de dimensión m n es un arreglo rectangular de números

Más detalles

Tema 2: Análisis de datos bivariantes

Tema 2: Análisis de datos bivariantes Tema 2: Análisis de datos bivariantes Los contenidos a desarrollar en este tema son los siguientes: 1. Tablas de doble entrada. 2. Diagramas de dispersión. 3. Covarianza y Correlación. 4. Regresión lineal.

Más detalles

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo.

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo. SERIES DE TIEMPO 1 Serie de Tiempo En los capítulos anteriores mostramos que el análisis de regresión con datos de series de tiempo viola el supuestos de exogeneidad estricta. En este capítulo pretendemos

Más detalles

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el

Más detalles

Tema 3 Normalidad multivariante

Tema 3 Normalidad multivariante Aurea Grané Máster en Estadística Universidade Pedagógica Aurea Grané Máster en Estadística Universidade Pedagógica Tema 3 Normalidad multivariante 3 Normalidad multivariante Distribuciones de probabilidad

Más detalles

REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE

REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE UNIDAD 3 REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE Relación entre variables de interés 1 Relación entre variables de interés Muchas decisiones gerenciales se basan en la relación entre 2 o

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Metodología Box-Jenkins Profesora: Dolores García Martos E-mail:[email protected] Este documento es un resumen/modificación de la documentación elaborada

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Econometría de series de tiempo aplicada a macroeconomía y finanzas Econometría de series de tiempo aplicada a macroeconomía y finanzas Series de Tiempo no Estacionarias Carlos Capistrán Carmona ITAM Tendencias Una tendencia es un movimiento persistente de largo plazo

Más detalles

EJC 22: METODOLOGÍA BOX JENKINS

EJC 22: METODOLOGÍA BOX JENKINS EJC 22: METODOLOGÍA BOX JENKINS La publicación de G.P.E Box y G.M Jenkins Times Series Análisis: Forecasting and Control en la década de los 70 s generó un nuevo conjunto de herramientas de predicción,

Más detalles

Breve Introducción a las Series Temporales

Breve Introducción a las Series Temporales Breve Introducción a las Series Temporales 1 Series Temporales Colección de observaciones tomadas de forma secuencial en el tiempo {X t } t T. La hipótesis de independencia entre las observaciones puede

Más detalles

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos TEMA 10 (curso anterior): REGRESIÓN Y CORRELACIÓN 1 Conceptos de Regresión y Correlación 2 Variables aleatorias bidimensionales 3 Ajuste de una recta a una nube de puntos 4 El modelo de la correlación

Más detalles

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones: FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,

Más detalles

Extremos de funciones de varias variables

Extremos de funciones de varias variables Capítulo 6 Extremos de funciones de varias variables En este capítulo vamos a considerar la teoría clásica de extremos para funciones diferenciables de varias variables, cuyos dos tópicos habituales son

Más detalles

Análisis de Series de Tiempo

Análisis de Series de Tiempo CURSO REGIONAL SOBRE HOJA DE BALANCE DE ALIMENTOS, SERIES DE TIEMPO Y ANÁLISIS DE POLÍTICA MSc. Sandra Hernández [email protected] Sede Subregional de la CEPAL en México Ciudad de México, del

Más detalles

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat MACROECONOMETRÍA Tema 2: Series temporales Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M Profesor: Genaro Sucarrat (Coordinador: Juan J. Dolado) Conceptos fundamentales: Esperanzas condicionales

Más detalles

Anillo de polinomios con coeficientes en un cuerpo

Anillo de polinomios con coeficientes en un cuerpo Capítulo 2 Anillo de polinomios con coeficientes en un cuerpo En el conjunto Z se ha visto cómo la relación ser congruente módulo m para un entero m > 1, es compatible con las operaciones suma y producto.

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Regresión con errores autocorrelacionados

Regresión con errores autocorrelacionados Series de tiempo Gerardo Ortega Miguel Pluma Luis Osorio Johnatan García 09 de diciembre de 2013 Contenido 1 Introducción Idea intuitiva 2 Algoritmo 3 Propiedades de los estimadores 4 Estadístico de Durbin-Watson

Más detalles

Tema 3: Análisis de datos bivariantes

Tema 3: Análisis de datos bivariantes Tema 3: Análisis de datos bivariantes 1 Contenidos 3.1 Tablas de doble entrada. Datos bivariantes. Estructura de la tabla de doble entrada. Distribuciones de frecuencias marginales. Distribución conjunta

Más detalles

Econometria de Series Temporales

Econometria de Series Temporales Econometria de Series Temporales Walter Sosa Escudero [email protected] Universidad de San Andr es 1 Introduccion >Porque series temporales? ² Inhabilidad de la economia de producir experimentos controlados

Más detalles

4.1 Anillo de polinomios con coeficientes en un cuerpo

4.1 Anillo de polinomios con coeficientes en un cuerpo Tema 4 Polinomios 4.1 Anillo de polinomios con coeficientes en un cuerpo Aunque se puede definir el conjunto de los polinomios con coeficientes en un anillo, nuestro estudio se va a centrar en el conjunto

Más detalles

Regresión Lineal Simple y Múltiple Regresión Logística

Regresión Lineal Simple y Múltiple Regresión Logística Regresión Lineal Simple y Múltiple Regresión Logística Miguel González Velasco Departamento de Matemáticas. Universidad de Extremadura MUI en Ciencias de la Salud MUI en Ciencias de la Salud (UEx) Regresión

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

PROCESOS ESTACIONARIOS UNIVARIADOS 1

PROCESOS ESTACIONARIOS UNIVARIADOS 1 1. Series de Tiempo PROCESOS ESTACIONARIOS UNIVARIADOS 1 Un proceso estocástico es una secuencia de variables aleatorias, donde la variable de indexación puede ser discreta o continua. Por ejemplo, puede

Más detalles

Capitulo IV - Inecuaciones

Capitulo IV - Inecuaciones Capitulo IV - Inecuaciones Definición: Una inecuación es una desigualdad en las que hay una o más cantidades desconocidas (incógnita) y que sólo se verifica para determinados valores de la incógnita o

Más detalles

Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión.

Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión. REGRESIÓN LINEAL. Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión. Dada una población, hasta ahora hemos estudiado cómo a partir de una muestra extraída de ella podemos

Más detalles

Comportamiento asintótico de estimadores

Comportamiento asintótico de estimadores Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos

Más detalles

Clase de Álgebra Lineal

Clase de Álgebra Lineal Clase de Álgebra Lineal M.Sc. Carlos Mario De Oro Facultad de Ciencias Básicas Departamento de matemáticas 04.2017 Page 1 Espacios vectoriales Definicion. Espacio Vectorial (E.V.) Un V espacio vectorial

Más detalles

Metas para lograr en Primero Medio para el año 2015 en Matemáticas Profesor: Rodrigo Pérez Cruz Habilidades Matemáticas

Metas para lograr en Primero Medio para el año 2015 en Matemáticas Profesor: Rodrigo Pérez Cruz Habilidades Matemáticas Metas para lograr en Primero Medio para el año 2015 en Matemáticas Comprender que los números racionales constituyen un conjunto numérico en el que es posible resolver problemas que no tienen solución

Más detalles

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina Más Allá del Modelo de Regresión Lineal Dante A. Urbina CONTENIDOS 1. Modelos de Regresión No Lineales 2. Modelos de Respuesta Cualitativa 3. Datos de Panel 4. Modelos Autorregresivos y de Rezagos 5. Modelos

Más detalles

Matrices Particionadas Traza de una Matriz

Matrices Particionadas Traza de una Matriz CAPÍTULO Matrices Particionadas Traza de una Matriz Este capítulo consta de tres secciones Las dos primeras versan sobre matrices particionadas La tercera sección trata sobre la traza de una matriz En

Más detalles

Regresión Simple. Leticia Gracia Medrano. 2 de agosto del 2012

Regresión Simple. Leticia Gracia Medrano. 2 de agosto del 2012 Regresión Simple Leticia Gracia Medrano. [email protected] 2 de agosto del 2012 La ecuación de la recta Ecuación General de la recta Ax + By + C = 0 Cuando se conoce la ordenada al origen y su pendiente

Más detalles

Ecuaciones diferenciales lineales con coeficientes variables

Ecuaciones diferenciales lineales con coeficientes variables Tema 5 Ecuaciones diferenciales lineales con coeficientes variables 5 Existencia y unicidad Partimos de una ecuación de la forma a 0 (x y (n + a (x y (n + + a n (x y + a n (x y = b(x (5 con a 0 (x 0 donde

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

Tema 2: Análisis de datos bivariantes

Tema 2: Análisis de datos bivariantes 1 Tema 2: Análisis de datos bivariantes En este tema: Tabla de contingencia, tabla de doble entrada, distribución conjunta. Frecuencias relativas, marginales, condicionadas. Diagrama de dispersión. Tipos

Más detalles

Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales

Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales (1) Sea n N. Mostrar que el conjunto de polinomios sobre R de grado menor que n es un subespacio vectorial de R[x]. Este

Más detalles

Tema 2 MODELOS UNIVARIANTES LINEALES.

Tema 2 MODELOS UNIVARIANTES LINEALES. Tema 2 MODELOS UNIVARIANTES LINEALES. 1 Estructura del tema 1) Procesos estocásticos estacionarios. Modelos univariantes: la función de autocorrelación y el correlograma. 2) El proceso ruido blanco. 3)

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6

Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6 Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6 Contenido Valor Esperado, Caso Discreto. Valor Esperado,

Más detalles

Valores y vectores propios

Valores y vectores propios Valores y vectores propios Problemas teóricos El los siguientes problemas se denota por L(V ) conjunto de los operadores lineales en un espacio vectorial V (en otras palabras, de las transformaciones lineales

Más detalles

Procesos estocásticos

Procesos estocásticos Teoría de la comunicación Comunicaciones - U.A.H. Indice Probabilidad. Variables Aleatorias. Procesos Estocásticos. Comunicaciones - U.A.H. Probabilidad Probabilidad. Dado un experimento ε del tipo que

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Modelos ARCH y GARCH

Modelos ARCH y GARCH Modelos y Roberto Cruz Oropesa Francisco Javier Rivera Miguel Ángel Sánchez Adán Uribe Bravo Diciembre 9, 2013 Series de Tiempo y Series Finacieras Series Financieras Hechos estilizados. Sea p t el precio

Más detalles

1. Conjuntos de números

1. Conjuntos de números 1.2. Números complejos 1.2.1. FORMA BINÓMICA Números complejos en forma binómica Se llama número complejo a cualquier expresión de la forma z = x + yi donde x e y son números reales cualesquiera e i =

Más detalles

Folleto de Estadísticas. Teoría del 2do Parcial

Folleto de Estadísticas. Teoría del 2do Parcial Folleto de Estadísticas Teoría del 2do Parcial 2012 Variables aleatorias conjuntas continuas: Sean X y Y dos variables aleatorias continuas con ellas se asocia una función denominada función de densidad

Más detalles