Tópicos en Series de Tiempo

Documentos relacionados
Procesos autorregresivos

Tema 2: Modelos probabilísticos de series

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Apuntes de Series Temporales

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Predicción con modelos ARIMA

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Análisis de series temporales

Econometria con Series Temporales

Series de tiempo con aplicaciones: Enfoque temporal

Econometría II Grado en finanzas y contabilidad

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Procesos Estocásticos Estacionarios

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

Índice general. Resumen... Introducción Series de tiempo univariadas Ejemplos Procesos estocásticos 7

Tema1. Modelo Lineal General.

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013

Tema 10: Introducción a los problemas de Asociación y Correlación

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Procesos de media móvil y ARMA

Econometría II Grado en finanzas y contabilidad

INTRODUCCIÓN. FUNCIONES. LÍMITES.

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

Modelos Arma y método Box & Jenkins

Curso de nivelación Estadística y Matemática

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

Macroeconometría ( ) Examen final

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores

LADE y DER-LADE. Primer evaluación parcial

Tema 8: Regresión y Correlación

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

De los tres conceptos que se estudian es este tema, funciones, límites y continuidad, el primero y el último son muy sencillos de comprender.

ANÁLISIS DE REGRESIÓN

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58

Tema 2: Análisis de datos bivariantes

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo.

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

Tema 3 Normalidad multivariante

REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE

Econometría II Grado en finanzas y contabilidad

Conceptos básicos sobre Series de Tiempo

Cálculo de Probabilidades II Preguntas Tema 2

Econometría de series de tiempo aplicada a macroeconomía y finanzas

EJC 22: METODOLOGÍA BOX JENKINS

Breve Introducción a las Series Temporales

Predicción. Capítulo Predictores lineales

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

Extremos de funciones de varias variables

Análisis de Series de Tiempo

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

Anillo de polinomios con coeficientes en un cuerpo

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Regresión con errores autocorrelacionados

Tema 3: Análisis de datos bivariantes

Econometria de Series Temporales

4.1 Anillo de polinomios con coeficientes en un cuerpo

Regresión Lineal Simple y Múltiple Regresión Logística

Econometría II. Hoja de Problemas 1

Series económicas: Precios de divisas, tasas, índice de precios. Series Físicas: Meteorológica, temperatura, energia solar

Unidad Temática 3: Probabilidad y Variables Aleatorias

PROCESOS ESTACIONARIOS UNIVARIADOS 1

Capitulo IV - Inecuaciones

NORMAS El examen consta de dos partes: Diez Cuestiones: (tiempo: 60 minutos)

Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión.

Comportamiento asintótico de estimadores

Clase de Álgebra Lineal

Metas para lograr en Primero Medio para el año 2015 en Matemáticas Profesor: Rodrigo Pérez Cruz Habilidades Matemáticas

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

Matrices Particionadas Traza de una Matriz

Regresión Simple. Leticia Gracia Medrano. 2 de agosto del 2012

Ecuaciones diferenciales lineales con coeficientes variables

Representación de Funciones Reales

D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero

Momentos de Funciones de Vectores Aleatorios

Técnicas de Predicción Solución Examen Final

Tema 2: Análisis de datos bivariantes

Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales

Capítulo 2. Métodos estadísticos Simulación estadística. Simulación univariante

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Tema 2 MODELOS UNIVARIANTES LINEALES.

Variables aleatorias

Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6

Valores y vectores propios

Repaso de Estadística

Procesos estocásticos

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Modelos ARCH y GARCH

1. Conjuntos de números

Folleto de Estadísticas. Teoría del 2do Parcial

Transcripción:

Tópicos en Series de Tiempo Autor: Grisel M. Britos Directora: Dra. Silvia María Ojeda Córdoba, Diciembre de 2012

Agradecimientos A mi familia por la paciencia, la comprensión y tanto que me han dado en todos estos años de la carrera. A Martín Ocampo por las sonrisas, la compañía y el amor que me dió y sigue dando. A mi directora, por la confianza, la dedicación y sobre todo por las palabras de apoyo y aliento. A los compañeros y amigos de la Facultad: gracias por hacer más llevaderas las largas horas de estudio. A los amigos de la vida, por alegrarla. A aquellos profesores que en la Facultad me enseñaron con paciencia y entrega. De nuevo, GRACIAS. I

Resumen El objetivo de este trabajo es iniciar un estudio sobre series de tiempo basándose en el libro de Leiva R. [1]. En el primer capítulo se introducirán las principales definiciones y resultados teóricos. En los capítulos II y III se estudiarán y analizarán características de las diferentes representaciones de series estacionarias y no estacionarias que luego nos permitirán identificar algún modelo que pudiera haber generado una dada serie de tiempo real. En el capítulo IV se verán algunos métodos para predecir como continuará el comportamiento de la serie de tiempo que se estudia, mientras que en el capítulo V se presentarán distintos criterios útiles para determinar si el modelo elegido para la serie es adecuado o se debe proponer un nuevo modelo. Al final de cada capítulo se resuelven algunos ejercicios propuestos en la obra de Leiva [1]. Por último, se tomará una serie de tiempo real y se tratará de modelar su comportamiento atendiendo a todo lo estudiado en este trabajo. Clasificación (Math. Subject Classification) 62M10, 60G10. Palabras Claves -Serie de Tiempo -Estacionaridad -Modelos ARIMA II

Índice general Agradecimientos Resumen I II 1. Introducción 1 1.1. Definiciones Básicas..................................... 1 1.2. Estimación de las características de una serie de tiempo estacionaria.......... 3 1.2.1. Estimación de la media µ.............................. 3 1.2.2. Estimación de las autocovarianzas......................... 3 1.2.3. Estimación de las autocorrelaciones........................ 4 1.2.4. Estimación de las autocorrelaciones parciales................... 4 1.3. Ejercicios del Capítulo I................................... 4 2. Modelos para series de tiempo estacionarias 14 2.1. Representaciones de una serie de tiempo.......................... 14 2.1.1. Representación como un proceso de promedios móviles de orden infinito.... 14 2.1.2. Representación como un proceso autorregresivo de orden infinito........ 15 2.2. Modelos autoregresivos de orden finito........................... 16 2.2.1. Modelo autoregresivo de orden 1.......................... 16 2.2.2. Modelo autoregresivo de orden p.......................... 17 2.3. Modelos de promedios móviles de orden finito....................... 18 2.3.1. El modelo de medias móviles de orden 1...................... 19 2.4. Modelos Autorregresivos de Promedios Móviles...................... 19 2.4.1. Modelo ARMA(1,1).................................. 20 2.4.2. Modelo ARMA(p,q)................................. 22 2.5. Ejercicios del Capítulo II................................... 23 3. Modelos para series de tiempo no estacionarias 37 3.1. Enfoque clásico........................................ 37 3.1.1. Estimación de m t por el método de cuadrados mínimos............. 38 3.1.2. Estimación de la tendencia mediante suavizamiento por promedios....... 39 3.1.3. Estimación de la tendencia y la estacionalidad cuando la tendencia es constante durante cada período de la componente estacional................ 39 3.1.4. Estimación de la tendencia y la estacionalidad: Caso General.......... 41 3.2. Modelos ARIMA y SARIMA................................ 42 3.2.1. Modelos ARIMA................................... 43 3.2.2. Procesos SARIMA (ARIMA estacionales)..................... 43 3.3. Transformaciones....................................... 44 3.4. Ejercicios del Capítulo III.................................. 45 III

4. Predicción 53 4.1. Predictor Lineal con Error Cuadrático Medio Mínimo.................. 53 4.2. Predicción de un ARMA conocido todo su pasado.................... 54 4.3. Predicción de un ARIMA conocido todo su pasado.................... 56 4.4. Ejercicios del Capítulo IV.................................. 58 5. Estimación e identificación de los modelos de series de tiempos 67 5.1. Identificación de procesos. Determinación del orden y verificación de diagnóstico... 67 5.1.1. Criterios de Akaike: FPE, AIC, BIC........................ 67 5.2. Reglas prácticas para la identificación de procesos.................... 68 6. Aplicación 70 Bibliografía 79 IV

Capítulo 1 Introducción Muchas veces en la vida real se cuenta con observaciones ordenadas de hechos que acontecen a intervalos equiespaciados en el tiempo y que se encuentran relacionados con diferentes actividades propias del quehacer humano. Por ello, el estudio de las series de tiempo es una herramienta importante para el análisis de datos que no son independientes entre sí; por ejemplo, tasas de mortalidad y nacimiento, índices de precio al consumidor, producción anual de soja, caudales de ríos, etc. El análisis de series temporales se aborda usualmente desde la perspectiva que proporcionan la Probabilidad y la Estadística y permite comprender y describir los procesos generadores de los datos observados, como así también realizar predicciones de valores futuros de la serie. Este trabajo apunta a realizar un primer acercamiento al estudio de las series de tiempo a partir de la teoría expuesta por Leiva [1] y Brockwell- Davis [2]; luego, en trabajos futuros, se espera focalizar aspectos vinculados con la generalización a dos dimensiones de esta teoría, la cual a su vez es requerida en tópicos de análisis y procesamiento de imágenes digitales. El interés del trabajo se centró en la comprensión de las principales definiciones y resultados teóricos propuestos en la bibliografía citada, poniendo especial atención a la resolución de los ejercicios que se encuentran al final de cada sección del libro de Leiva [1]. El trabajo implicó además una aproximación inicial al conocimiento y utilización del software estadístico y de libre acceso, R, para modelar una serie de tiempo real. 1.1. Definiciones Básicas Definición 1.1.1. Sea (Ω, A, P ) un espacio de probabilidad y sea T un conjunto no vacío de índices. Se llama serie de tiempo (o proceso estocástico) a valores reales a una función X :T Ω R tal que para cada t fijo, X :t Ω R es una variable aleatoria X t, que será denotada como {X t : t T }. Debido a la dependencia que hay entre las variables aleatorias X t, t T se hace necesario realizar algunas suposiciones sobre la forma en que se han generado los datos aleatorios, lo que motiva las siguientes definiciones: Definición 1.1.2. : Una serie de tiempo {X t : t T }, es estrictamente estacionaria si F Xt1,X t2,...,x tn = F Xt1 +k,x t2 +k,...,x tn+k para todo k, n N y para todo t 1, t 2,..., t n, t 1 + k, t 2 + k,..., t n + k en el conjunto de índices T, donde F Xt1,X t2,...,x tn denota la función de distribución conjunta de las variables X t1, X t2,..., X tn. Esta definición nos dice que la distribución conjunta de dos o más variables que componen la serie depende solo de la distancia entre los elementos del subconjunto de T ; sin embargo, debido a la dificultad de verificar esta condición, la definición anterior se relaja del siguiente modo: Definición 1.1.3. : Se dice que una serie de tiempo {X t : t T } es estacionaria si se verifica que : a) E[X t ] = µ < para todo t T 1

b) cov(x t, X t+k ) = E[(X t µ)(x t+k µ)] = γ k < para todo t, t + k T Puede verificarse que si una serie de tiempo es estacionaria entonces es también estrictamente estacionaria, pero no viceversa (ver ejercicio 1.3.1). Enunciaremos las definiciones que nos acompañaran de ahora en adelante: Definición 1.1.4. : Dada una serie de tiempo estacionaria {X t : t T } se llama función de autocovarianza teórica a la función γ : Z R que a cada entero k le asigna el valor γ k = cov(x t, X t+k ) = E[(X t µ)(x t+k µ)] Definición 1.1.5. : Dada una serie de tiempo estacionaria {X t : t T } se llama función de autocorrelación teórica a la función ρ : Z R que a cada entero k le asigna el valor ρ k = corr(x t, X t+k ) = cov(x t,x t+k ) var(xt)var(x t+k ) = γ k γ 0 Esta última tiene la ventaja de no estar influenciada por las unidades de medida que se usan para obtener los valores de la serie de tiempo. Algunas de las propiedades de las funciones de autocovarianza y de autocorrelación se muestran a continuación: a) γ k γ 0 = var(x t ) y ρ k ρ 0 = 1 k Z b) γ k = γ k y ρ k = ρ k c) Las funciones de autocovarianza y autocorrelación son semidefinidas positivas, i.e. para todo n N y para todo t 1, t 2,..., t n T se verifica que: n n a i a j γ ti t j 0 i=1 j=1 y n n a i a j ρ ti t j 0 i=1 j=1 Ejemplo 1.1.1. : Dada una serie de tiempo {A t : t Z} se dice que la serie es un proceso de ruido blanco si las variables aleatorias A t son no correlacionadas entre si, con media µ t = E[A t ] y varianza σ 2 A = var(a t) para todo t Z Ejemplo 1.1.2. : Sea {A t : t Z} un proceso de ruido blanco. Se dice que la serie de tiempo {X t : t Z} es un proceso autorregresivo de orden 1 (o AR(1)) si se puede representar de la siguiente forma: X t = φx t 1 + A t para todo t Z siendo φ un número real fijo. La serie del ejemplo 1.1.2 deja en evidencia una dependencia lineal entre X t y X t+k. Es decir que los valores obtenidos por la varible X en el pasado influyen en el valor de X en el tiempo presente. Esta influencia se observa de forma directa entre X t+1 y X t+2 pues estan relacionadas de la forma X t+2 = φx t+1 + A t+2 y como a su vez X t+1 = φx t + A t+1 se ve que X t influye de forma indirecta sobre X t+2. Considerando la situación general de una serie de tiempo {X t : t T } nos gustaría saber cual es la dependencia lineal directa entre dos variables X t y X t+k. Para ello se define el coeficiente de autocorrelación parcial de orden k como una medida de la relación lineal entre observaciones separadas k períodos con independencia de los valores intermedios. 2

Definición 1.1.6. Se define el coeficiente de correlación parcial π k como π k = corr(x t, X t+k /X t+1,..., X t+k 1 ) y que es igual a π k = 1 ρ 1 ρ 2... ρ k 2 ρ 1 ρ 1 1 ρ 1... ρ k 3 ρ 2........ ρ k 1 ρ k 2 ρ k 3... ρ 1 ρ k 1 ρ 1 ρ 2... ρ k 2 ρ k 1 ρ 1 1 ρ 1... ρ k 3 ρ k 2........ ρ k 1 ρ k 2 ρ k 3... ρ 1 1 Dicha fórmula se obtiene de realizar una regresión lineal de X t+k respecto de X t+k 1, X t+k 2,...,X t, o sea: X t+k = φ k0 + φ k1 X t+k 1 + φ k2 X t+k 2 +... + φ kk X t + E t+k donde {E t } es un proceso de ruido blanco y se supone que las variables E t+k no están correlacionadas con X t, X t+1,..., X t+k 1 para todo t. Luego, resulta que el coeficiente φ kk de X t es el coeficiente de correlación parcial teórico π k entre X t+k y X t. Definición 1.1.7. Se denomina función de autocorrelación parcial teórica de la serie de tiempo estacionaria {X t : t Z} a la función π :Z R que a cada entero k le asigna el coeficiente de correlación parcial teórico π k entre X t+k y X t. 1.2. Estimación de las características de una serie de tiempo estacionaria Los elementos que caracterizan a una serie de tiempo estacionaria son su media µ, su varianza σ 2, sus autocorrelaciones ρ k y sus autocorrelaciones parciales π k. Es necesario poder realizar estimaciones de estos elementos ya que en muchos casos no se puede contar con más de una realización de la serie de tiempo. 1.2.1. Estimación de la media µ Dada una serie de tiempo {X t : t Z}, si se conocen solo n valores de una realización x 1,..., x n, el estimador natural de la media común es la media muestral X n = 1 n ya que éste es un estimador insesgado para µ y si además se cumple que lím k ρ k = 0 entonces X n es un estimador consistente en cuadrados medios para µ (ver Leiva [1]) 1.2.2. Estimación de las autocovarianzas Dadas n observaciones x 1,..., x n de la serie de tiempo estacionaria, se puede considerar para un k fijo (0 k n 1) los siguientes n k pares: (x 1, x 1+k ), (x 2, x 2+k ),..., (x n k, x n ) y mirando a la n t=1 X t 3

primera entrada de cada par como una observación de una variable y a la segunda como la observación de otra variable, se puede calcular una estimación de γ k mediante la fórmula: donde n k 1 (x t x n k (1) )(x t+k x (2) ) t=1 x (1) = 1 n k x t y x n k (2) = 1 n k t=1 n t=k+1 Como en general x (1) = x(2) se reemplazan ambas por x n = 1 n n t=1 x t y se obtiene el siguiente estimador para γ k : γ = 1 n k (X t X n )(X t+k X n ) n t=1 Definición 1.2.1. La función γ : Z R que a cada k Z le asigna el valor γ k recibe el nombre de función de autocovarianza muestral. 1.2.3. Estimación de las autocorrelaciones Un estimador natural de ρ k es ρ k = γ n k k t=1 = (X t X n )(X t+k X n ) γ n 0 t=1 (X para k = 0, ±1,..., ±(n 1) (1.2.1) t X n ) 2 Definición 1.2.2. La función ρ : Z R que a cada k Z le asigna el valor ρ k recibe el nombre de función de autocorrelación muestral, y su gráfico a partir de la muestra x 1,..., x n es llamado correlograma muestral. 1.2.4. Estimación de las autocorrelaciones parciales Los estimadores naturales de π k = φ kk se obtienen reemplazando en la fórmula que expresa π k como cociente de determinantes, a los ρ j por sus estimadores ρ j. Para valores muy grandes de k es conveniente usar un método recursivo para su cálculo, comenzando por π 1 = φ 11 = ρ 1 y luego π k+1 = φ k+1,k+1 = ρ k+1 k j=1 φ k,j ρ k+1 j 1 k j=1 φ k,j ρ j (1.2.2) x t. donde, φ k,j = φ k 1,j φ k 1,k j π k j = 1,..., k (1.2.3) 1.3. Ejercicios del Capítulo I Ejercicio 1.3.1. Sean {X t : t N {0}} variables aleatorias independientes que cumplen { P (X t = 1) = P (X t = 1) = 1/2, si t es par; P (X t = 3) = P (X t = 3) = 1/18, (a) Es {X t } un proceso estrictamente estacionario? si t es impar 4

(b) Es estacionario en sentido amplio? Solución. (a) Sean n = 1 = k. Si t es par F Xt ( 1) = P (X t 1) = P (X t = 1) = 1/2 pero F Xt+1 ( 1) = P (X t+1 1) = P (X t+1 = 3) = 1/18 por lo que F Xt F Xt+1 y resulta que {X t } no es estrictamente estacionario. (b) Si t es par, E[X t ] = ( 1).P (X t = 1) + 1.P (X t = 1) = 1/2 + 1/2 = 0 y si t es impar se puede ver del mismo modo que E[X t ] = 0. Además, si t es par V ar[x t ] = ( 1) 2.P (X t = 1) + 1 2.P (X t = 1) = 1/2 + 1/2 = 1 (igual se ve para t impar) y si h 0, cov(x t, X t+h ) = 0 pues X t, X t+h son independientes. Por lo tanto {X t } es estacionario en sentido amplio. Ejercicio 1.3.2. Considere la serie {X t : t Z} definida por X t = θa t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. (a) Qué tipo de proceso es {X t }? (b) Cuál es el valor de γ k = cov(x t, X t+k )? (c) Cuál es el valor de ρ k = corr(x t, X t+k )? (d) Si θ = 0,7 y si σ 2 A = 4 i) Cuál es el valor de γ k? ii) Grafique la función de autocovarianza teórica para k = 0, 1, 2, 3, 4, 5. (e) Si θ = 0,9 y si σ 2 A = 4 i) Cuál es el valor de ρ k? ii) Grafique la función de autocorrelación teórica para k = 0, 1, 2, 3, 4, 5. Solución. (b) (a) Es un proceso de medias móviles de orden 1 ó MA(1). γ k = cov(x t, X t+k ) = E[X t X t+k ] = E[(θA t 1 + A t )(θa t+k 1 + A t+k )] = θ 2 E[A t 1 A t+k 1 ] + θ(e[a t 1 A t+k ] + E[A t A t+k 1 ]) + E[A t A t+k ] = θ 2 δ k + θδ k+1 + θδ k 1 + δ k donde δ k es la autocovarianza de {A t }, o sea { σa 2, si k = 0; δ k = 0, si k 0 entonces (θ 2 + 1)σA 2, si k = 0; γ k = θσa 2, si k = 1; 0, si k > 1 5

(c) (d) ρ k = γ k γ 0 = 5,96, si k = 0; γ k = 2,8, si k = 1; 0, si k > 1 1, si k = 0; θ/(θ 2 + 1), si k = 1; 0, si k > 1 (e) 1, si k = 0; ρ k = 0,497, si k = 1; 0, si k > 1 Ejercicio 1.3.3. Considere la serie {X t : t Z} definida por X t = φx t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. (a) Qué tipo de proceso es {X t }? (b) Cuál es el valor de γ k = cov(x t, X t+k )? (c) Cuál es el valor de ρ k = corr(x t, X t+k )? (d) Si φ = 0,7 y si σ 2 A = 4 i) Cuál es el valor de γ k? ii) Grafique la función de autocovarianza teórica para k = 0, 1, 2, 3, 4, 5. (e) Si φ = 0,9 y si σ 2 A = 4 i) Cuál es el valor de ρ k? ii) Grafique la función de autocorrelación teórica para k = 0, 1, 2, 3, 4, 5. Solución. (a) Es un proceso autorregresivo de orden 1 ó AR(1). (b) X t = φx t 1 + A t = φ(φx t 2 + A t 1 ) + A t = φ 2 X t 2 + φx t 1 + A t =... k 1 = φ k X t k + φ i A t i 6

Si φ < 1 entonces E[(X t k 1 φi A t i ) 2 ] = E[X t k ]φ k Mφ k 0 si k. Luego, X t = φ i A t i y Entonces, E[X t ] = φ i E[A t i ] = 0 γ k = cov(x t, X t+k ) = E[X t X t+k ] = E[( φ i A t i )( φ j A t+k j )] = = φ k σ 2 A φ i+j E[A t i A t+k j ] = φ 2i = φk σ 2 A 1 φ 2 φ 2i+k E[A 2 t i] = φ 2i+k σa 2 (c) Como ρ 0 = (d) γ k = 7,843(0,7) k σ2 A 1 φ 2 entonces ρ k = φ k. (e) ρ k = ( 0,9) k Ejercicio 1.3.4. Los siguientes números corresponden a 20 observaciones sucesivas de un proceso estocástico estacionario {X t : t N}. -0.27-1.14 0.47 0.63-1.09 0.78-0.19 1.45-0.94-0.52 0.18-0.86 2.09 0.48-0.33-1.81 0.76-0.99 0.45-0.11 a) Grafique las observaciones en función del tiempo. 7

b) Observando el gráfico de la parte (a), trate de adivinar el signo y el valor absoluto (aproximado) del coeficiente de autocorrelación de orden 1 del proceso estocástico que generó estos datos. c) Grafique x t versus x t+1 y observando esta nube de puntos trate nuevamente de adivinar el valor de la autocorrelación de orden 1. d) Calcule usando los datos el valor estimado ρ 1. e) Grafique x t versus x t+2 y observando esta nube de puntos trate nuevamente de adivinar el valor de la autocorrelación de orden 2. f) Calcule usando los datos el valor estimado ρ 2. g) Calcule con los datos los valores de y t y z t siendo y t = x t ρ 1 x t+1, z t = x t+2 ρ 1 x t+1 y grafique y t versus z t. h) Teniendo en cuenta el gráfico de la parte (g) adivine el valor de la autocorrelación parcial de orden 2 (π 2 ) del proceso estocástico que generó los datos. i) Calcule con los datos una estimación de π 2. Solución. a) Serie de tiempo {X t } b) No se puede decir nada sobre el coeficiente de autocorrelación de orden 1 sólo mirando el gráfico de la parte (a). Necesitaríamos observar como se comportan las estimaciones de la función de autocorrelación. c) x t versus x t+1 Se puede observar una tendencia lineal con pendiente negativa por lo que ρ 1 < 0 8

d) De acuerdo a (1.2.1), ρ 1 = 0,343 e) x t versus x t+2 No se puede apreciar ninguna tendencia por lo que ρ 2 = 0. f) De acuerdo a (1.2.1), ρ 2 = 0,03258 g) v t = x t ρ 1 x t+1 versus w t = x t+2 ρ 1 x t+1 h) Parece que no existe una tendencia lineal entre los puntos graficados por lo que π 2 debe ser aproximadamente 0. i) De acuerdo a (1.2.2) y (1.2.3), π 2 = 0,0964. Ejercicio 1.3.5. Considere la serie de tiempo {X t : t Z} definida por X t = 0,9A t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A = 4. a) Qué tipo de proceso es {X t }?. b) Cuál es la forma general (con el mismo orden) del tipo de proceso que identificó en la parte (a)?. c) Cuál es el valor de su media? Por qué?. d) Cuál es el valor de γ k?. e) Cuál es el valor de ρ k?. f) Dados 50 datos x 1,..., x 50 generados por este proceso de ecuación X t = 0,9A t 1 + A t, si se grafican los pares de puntos (x t 1, x t ), t = 2,..., 50, Cuál es la ecuación de la recta teórica alrededor de la cual esta nube de puntos graficados tiende a concentrarse?. 9

g) Si se grafican los puntos (x t 2, x t ), t = 3,..., 50, Cuál es la tendencia de esta nube de puntos?. h) Si se grafican los puntos (y t, z t ) donde y t = x t 0,9 x 1+0,9 2 t+1 y z t = x t+2 0,9 x 1+0,9 2 t+1 para t = 1,..., 48, Cuál es la tendencia de esta nube de puntos?. Solución. a) {X t } es un proceso de medias móviles de orden 1 (MA(1)) b) La forma general es X t = θa t 1 + A t. c) E[X t ] = 0,9E[A t 1 ] + E[A t ] = 0,9 0 + 0 = 0. d) Por lo visto en el ejercicio 1.3.2, (0,9 2 + 1)4, si k = 0; γ k = 0,9 4, si k = 1; 0, si k > 1 7,24, si k = 0; = 3,6, si k = 1; 0, si k > 1 e) 1, si k = 0; ρ k = 0,9/(1 + 0,9 2 ), si k = 1; 0, si k > 1 1, si k = 0; = 0,497, si k = 1; 0, si k > 1 f) La ecuación de la recta es z = 0,49y + 0,26. g) La nube de puntos no parece concentrarse alrededor de ninguna recta y esto es coherente con el echo de que ρ 2 = 0 en un proceso MA(1). h) Los puntos siguen teniendo una tendencia lineal pero menos marcada que en los puntos anteriores y obedece a la ecuación w = 0,4v + 0,35. 10

Ejercicio 1.3.6. Considere la serie de tiempo {X t : t Z} definida por X t = 0,9X t 1 + A t, donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A = 4. a) Qué tipo de proceso es {X t }?. b) Cuál es la forma general (con el mismo orden) del tipo de proceso que identificó en la parte (a)?. c) Cuál es el valor de su media? Por qué?. d) Cuál es el valor de γ k?. e) Cuál es el valor de ρ k?. f) Dados 50 datos x 1,..., x 50 generados por este proceso de ecuación X t = 0,9X t 1 + A t, si se grafican los pares de puntos (x t 1, x t ), t = 2,..., 50, Cuál es la ecuación de la recta teórica alrededor de la cual esta nube de puntos graficados tiende a concentrarse?. g) Si se grafican los puntos (x t 2, x t ), t = 3,..., 50, Cuál es la tendencia de esta nube de puntos?. h) Si se grafican los puntos (y t, z t ) donde y t = x t 0,9x t+1 y z t = x t+2 0,9x t+1 para t = 1,..., 48, Cuál es la tendencia de esta nube de puntos?. Solución. a) {X t } es un proceso autorregresivo de orden 1 (AR(1)). b) La forma general es X t = φx t 1 + A t. c) De acuerdo con las cuentas hechas en el ejercicio 1.3.3, el proceso AR(1) se puede escribir como un proceso de medias móviles de orden infinito y entonces E[X t ] = 0. d) Por el ejercicio 1.3.3, γ k = 4 0,9k 1 0,9 k = 21,05(0,9) k. e) ρ k = 0,9 k f) La ecuación de la recta es z = 0,8y + 0,16. 11

g) La ecuación de la recta es z 2 = 0,5y 2 + 0,3. h) Los puntos no parecen mostrar ninguna tendencia lineal lo cual concuerda con el echo de que π 2 = 0 en un proceso AR(1). Ejercicio 1.3.7. En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) b) k 1 2 3 4 5 6 ρ k 0.800 0.640 0.512 0.410 0.328 0.262 π k 0.800 0 0 0 0 0 k 1 2 3 4 5 6 ρ k 0.497 0 0 0 0 0 π k 0.497-0.328 0.243-0.191 0.156-0.131 Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(1) de la forma X t = φx t 1 +A t ya que en esos modelos la autocorrelación teórica es ρ k = φ k y la autocorrelación parcial teórica es π k = 0 si k 1 y π 1 = φ. En este caso debe ser φ > 0. 12

b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(1) de la forma X t = θa t 1 + A t ya que en esos modelos la autocorrelación teórica es ρ k = 0 si k > 1 y ρ k = θ si k = 1. En este caso debe ser θ > 0. 1+θ 2 13

Capítulo 2 Modelos para series de tiempo estacionarias En esta sección se presentarán los principales modelos que pueden regir el comportamiento de una serie de tiempo estacionaria junto con las características que permiten distinguir a cuál de esos modelos corresponde una serie de datos observados. 2.1. Representaciones de una serie de tiempo 2.1.1. Representación como un proceso de promedios móviles de orden infinito Un resultado importante referido a los procesos estacionarios es el probado por Wold en 1938; este dice que todo proceso estacionario {X t : t Z} que sea no determinístico puro puede expresarse como un promedio móvil de orden infinito, es decir X t = µ + α i A t i con α 0 = 1, {A t : t Z} proceso de ruido blanco con media 0 y varianza σ 2 A y tal que α2 i <. Definición 2.1.1. Se llama operador de cambio hacia atrás y se denota por B al operador definido por BX t = X t 1. Notación. Por simplicidad de usará la notación Ẋt = X t µ. Proposición 1. Si {X t } un proceso de medias móviles de orden infinito X t = µ + α ia t i con α 0 = 1, {A t : t Z} proceso de ruido blanco con media 0 y varianza σa 2 y tal que α2 i < entonces {X t } es un proceso estacionario. Demostración. Haciendo uso del operador de cambio hacia atrás, se puede escribir a X t como X t = µ + α i B i A t = µ + α(b)a t donde α(b) = α ib i y α 0 = 1, o sea Ẋt = α(b)a t. Es claro que E[X t ] = µ + α i E[A t i ] = µ + 0 = µ, 14

V ar(x t ) = E[X 2 t ] µ 2 y E[Xt 2 ] = E[(µ + α i A t i )(µ + α j A t j )] = 2µ α i E[A t i ] + µ 2 + α i α i E[A t j A t i ] = µ 2 + σa 2 i, α 2 i entonces y V ar(x t ) = σa 2 αi 2 (2.1.1) Como γ k = cov(ẋt, Ẋ t+k ) (2.1.2) = E[( α i A t i )( α j A t j )] = = σ 2 A α i α j E[A t i A t+k j ] α i α i+k < γ k γ 0 = σ 2 A αi 2 <, se cumplen las condiciones de la definición 1.1.3 por lo que resulta que {X t } es un proceso estacionario. 2.1.2. Representación como un proceso autorregresivo de orden infinito Definición 2.1.2. Se dice que una serie de tiempo {X t : t Z} es invertible o equivalentemente es un proceso autorregresivo de orden infinito, si Ẋ t = X t µ se puede expresar como Ẋ t = A t + β i Ẋ t i i=1 con β i <. i=1 O sea, β(b)ẋt = A t donde β(b) = β i B i. Proposición 2. Sea {X t } un proceso invertible como en la definición 2.1.2. Si las raíces de β(b) = 0 son de módulo mayor que uno entonces la serie resulta ser un proceso estacionario. i=1 1 Demostración. Como β(x) 0 cuando x 1, existe un ε > 0 tal que series de potencia 1 β(x) = α j x j = α(x), x < 1 + ε. β(x) tiene una expansión en 15

Si (1 + ε 2 ) < x < (1 + ε), como α j x j 0 cuando j resulta que α j (1 + ε/2) j 0 cuando j y por lo tanto, existe K (0, ) tal que α j < K(1 + ε/2) j j = 0, 1, 2,... En particular, α j < y α(x)β(x) 1 para todo x 1. Mas aún, α2 j <. Luego, resulta que {X t} posee una expresión como un proceso de medias móviles de orden infinito y por la proposición 1, {X t } es estacionario. Análogamente, un proceso estacionario Ẋt = α(b)a t será invertible si las raíces de α(b) = 0 son 1 de módulo mayor que 1 pues entonces α(b) = β(b) con i=1 β i <. 2.2. Modelos autoregresivos de orden finito Definición 2.2.1. Se dice que una serie de tiempo {X t : t Z} es un proceso autorregresivo de orden p (se denota AR(p)), con p N fijo, si Ẋ t = X t µ se puede expresar como p Ẋ t = A t + φ i Ẋ t i i=1 t Z donde {A t : t Z} es un proceso de ruido blanco con media 0 y varianza σ 2 A. Al ser un caso particular de un proceso autorregresivo de orden infinito, el proceso será estacionario si las raíces de Φ p (B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 son de módulo mayor que 1. La siguiente definición se usará en la demostración de algunos resultados que se presentarán a continuación pero cuyas pruebas no se incluirán en este trabajo. Definición 2.2.2. Se llama ecuación lineal en diferencias con coeficientes constantes de orden k, a una ecuación de la forma y t + α 1 y t 1 +... + α k y t k = a t para t T, donde a t : t T es una función real de t que no depende de y, tal que α 1,..., α k son constantes con α k 0 y donde T es un intervalo de números enteros (o sea T Z) que sin pérdida de generalidad podemos suponer que es de la forma [z, ) o [z, z + h] o (, ). 2.2.1. Modelo autoregresivo de orden 1 Un proceso autorregresivo de orden 1 se expresa de la forma X t µ = φ 1 (X t 1 µ) + A t o bien Entonces Ẋ t = φ 1 Ẋ t 1 + A t con Ẋ t = X t µ. E[X t ] = µ, y γ k = cov(x t, X t+k ) = cov(ẋt, Ẋ t+k ) = σa 2 1 φ 2 1 π k = { φ 1, si k = 1; 0, si k > 1 16 φ k 1 si φ 1 < 1

(ver ejercicio 1.3.3). Además, este proceso será estacionario si la raíz de Φ(B) = 1 φ 1 (B) = 0 es de módulo mayor que 1, o equivalentemente φ 1 < 1. Los cálculos de arriba se pueden realizar usando ecuaciones en diferencias: la solución de la ecuación en diferencias de primer orden X t φx t 1 = A t es la suma de una solución particular y de una solución complementaria que es solución de la ecuación X t φx t 1 = 0. Una solución particular es X t = φ i 1A t i y una solución complementaria es de la forma cφ t 1. Por lo que la solución general es X t = cφ t 1 + φ i 1A t i. Para calcular las autocorrelaciones de X t µ = φ 1 (X t 1 µ) + A t se multiplica a ambos miembros de la ecuación por (X t k µ) y se obtiene γ k = φ 1 γ k 1. Por lo tanto, la función de autocorrelación saldrá de resolver la ecuación ρ k φ 1 ρ k 1 = 0. Esta tiene solución general de la forma ρ k = ab k donde b es solución de b φ 1 = 0, o sea b = φ 1 y como 1 = ρ 0 = aφ 0 1 = a entonces ρ k = φ k 1. 2.2.2. Modelo autoregresivo de orden p La definición de que un proceso {X t : t Z} sea autorregresivo de orden p es equivalente a que sea solución de la ecuación Ẋ t φ 1 Ẋ t 1 φ 2 Ẋ t 2... φ p Ẋ t p = A t donde {A t : t Z} es un proceso de ruido blanco. La solución general será suma de una solución particular Xt y de una solución complementaria Xt. Si z 1,..., z p son las raíces de φ(b) = 1 φ 1 B φ 2 B 2... φ p B p = 0 entonces la solución particular es X t = 1 φ(b) A t = ( p i=1 1 (1 z i B) )A t = ( p i=1 k i (1 z i B) )A t donde las constantes k i se eligen de tal forma que se verifique la igualdad, y si además z i > 1 para i = 1,..., p resulta p p Xt = ( (k i z j i Bj ))A t = ( k i z j i )A t j i=1 verificándose que Xt es estacionaria. La solución complementaria será una suma de p términos que dependerán del tipo de raíces z 1,..., z p que tenga su polinomio característico i=1 z p φ 1 z p 1 φ 2 z p 2... φ p 1 z φ p. 1. Por cada raíz real y distinta z j hay un término de la forma c j z t j. 2. Por cada raíz real z i repetida m i veces hay un término de la forma (c i1 + c i2 t +... + c imi t m i 1 )z t i. 3. Por cada par de raíces complejas conjugadas hay un término de la forma R t (c 1 cos(tλ)+c 2 sen(tλ)). 4. Por cada par de raíces complejas conjugadas repetidas h veces hay un término de la forma R t [(c 11 cos(tλ) + c 12 sen(tλ)) + t(c 21 cos(tλ) + c 22 sen(tλ)) +... + t h 1 (c h1 cos(tλ) + c h2 sen(tλ))]. 17

(ver Leiva [1]). Para calcular la función de autocorrelación de (X t µ) = φ 1 (X t 1 µ)+φ 2 (X t 2 µ)+...+φ p (X t p µ) + A t se multiplica a ambos miembros por X t k µ y se divide todo por γ 0, obteniendose ρ k = φ 1 ρ k 1 + φ 2 ρ k 2 +... + φ p ρ k p Particularizando esta última ecuación para k = 1,..., p se obtiene el conocido sistema de ecuaciones de Yule-Walker: ρ = R. φ donde φ t = [φ 1...φ p ], ρ t = [ρ 1...ρ p ] y 1 ρ 1... ρ p 1 R =...... ρ p 1 ρ p 2... 1 La solución será una mezcla de exponenciales, debido a los términos con raíces reales, y sinusoidales, debidas a las raíces complejas conjugadas. La función de autocorrelación parcial se anula a partir del lag p+1 pues el determinante del numerador en la definición 1.1.6 se hace cero por ser la última columna combinación lineal de las p primeras. 2.3. Modelos de promedios móviles de orden finito Definición 2.3.1. Se dice que {X t : t Z} es un proceso de medias móviles de orden q y se denota por MA(q), si Ẋ t = X t µ se puede expresar como q Ẋ t = A t + θ i A t i i=1 t Z donde {A t : t Z} es un proceso de ruido blanco con media 0 y varianza σ 2 A. Un proceso MA(q) con q fijo siempre es estacionario pues α2 i = 1 + θ2 1 +... + θ2 q < Como Ẋt = θ(b)a t donde θ(b) = 1 + θ 1 B +... + θ q B q, la condición suficiente para que el proceso sea invertible es que las raíces de θ(b) = 0 sean de modulo mayor que 1 (la demostración es similar a la de la proposición 2). Además, como de vio en la demostración de la proposición 1 (ver ecuaciones (2.1.1) y (2.1.2)) pero con α i = θ i para i = 1,..., q y α i = 0 si i > q resulta que E[X t ] = µ, V ar(x t ) = σa(1 2 + θ1 2 +... + θq), 2 { σa 2 γ k = (θ k + θ 1 θ k+1 +... + θ q k θ q ), si k q; 0, si k > q ρ k = { θk +θ 1 θ k+1 +...+θ q k θ q 1+θ 2 1 +...+θ2 q, si k q; 0, si k > q Como se ve, la autocovarianza se anula para k > q y es una propiedad que caracteriza a los procesos MA(q) (ver Brockwell [2]). 18

2.3.1. El modelo de medias móviles de orden 1 Un proceso de medias móviles de orden 1 se expresa como X t µ = A t +θ 1 A t 1 donde {A t : t Z} es un proceso de ruido blanco con varianza σ 2 A. Como ya se vió en el ejercicio 1.3.2, este proceso es estacionario con E[X t ] = µ, σa 2 (1 + θ2 1 ), si k = 0; γ k = σa 2 θ 1, si k = 1; 0, si k > 1 ρ k = { θ1 1+θ 2 1, si k = 1; 0, si k > 1 En la función de autocorrelación parcial π k (definición 1.1.6), el determinante del numerador es ( 1) k+1 ( θ 1 ) k pues 1+θ1 2 θ 1 1 θ 0... 0 1 1+θ1 2 1+θ1 2 θ 1 θ 1 1... 0 0 num(π k ) = 1+θ1 2 1+θ1 2........ 0 0 0... 0 θ 1 1+θ 2 1 = ( 1) k+1 θ 1 1 + θ 2 1 1 θ 1 1+θ 2 1 θ 1 1+θ 2 1 0... 0 θ 1 1+θ 2 1 1... 0....... 0 0 0... θ 1 1+θ 2 1 θ 1 = ( 1) k+1 θ 1 1 + θ1 2 ( 1 + θ1 2 ) k 1 = ( 1) k+1 ( 1 + θ1 2 θ 1 ) k mientras que el determinante del denominador es k = 1+θ2 1 +...+θ2k 1 (1+θ1 2)k usando el hecho de que k = k 1 ( θ 1 ) 2 1+θ1 2 k 2 e inducción en k. Por lo tanto, que se prueba fácilmente ( 1) k+1 θ1 k ( θ 1 ) k π k = 1 + θ1 2 = +... + θ2k 1 1 + θ1 2 +... + θ2k 1 = ( θ 1) k (1 θ 2 1 ) 1 θ 2(k+1) 1 si k 1. Para que este proceso sea invertible, la raíz de θ(b) = 1 + θ 1 B = 0 debe ser de modulo mayor que 1, o equivalentemente θ 1 < 1. 2.4. Modelos Autorregresivos de Promedios Móviles Definición 2.4.1. Se dice que la serie de tiempo {X t : t Z} es un proceso autorregresivo de medias móviles de órdenes p y q respectivamente y se lo denota por ARMA(p,q), si se verifica que Ẋt = X t µ se puede expresar como (1 φ 1 B φ 2 B 2... φ p B p )Ẋt = (1 + θ 1 B + θ 2 B 2 +... + θ q B q )A t, 19

donde φ 1, φ 2,..., φ p, θ 1, θ 2,..., θ q son constantes con φ p 0 θ q y {A t : t Z} un proceso de ruido blanco con varianza σ 2 A. Una condición suficiente para que el proceso sea estacionario es que las raíces de Φ(B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 sean de módulo mayor que 1 (ver proposición 2). Mientras que una condición suficiente para que el proceso sea invertible es que las raíces de θ(b) = 1 + θ 1 B + θ 2 B 2 +... + θ q B q = 0 sean de módulo mayor que 1 (la demostración es similar a la de la proposición 2). 2.4.1. Modelo ARMA(1,1). Un proceso ARMA(1,1) puede expresarse como Ẋt = φ 1 Ẋ t 1 + A t + θa t 1 o bien como Φ(B)Ẋt = θ(b)a t donde Φ(B) = 1 φ 1 B y θ(b) = 1 + θ 1 B. Como se vió en la proposición 2, este proceso es estacionario si la raíz de Φ(B) = 1 φ 1 B = 0 es de módulo mayor que 1, o equivalentemente φ 1 < 1. En este caso se puede escribir Ẋ t = θ(b) Φ(B) A 1 t = (1 + θ 1 B) (1 φ 1 B) A t = (1 + θ 1 B)( φ i 1B i )A t = (1 + (φ i 1 + θ 1 φ i 1 1 ))A t que es su expresión como media móvil de orden infinito. Similarmente, el proceso será invertible si la raíz de θ(b) = 1 + θ 1 B = 0 es de módulo mayor que 1, es decir si θ 1 < 1. En este caso A t = Φ(B) 1 θ(b) Ẋt = (1 φ 1 B) = (1 φ 1 B)( ( θ 1 ) i B i (1 + θ 1 B)Ẋt )Ẋt = (1+ (θ1 i 1 (φ 1 +θ 1 )( 1) i ))Ẋt que es su expresión como un proceso autorregresivo de orden infinito. Para calcular la función de autocovarianza se puede usar su expresión como media móvil de orden infinito; entonces por (2.1.2) para k 0 γ k = σ 2 A(α k + α i α i+k ) i=1 = σa(φ 2 1 k 1 (φ 1 + θ 1 ) + (φ 1 + θ 1 ) 2 φ k 2 1 (φ 2 1) i ) i=1 φ 2 1 = σa(φ 2 k 1 1 (φ 1 + θ 1 ) + (φ 1 + θ 1 ) 2 φ k 2 1 1 φ 2 1 = σa 2 (φ 1 + θ 1 )φ1 k 1 (1 + φ 1 θ 1 ) 1 φ 2 1 i=1 i=1 y si k = 0 γ 0 = σa 2 αi 2 = σa(1 2 + (φ 1 + θ 1 ) 2 φ 2(i 1) 1 ) = σa(1 2 + (φ 1 + θ 1 ) 2 1 φ 2 ) = σa( 2 1 + 2φ 1θ 1 + θ1 2 1 1 φ 2 ) 1 Por lo tanto, i=1 σa 2 γ k = ( 1+2φ 1θ 1 +θ1 2 ), si k = 0; 1 φ 2 1 (φ 1 +θ 1 )φ k 1 1 (1+φ 1 θ 1 ), si k 1; σ 2 A 1 φ 2 1 20

y ρ k = (φ 1 + θ 1 )φ k 1 1 (1 + φ 1 θ 1 ) 1 + 2φ 1 θ 1 + θ 2 1 si k 1 Los valores de π k decrecerán de forma exponencial dependiendo del signo y magnitud de φ 1 y θ 1. Los siguientes gráficos representan las posibles funciones de autocorrelación y autocorrelación parcial de un proceso ARMA(1,1). φ 1 > θ 1 > 0 θ 1 > φ 1 > 0 θ 1 < φ 1 < 0 φ 1 < θ 1 < 0 21

φ 1 < 0 < θ 1 y φ 1 + θ 1 > 0 φ 1 < 0 < θ 1 y φ 1 + θ 1 < 0 θ 1 < 0 < φ 1 y φ 1 + θ 1 < 0 θ 1 < 0 < φ 1 y φ 1 + θ 1 > 0 2.4.2. Modelo ARMA(p,q) Como se dijo al comienzo de la sección 2.4, si el módulo de las raíces de Φ(B) = 1 φ 1 B φ 2 B 2... φ p B p = 0 son mayores que 1 entonces el proceso será estacionario y se podrá expresar como un proceso de medias móviles de orden infinito X t = α ia t i con α 0 = 1 y α2 i <. Con esta representación se puede calcular la función de autocovarianza ya que en un proceso MA( ) γ k = σa 2 α j α j+k para k 0. 22

Lo único que hace falta es saber el valor de los α i. Para ello se puede recurrir al hecho de que α i x i = θ(x) Φ(x), es decir que (1+α 1 x+α 2 x 2 +...)(1 φ 1 x φ 2 x 2... φ p x p ) = (1+θ 1 x+θ 2 x 2 +...+θ q x q ) e igualando los coeficientes de las sucesivas potencias de x se calculan los α i. Las funciones de autocorrelación y autocorrelación parcial de los procesos ARMA combinan propiedades de los procesos AR y MA: en la función de autocorrelación ciertos primeros valores dependen del orden de la parte MA y después hay un decrecimiento dictado por la parte AR. En la función de autocorrelación parcial los valores iniciales dependen del orden de la parte AR y sigue un decrecimiento debido a la parte MA. Esta estructura compleja hace difícil poder identificar este modelo en la práctica (ver Peña [3]). El siguiente cuadro resume las características de las funciones de autocorrelación de un ARMA: AR(p) Tabla 1 Autocorrelación Muchos coeficientes no nulos que decrecen con el retardo como mezcla de exponenciales y sinoides. q primeros coeficientes no nulos y el resto cero. Autocorrelación Parcial p primeros coeficientes no nulos y el resto cero. M A(q) Muchos coeficientes no nulos que decrecen con el retardo como mezcla de exponenciales y sinoides. ARM A(p, q) Decrecimiento hacia cero. Decrecimiento hacia cero. 2.5. Ejercicios del Capítulo II Ejercicio 2.5.1. Encontrar la función de autocorrelación, la función de autocorrelación parcial y graficar ambas para k = 1, 2, 3, 4, 5. a) X t = 0,5X t 1 + A t b) X t = 0,2X t 1 + 0,5X t 2 + A t c) X t = 0,7X t 1 + 0,1X t 2 + A t Solución. a) Como φ 1 = 0,5 < 1 entonces ρ k = ( 0,5) k y { 0,5, si k = 1; π k = 0, si k > 1; 23

b) La ecuación cuadrática correspondiente es z 2 + 0,2z 0,5 que tiene como raíces a z 1 = 0,614 y z 2 = 0,814 entonces ρ k = c 1 (0,614) k + c 2 ( 0,814) k que con las condiciones iniciales ρ 0 = 1 y ρ 1 + 0,2 0,5ρ 1 = 0 resulta que ρ k = 0,289(0,614) k + 0,71( 0,814) k y φ 1 1 φ 2, si k = 1; 0,4, si k = 1; π k = φ 2, si k = 2; = 0,5, si k = 2; 0, si k > 2; 0, si k > 2; c) La ecuación cuadrática correspondiente es z 2 + 0,7z 0,1 que tiene como raíces a z 1 = 0,121 y z 2 = 0,821 entonces ρ k = c 1 (0,121) k + c 2 ( 0,821) k que con las condiciones iniciales ρ 0 = 1 y ρ 1 + 0,7 0,1ρ 1 = 0 resulta que ρ k = 0,047(0,121) k + 0,953( 0,821) k y φ 1 1 φ 2, si k = 1; 0,777, si k = 1; π k = φ 2, si k = 2; = 0,1, si k = 2; 0, si k > 2; 0, si k > 2; Ejercicio 2.5.2. En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k 1 2 3 4 5 6 ρ k -0.833 0.817-0.742 0.698-0.645 0.602 π k -0.833 0.4 0 0 0 0 b) k 1 2 3 4 5 6 ρ k 0.714 0.657 0.543 0.469 0.397 0.339 π k 0.714 0.300 0 0 0 0 24

c) d) k 1 2 3 4 5 6 ρ k 0.789 0.284-0.284-0.682-0.767-0.537 π k 0.789-0.9 0 0 0 0 k 1 2 3 4 5 6 ρ k -0.929 0.807-0.678 0.558-0.455 0.368 π k -0.929-0.4 0 0 0 0 Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 +φ 2 X t 2 +A t ya que en esos modelos la autocorrelación parcial es φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 Luego φ 2 = 0,4 y φ 1 = 0,5 b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,3 y φ 1 = 0,43 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 25

c) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,9 y φ 1 = 1,5 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 d) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo AR(2) de la forma X t = φ 1 X t 1 + φ 2 X t 2 + A t ya que en esos modelos la autocorrelación parcial es Luego φ 2 = 0,4 y φ 1 = 1,3 φ 1 1 φ 2, si k = 1; π k = φ 2, si k = 2; 0, si k > 2 Ejercicio 2.5.3. En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k 1 2 3 4 5 6 ρ k -0.702 0.222 0 0 0 0 π k -0.702-0.534-0.376-0.180 0.027 0.169 26

b) c) d) k 1 2 3 4 5 6 ρ k 0.489 0.402 0 0 0 0 π k 0.489 0.215-0.357 0.052 0.202-0.133 k 1 2 3 4 5 6 ρ k 0.682 0.187 0 0 0 0 π k 0.682-0.519 0.409-0.315 0.220-0.124 k 1 2 3 4 5 6 ρ k -0.654 0.156 0 0 0 0 π k -0.654-0.476-0.364-0.284-0.224-0.175 Solución. a) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 < 0 y θ 2 > 0 b) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 > 0 y θ 2 > 0 27

c) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 > 0 y θ 2 > 0 d) De acuerdo a los gráficos se puede decir que los valores corresponden a un modelo MA(2) de la forma X t = θ 1 A t 1 + θ 2 A t 2 + A t ya que estos modelos se caracterizan por tener una función de autocorrelación que se anula para los k > 2 y es θ 1 +θ 1 θ 2, si k = 1; 1+θ1 2+θ2 2 ρ k = θ 2, si k = 2; 1+θ1 2+θ2 2 0, si k > 2 Luego θ 1 < 0 y θ 2 > 0 28

Ejercicio 2.5.4. Considere la serie de tiempo {X t } definida por X t µ = θa t 1 +A t, donde 0 < θ 1 y donde {A t } es un proceso de ruido blanco con varianza σ 2 A. Defina el proceso {Y t} como la primera diferencia del proceso X t, es decir Y t = X t X t 1 para todo t Z. a) Qué tipo de proceso es {Y t }? b) Cúal es el valor τ k = cov(y t, Y t+k ) en función de la función de autocovarianza γ del proceso X t? c) Cúal es el valor ρ k = corr(y t, Y t+k ) en función de la función de autocorrelación ρ del proceso X t? d) Es Y t un proceso invertible? Solución. a) b) Y t = X t X t 1 = θa t 1 + A t (θa t 2 + A t 1 ) = A t + (θ 1)A t 1 θa t 2 Por lo tanto, {Y t } es un proceso de medias móviles de orden 2 (MA(2)). τ k = cov(y t, Y t k ) = E[Y t Y t k ] = E[(X t X t 1 )(X t k X t k 1 )] = E[X t X t k ] E[X t X t k 1 ] E[X t 1 X t k ] + E[X t 1 X t k 1 ] = γ k γ k+1 γ k 1 + γ k = 2γ k γ k+1 γ k 1 c) τ 0 = 2γ 0 γ 1 γ 1 = 2(γ 0 γ 1 ) ρ k = 2γ k γ k 1 γ k+1 2(γ 0 γ 1 ) = 2ρ k ρ k 1 ρ k+1 2(ρ 0 ρ 1 ) d) Otra forma de expresar a {Y t } es Y t = (1 + (θ 1)B θb 2 )A t = θ(b)a t. Como θ(b) = (1 + (θ 1)B θb 2 ) = 0 tiene como raíces a b 1 = 1 y b 2 = 1/θ pero b 1 1 entonces {Y t } no es invertible. Ejercicio 2.5.5. Sea {A t } un proceso de ruido blanco con media cero y varianza σa 2 siguientes ecuaciones en diferencias y considere las 29

a) X t 1/2X t 1 = A t 1/3A t 1. b) X t 1/3X t 1 = A t 0,7A t 1 + 0,1A t 2. Para cada una de estas ecuaciones considere el proceso {X t } que es su solución. i. Halle en cada caso la función de autocovarianza del proceso {X t }. ii. Halle en cada caso la función de autocorrelación del proceso {X t }. iii. Calcule a función de autocorrelación parcial π k para k = 1, 2. Solución. a) i. γ k = σa 2 1+θ1 2+2φ 1θ 1 1 φ 2 1 σa 2 (φ 1 +θ 1 )φ k 1 1 (1+φ 1 θ 1 ) 1 φ 2 1 {, si k = 0;, si k 1; = 1,04.σA 2, si k = 0; 0,185 σ 2 2 k 1 A, si k 1; ii. iii. π 2 = ρ k = 5 7 2 k+1 π 1 = ρ 1 = 5/28 = 0,178 1 5/28 5/28 5/56 = 45/759 1 5/28 = 0,059 5/28 1 b) i. Como la raíz de la ecuación característica x 1/3 = 0 es x = 1/3 entonces γ k = c( 1 3 )k donde c es tal que γ k 1/3γ k 1 = σa 2 2 j=k θ jα j k y α k = (1/3) k Entonces para k = 0, 1 tendremos el sistema de ecuaciones γ 0 1/3γ 1 = σa 2 2,333 y γ 1 1/3γ 0 = 2σA 2 de donde sale que γ 1 = 1,375σA 2 y γ 0 = 1,875σA 2 = c Por lo tanto, γ k = 1,875σ 2 A( 1 3 )k ii. ρ k = ( 1 3 )k iii. π 1 = ρ 1 = 1/3. 1 1/3 1/3 1/9 π 2 = = 0 1 1/3 1/3 1 Ejercicio 2.5.6. En cada uno de los siguientes casos grafique los valores dados en la tabla y especifique los modelos de serie de tiempo estacionaria {X t } a los que podría pertenecer los pares de funciones de autocorrelación teórica y de autocorrelación parcial teórica graficadas. Establezca la relación que define en forma general a X t en el modelo identificado y, cuando sea posible, determine el signo de cada uno de los coeficientes involucrados. a) k 1 2 3 4 5 6 ρ k 0.940 0.846 0.762 0.686 0.617 0.555 π k 0.940-0.329 0.129-0.051 0.021-0.008 30

b) c) d) k 1 2 3 4 5 6 ρ k 0.699 0.280 0.112 0.045 0.018 0.007 π k 0.699-0.408 0.286 0.218 0.175-0.145 k 1 2 3 4 5 6 ρ k -0.699 0.280-0.112 0.045-0.018 0.007 π k -0.699-0.408-0.286-0.218-0.175-0.145 k 1 2 3 4 5 6 ρ k -0.940 0.846-0.762 0.686-0.617 0.555 π k -0.940-0.329-0.129-0.051-0.021-0.008 Solución. a) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 > 0. b) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 > 0. c) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 < 0. 31

d) Los gráficos podrían corresponder a un proceso ARMA(1,1) de expresión X t = φ 1 X t 1 + A t + θa t 1 en donde φ 1 < 0. Ejercicio 2.5.7. Sea {X t } un proceso ARMA(1,1) de ecuación donde {X t } es un proceso de ruido blanco. a) Defina el proceso {B t } mediante la igualdad exprese (2.5.1) como X t φ 1 X t 1 = A t + θ 1 A t 1 B t = A t + θ 1 A t 1 (2.5.1) X t φ 1 X t 1 = B t. (2.5.2) Suponiendo que φ 1 < 1 y usando argumentos similares a los empleados en el caso AR(1), demuestre que {X t } puede expresarse como X t = b) Usando (2.5.1) y (2.5.3) comprebe que X t puede expresarse como φ j 1 B t j (2.5.3) X t = A t + (φ 1 + θ 1 ) j=1 φ j 1 1 A t j. c) Suponiendo que θ 1 < 1 y usando (2.5.1) muestre que A t puede expresarse como A t = ( θ 1 ) j B t j (2.5.4) 32

d) Suponiendo que θ 1 < 1 y usando (2.5.2) y (2.5.4) muestre que A t puede expresarse como A t = X t (φ 1 + θ 1 ) j=1 ( θ) j 1 1 X t j. e) Considerese ahora el proceso AR(1) estacionario (causal) {Z t } solución de la ecuación Z t = φ 1 Z t 1 + A t. Demuestre (usando (2.5.1)y (2.5.3)) que X t puede expresarse como X t = Z t + θ 1 Z t 1 (2.5.5) f) Usando (2.5.5) calcule la función de autocovarianza τ del proceso {X t } en términos de la función de autocovarianza del proceso {Z t }. g) Usando el resultado de la parte (f) calcule la función de autocovarianza γ y de autocorrelación ρ del proceso {X t }. Solución. a) b) entonces y X t = φ 1 X t 1 + B t = φ 1 (φ 1 X t 2 + B t 1 ) + B t = φ 2 1X t 2 + φ 1 B t 1 + B t =... j 1 = φ j 1 X t j + φ i 1B t i pues φ 1 < 1. Por lo tanto, j 1 j 1 X t φ i 1B t i = φ j 1 X t j E[X t φ i 1B t i ] = φ j 1 E[X t j] = φ j 1 E[X t] 0 si j X t = = = X t = φ i 1B t i. φ i 1B t i φ i 1(A t i + θ 1 A t i 1 ) φ i 1A t i + φ1 i 1 θ 1 A t i = A t + i=1 i=1 φ i 1 1 (θ 1 + φ 1 )A t i 33

c) Luego, j 1 A t = B t θ 1 A t 1 = B t θ 1 (B t 1 θ 1 A t 2 ) =... j 1 = ( θ 1 ) j A t j + ( θ 1 ) j A t j E[A t ( θ 1 ) j A t j ] = ( θ 1 ) j E[A t j ] = ( θ 1 ) j E[X t ] 0 si j pues θ 1 < 1. Por lo tanto, A t = ( θ 1 ) j B t j. d) A t = = ( θ 1 ) j B t j ( θ 1 ) j (X t i φ 1 X t i 1 ) = X t + ( θ 1 ) j 1 ( θ 1 φ 1 )X t j j=1 = X t (φ 1 + θ 1 ) j=1 ( θ) j 1 1 X t j e) Como Z t es solución de Z t = φ 1 Z t 1 + A t entonces Z t = φi 1 A t i. Y además, Z t + θ 1 Z t 1 = A t + φ i 1A t i + θ 1 φ i 1 1 A t i i=1 = A t + (φ 1 + θ 1 ) = X t i=1 i=1 φ i 1 1 A t i f) Como Z t = φ 1 Z t 1 + A t es un AR(1), entonces la autocorrelación es τ k = σa 2 Luego, φ k 1 1 φ 2 1 si φ 1 < 1. γ k = cov(x t, X t k ) = E[(Z t + θ 1 Z t 1 )(Z t k + θ 1 Z t k 1 )] = E[Z t Z t k ] + θ 1 (E[Z t Z t k 1 ] + E[Z t 1 Z t k ]) + θ 2 1E[Z t 1 Z t k 1 ] = τ k + θ 1 (τ k+1 + τ k 1 ) + θ 2 1τ k g) φ k 1 φ k+1 1 φ k 1 1 γ k = σa 2 1 φ 2 + θ 1 (σa 2 1 1 φ 2 + σa 2 1 1 φ 2 ) + θ1σ 2 A 2 1 1 φ 2 1 φ k 1 1 = σa 2 1 φ 2 (φ 1 + θ 1 (φ 2 1 + 1) + θ1φ 2 1 ) 1 34 φ k 1

Y ρ k = φ k 1 Este ejercicio nos muestra una forma simple de calcular la función de autocovarianza de un proceso ARMA(1,1) a partir de conocer la expresión de la función de autocovarianza de un proceso AR(1). Ejercicio 2.5.8. Sea {X t } un proceso estacionario con función de autocovarianza γ. Defina la función G mediante la igualdad G(z) = γ k z k (2.5.6) k= suponiendo que la serie converge para todo z en un anillo de la forma {z : 1/r < z < r} para algún r > 1. La funcion G definida por (2.5.6) se la llama función generadora de autocovarianzas. a) Cuál es la función generadora de autocovarianzas correspondiente a un proceso de ruido blanco? b) Sea {X t } el proceso de ecuación X t = j= α j A t j (2.5.7) donde {A t } es un proceso de ruido blanco. Suponiendo que existe r > 1 donde j= α j x j converge para todo x {z : 1/r < z < r}, demuestre que la función G puede expresarse como G(z) = σ 2 Aα(z)α(z 1 ) (2.5.8) donde α(x) = α k x k. (2.5.9) k= c) Considere ahora el caso en que {X t } es un proceso ARMA(p,q) de ecuación Φ(B)X t = θ(b)a t (2.5.10) donde Φ(z) es distinto de 0 para z = 1. Expresando apropiadamente (2.5.10) y usando (2.5.7), (2.5.8) y (2.5.9), probar que la función generadora de autocovarianzas de este proceso esta dada por G(z) = σa 2 θ(z)θ(z 1 ) Φ(z)Φ(z 1 para 1/r < z < r. (2.5.11) ) d) Use (2.5.6) y (2.5.11) para hallar la expresión de la función de autocovarianza de un proceso MA(2). Solución. entonces a) Como γ k = { σa 2, si k = 0; 0, si k 0 G(z) = γ 0 z 0 = σ 2 A 35