Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Documentos relacionados
ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Econometría II Grado en finanzas y contabilidad

Econometria con Series Temporales

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Econometria de Series Temporales

Econometría II Grado en finanzas y contabilidad

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Pronóstico con Modelos ARIMA para los casos del Índice de Precios y Cotizaciones (IPC) y la Acción de América Móvil (AM)

Análisis de series temporales: Modelos ARIMA

Técnicas de Predicción Solución Examen Final

Tema 4. El Modelo de Regresión Lineal con Series Temporales.

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Breve Introducción a las Series Temporales

ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

Teorema Central del Límite (1)

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Tema 5: Planteamiento de los modelos de series temporales. Coro Chasco Yrigoyen Universidad Autónoma de Madrid (UAM) Asignatura: Econometría II

MÓDULO X. LA DINÁMICA DE LA ECONOMÍA MUNDIAL PROGRAMA OPERATIVO MATEMÁTICAS ECONOMETRÍA I. Profesor: Noé Becerra Rodríguez.

Tema 10: Introducción a los problemas de Asociación y Correlación

Teoría de la decisión

Unidad Temática 3: Probabilidad y Variables Aleatorias

Repaso de conceptos de álgebra lineal

CURSO ECONOMETRÍA BÁSICA MULTISOFTWARE

Análisis de series temporales

ANÁLISIS DE FRECUENCIAS

T2. El modelo lineal simple

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

CAPÍTULO 6. Modelos ARMA para la Componente Aleatoria Introducción

INDICE. Prólogo a la Segunda Edición

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Máster en comunicaciones. Clase 2. Modelos predictores.

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

Estadística Industrial. Universidad Carlos III de Madrid Series temporales Práctica 5

Métodos y Modelos Cuantitativos para la toma de Decisiones

FINANZAS CORPORATIVAS

Tema Contenido Contenidos Mínimos

Aplicación del modelo de frontera estocástica de producción para analizar la eficiencia técnica de la industria eléctrica en México

Escuela Nacional de Estadística e Informática ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelación con ARMA

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA

Unidad IV: Distribuciones muestrales

Introducción a los Procesos Estocásticos

Procesos estocásticos. Definición

CUESTIONES Y PROBLEMAS DE DISTRIBUCIONES DE FRECUENCIAS BIDIMENSIONALES PROPUESTOS EN EXÁMENES

Clase 3. Procesos estocásticos en Teoría de la señal.

TEMA 8. GEOMETRÍA ANALÍTICA.

Series Temporales. Teresa Villagarcía

INDICE Prefacio 1. Introducción 2. Distribuciones de frecuencia: tablas estadísticas y graficas

4. NÚMEROS PSEUDOALEATORIOS.

Profundización teórica de modelos de volatilidad ARCH - GARCH y una aplicación al caso colombiano

Procesos estocásticos Cadenas de Márkov

ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

Pronósticos Automáticos

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

07 Estimación puntual e introducción a la estadística inferencial

Universidad Nacional Autónoma de México Laboratorio de Cómputo Científico, F. C.

Gobierno de La Rioja MATEMÁTICAS CONTENIDOS

Estadística para el análisis de los Mercados S3_A1.1_LECV1. Estadística Descriptiva Bivariada

PRÁCTICA I. Ejercicios Teóricos

Resumen teórico de los principales conceptos estadísticos

Tema 6: Modelos de probabilidad.

Pronósticos, Series de Tiempo y Regresión. Capítulo 4: Regresión Lineal Múltiple

Tema 3: Análisis de datos bivariantes

Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación.

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Unidad 1: Espacio de Probabilidad

Identificación Paramétrica

ECONOMETRIA ORDEN DE INTEGRACIÓN N Y RAÍCES UNITARIAS. Mtro. Horacio Catalán Alonso

Desempeño de Medidas de Riesgo sobre Distribuciones de Valores Extremos

Coordinación de Matemática I (MAT021) 1 er Semestre de 2013 Semana 7: Lunes 22 - Viernes 27 de Abril. Contenidos

Contenidos IB-Test Matemática NM 2014.

Tribunal de la Oposición al Cuerpo Superior de Estadísticos del Estado

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

Prof. Eliana Guzmán U. Semestre A-2015

Guía docente 2007/2008

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Cálculo de Probabilidades II Preguntas Tema 1

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Gráfico 1: Evolución del exceso de rentabilidad de la empresa y de la cartera de mercado

Probabilidad y Estadística

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

CM0244. Suficientable

x^new = x^old + K(b new A new x^old )

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

ADMINISTRACION DE OPERACIONES

Conceptos Básicos de Inferencia

Tercera práctica de REGRESIÓN.

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Variables aleatorias bidimensionales discretas

Facultad de Ciencias Sociales - Universidad de la República

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

Transcripción:

1 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Yeison López Lizcano Universidad de Granada Departamento de Estadística e Investigación Operativa Granada, España 2016

2 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Yeison López Lizcano Trabajo presentado como requisito parcial para optar al título de de: Máster en Estadística Aplicada Director: Dr. Francisco Javier Alonso Morales Línea de Investigación: Análisis de series temporales. Aplicaciones a riesgos financieros Universidad de Granada Departamento de Estadística e Investigación Operativa Granada, España 2016

3 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

4 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Dedicatoria Para mi padre, mi madre, mi hermano y mi cuñada, quienes gracias a su esfuerzo, apoyo y dedicación hicieron este trabajo posible. En el campo de la investigación el azar no favorece más que a los espíritus preparados. Louis Pasteur

5 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

6 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Contenido Introducción 10 1 Conceptos básicos... 13 1.1 Componentes... 13 1.1.1 Tendencia.... 13 1.1.2 Estacionalidad.... 13 1.1.3 Aleatoriedad.... 13 1.2 Clasificación de las series temporales... 14 1.2.1 Serie homocedástica:... 14 1.2.2 Serie heterocedástica.... 14 1.2.3 Procesos estocásticos.... 14 1.2.4 Clasificación de procesos estocásticos.... 14 1.2.5 Función de distribución.... 15 1.3 Momentos... 15 1.3.1 Primer momento.... 15 1.3.2 Segundo momento.... 15 1.4 Procesos estacionarios.... 15 1.4.1 Estacionariedad estricta.... 16 1.4.2 Estacionariedad débil.... 16 1.5 Funciones de autocovarianzas y autocorrelación.... 17 1.5.1 La función de autocovarianzas.... 17 1.5.2 Función de Autocorrelación ACF.... 17 1.5.3 Ruido blanco.... 17 1.6 Modelos para series de tiempo estacionarias.... 18 1.6.1 Modelo lineal general.... 18 1.6.2 Parámetros del proceso:... 19 1.7 Proceso lineal estacionario.... 20 1.7.1 Estacionariedad de un proceso AR(1).... 20 1.7.2 Proceso autorregresivo de orden p: AR(2).... 23 1.7.3 Primer momento del proceso.... 24 1.7.4 Función de autocovarianza y autocorrelación.... 24

7 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 1.8 La estimación de los procesos autorregresivos.... 27 1.8.1 Proceso de Medias Móviles de orden 1, MA(1):... 28 1.8.2 Proceso de Medias Móviles de orden 2, MA(2):... 30 1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q).... 32 1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1): 33 1.9.2. Modelos lineales no estacionarios.... 35 1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q).... 36 1.9.4 Modelo de Paseo Aleatorio.... 37 1.9.5 Modelo de Paseo Aleatorio con deriva.... 37 1.9.6 Modelos Heterocedásticos Condicionales.... 38 1.9.7 Modelo autorregresivo condicional heterocedástico de orden p: ARCH(p).... 38 1.9.8 Proceso ARCH(1)... 39 1.9.9 Valor esperado no condicionales.... 40 1.9.10 Función de autocovarianza.... 41 1.9.11 Esperanza y varianza condicional... 43 1.9.12 Función de verosimilitud del proceso ARCH(1).... 43 1.9.13 Generalización ARCH(p)... 45 1.9.14 Generalización de la esperanza y varianza no-condicionales.... 45 1.9.15 Estimación de parámetros.... 47 1.9.16 Modelo Autoregresivo Condicional Heterocedástico Generalizado. (GARCH)... 48 1.9.17 Definición proceso GARCH (p,q)... 48 1.9.18 Correlación de un proceso GARCH.... 49 1.9.19 Proceso GARCH fuerte (p, q).... 49 1.9.20 Proceso GARCH(1,1).... 50 1.9.21 Estacionariedad estricta del proceso GARCH fuerte(1, 1):... 50 1.9.22 Condición estricta de estacionariedad.... 50 2. Capítulo 2. Algunos comandos en R.... 52 2.1. Limpiar y preparar la información.... 52 2.2. Lectura de la información y librerías a utilizar.... 52 2.3. Convertir la información en una serie de tiempo.... 53

8 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 2.4. Estadísticas descriptivas y gráfico de la función pura.... 53 2.5 Prueba de independencia en los rezagos.... 53 2.6 Prueba de efectos ARCH.... 53 2.7 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el modelo ARIMA.... 54 2.8 Modelos ARIMA propuestos.... 54 2.9 Selección del modelo ARIMA.... 54 2.10 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el modelo ARCH/GARCH.... 55 2.11 Modelos ARCH/GARCH propuestos.... 55 2.12 Selección del modelo ARCH/GARCH.... 56 2.13 Modelo ARCH/GARCH seleccionado.... 56 2.14 Gráfico del modelo ARIMA y GARCH.... 56 3 Capítulo 3. Aplicación de una serie de tiempo económica utilizando R.... 57 3.1 Lectura de la información y librerías a utilizar.... 57 3.2 Convertir la información en una serie de tiempo.... 57 3.3 Estadísticas descriptivas y gráfico de la función pura.... 57 3.4 Prueba de independencia en los rezagos.... 58 3.5 Prueba de efectos ARCH.... 59 3.6 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP) para el modelo ARIMA.... 59 3.7 Modelos ARIMA propuestos.... 62 3.8 Selección del modelo ARIMA.... 62 3.9 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP) para el modelo ARCH/GARCH.... 62 3.10 Modelos ARCH/GARCH propuestos.... 63 3.11 Selección del modelo ARCH/GARCH.... 64 3.12 Modelo ARCH/GARCH seleccionado... 64 3.13 Gráfico de los retornos de Precio de cierre de la TRM Colombiana con los intervalos de confianza del modelo GARCH.... 65 4 Anexos.... 67 4.1 Pruebas de raíz unitaria.... 67 4.2 Dickey-Fuller (DF) y Dickey-Fuller aumentada(adf)... 68 Bibliografía... 70

9 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

10 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Introducción. En el estudio y análisis de las series de tiempo se busca explicar la naturaleza de una variable (económica) y la relación de esta con otras variables a lo largo del tiempo. En el capítulo uno estudiaremos algunos de los elementos que componen esa variable económica y que suelen encontrarse como una serie de observaciones dependientes ordenadas en el tiempo, donde además es necesario construir un modelo que replique el comportamiento de estos datos en un tiempo dado t, pero antes de esto hay que determinar si la serie presenta o no estacionalidad y cómo influyen las observaciones del pasado en el futuro, es decir la correlación entre la variable de interés y sus valores pasados permitirá estudiar los modelos lineales estacionarios. El análisis de las funciones de autocorrelación (ACF) y la función de autocorrelación parcial (FACP) junto con el proceso de ruido blanco (WN), permitirán clasificar los modelos lineales estacionarios y no estacionarios a partir de sus características más esenciales. Empezaremos describiendo el proceso AR(p) donde a partir de los procesos autoregresivos (de memoria larga) quienes presentan una característica temporal, la cual será útil mencionar en cuanto a la absorción de perturbaciones en un tiempo t, pero existen otro tipo de series que absorben ligeramente estas perturbaciones y no se pueden modelar mediante procesos AR, y para ello se introducen los modelos que presenten memoria corta, es decir que presenten Media Móvil MA(q). Ahora analizaremos aquellas series donde el número de parámetros juega un papel fundamental en la descripción estructural y dinámica de los datos, es conveniente hacer una reducción de estos parámetros y para ello se recurre al proceso ARMA(p,q) que surge de la combinación de estructuras autorregresivas y de media móvil donde la estructura AR(p) y MA(q) presentan sus respectivas funciones FAC y FACP junto con el proceso ruido blanco (WN). En los apartados anteriores, se describieron aquellos conceptos en donde en términos generales se muestran algunas técnicas que, se fundamentan en identificar las características más relevantes de los modelos AR y MA, junto con sus respectivas funciones de autocorrelación y los procesos ruido blanco. El supuesto general para estos modelos fue que los datos de series de tiempo se pueden representar como la suma de dos componentes distintas: determinista y estocástica (aleatoria). El primero se modela como una función del tiempo, mientras que para este último se asumió que algo de ruido aleatorio que se añade a la señal

11 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. determinista genera el comportamiento estocástico de la serie temporal. Un supuesto muy importante es, que el ruido aleatorio se genera a través de los choques independientes al proceso. En la práctica, sin embargo, esta suposición es a menudo vulnerada. Esto es, por lo general observaciones sucesivas muestran la dependencia de serie. Vamos a explorar una clase general de modelos llamados autorregresivo integrado en promedio móvil, de los modelos o modelos ARIMA (también conocidos como modelos Box-Jenkins) (Montgomery., Jennings, & Kulahci, 2008). Analizando los procesos anteriores, es momento de adentrarnos en los procesos heterocedásticos condicionales, donde podemos observar los procesos ARCH y GARCH y sus características en el modelamiento de series de tiempo. Los procesos ARCH quienes bajo el supuesto de suavizar la hipótesis de normalidad, con la condición que se tengan procesos ruido blanco generados por variables dependientes. Para el proceso GARCH o ARCH generalizado, desarrollado por Bollerslev(1986), quien propone una serie de retardos en la varianza condicional al modelo, esto con el fin de dar una mayor precisión e incluir los valores pasados con menores rezagos para valores más distantes, esto caracteriza un modelo GARCH. En el capítulo dos se muestran algunos comandos en R que posteriormente se utilizaran para analizar una serie económica, esto con el fin de modelarla a partir de las herramientas conceptuales vistas en el capítulo uno. En capítulo 3 se mostrara una aplicación de una serie económica, La serie económica estudiada será la tasa de cambio representativa del mercado (TRM) diaria Colombiana de la página del Banco de la República, donde el objetivo principal es construir el modelo que describe la serie de tiempo a partir de sus componentes.

12 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

13 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Capítulo 1. 1 Conceptos básicos. El análisis de datos en contextos sociales, físicos, biológicos, geológicos, entre otros, es una herramienta de estudio muy importante, consiste en identificar si esos datos cuentan con algún patrón (orden) y si también dependen de algún parámetro temporal, si es así entonces estamos considerando definirlo como una serie temporal (serie de tiempo) donde identificamos sus características más relevantes en cuanto a la naturaleza de los datos y la forma en la que se cuantifican, es decir si estas series de tiempo resultan ser de tipo discreto o continuo y si su orden de aparición (cronológico) en una característica es de forma escalar o (univariado) o de varias características o vectorial (multivariado). Es necesario explorar la naturaleza de los datos y su comportamiento en el tiempo, de forma descriptiva (tendencia central, dispersión, deformación y apuntamiento) y también analizar la forma en la que surgen estos datos que no necesariamente es determinística, sino que fluctúan de manera aleatoria (probabilística) en el tiempo, por lo que analizaremos su comportamiento como una secuencia de variables aleatorias encapsuladas a medida que van emergiendo en el tiempo. Con este panorama empezaremos definiendo formalmente una serie de tiempo y sus componentes principales. 1.1 Componentes En el análisis de series temporales se recurre a la descomposición de la variable de observación en varias componentes, de las cuales enfocaremos nuestra atención en aquellas que presentan tendencia o periodicidad para analizarlas bajo parámetros temporales (a largo plazo) y también su comportamiento estacional y aleatorio. 1.1.1 Tendencia. Empezaremos describiendo el comportamiento de una serie temporal a partir de los cambios que presenta la media a largo plazo. La tendencia la definiremos como el movimiento que sufre la serie temporal a largo plazo. 1.1.2 Estacionalidad. La variación de la serie en algún periodo de tiempo se conoce como efecto estacional. El concepto de estacionariedad se puede caracterizar bien en términos de la función de distribución o de los momentos del proceso (Casimiro, 2009). 1.1.3 Aleatoriedad. En una serie temporal la tendencia y la estacionariedad resultan ser de naturaleza determinística, mientras que la aleatoriedad es de naturaleza probabilística por lo

14 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. que resultara útil inferir el comportamiento de la serie temporal a lago plazo seleccionando una distribución de probabilidad adecuada para dicho fin. 1.2 Clasificación de las series temporales 1.2.1 Serie homocedástica: Una serie homocedástica es aquella donde la varianza de los errores estocásticos de la regresión se mantiene constante a lo largo de las observaciones, es decir la varianza no cambia en el tiempo. 1.2.2 Serie heterocedástica. Una serie se clasifica como heterocedástica si su variabilidad aumenta o disminuye con el tiempo, pero también analizaremos una serie no estacionaria cuando los cambios en la media determinan una tendencia a crecer o decrecer a largo plazo, por lo que la serie no oscila alrededor de un valor constante. (Villavicencio, 2014) 1.2.3 Procesos estocásticos. La secuencia de variables aleatorias {Xt: t = 0, ± 1, ± 2, ± 3,...} que se denomina un proceso estocástico y sirve como un modelo para una serie de tiempo observado. (Cryer & Chan, 2008). En términos un poco más generales, un proceso estocástico resulta ser una colección variables ordenadas {Xt}, de acuerdo a un parámetro t, sobre el conjunto de los números enteros t = 0, ± 1, ± 2,..., o algún subconjunto de los números reales. Si el proceso es estocástico, cada valor de datos de la serie puede ser vista como una media de la muestra de una distribución de probabilidad de una población subyacente en cada punto en el tiempo (Yaffee & McGee, 1999). 1.2.4 Clasificación de procesos estocásticos. Una posible clasificación de los procesos estocásticos consistiría en analizar tanto la variable temporal como las características de cada una de las Variables Aleatorias involucradas. Concretamente: Proceso estocástico continuo: en este caso, la variable t es continua, y cada una de las variables de X(t) toman valores en un rango continuo. Proceso estocástico discreto: en este caso, la variable t es continua, pero las variables de X(t) son Variables Aleatorias discretas. Secuencia aleatoria continua: la variable de indexación temporal es discreta, pero las Variables Aleatorias involucradas toman valores en un rango continuo. Típicamente lo denotaremos por X[n]. Secuencia aleatoria discreta: secuencia (como la anterior) de Variables Aleatorias discretas. La denotaremos como la anterior (López, 2004).

15 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. La forma en la que se pueden clasificar los procesos estocásticos depende directamente en la función de distribución y sus momentos, a continuación se describirán estas características. 1.2.5 Función de distribución. La función de distribución de un proceso estocástico incluye todas las funciones de distribución (univariado, multivariado) para cualquier subconjunto finito de variables aleatorias del proceso (Casimiro, 2009): F[X t1, X t2, X t3,, X tn ], (t 1, t 2, t 3,, t n ); donde n es finita 1.3 Momentos. Resulta bastante complejo identificar las características que definen un proceso estocástico a partir de solamente su función de distribución, entonces identificaremos las características más esenciales a partir de los dos primeros momentos. 1.3.1 Primer momento. Se genera a partir del conjunto de medias que pertenecen al proceso estocástico (conjunto de variables aleatorias) E(X t ) = μ t <, t = ±1, ±2, ±3, (1) 1.3.2 Segundo momento. Se genera a partir del conjunto de varianzas que pertenecen al proceso estocástico, (conjunto de variables aleatorias) además de la relación entre cada par de variables aleatorias que la definiremos como covarianza. V(X t ) = E(X t μ t ) 2 = σ t 2, <, t = ±1, ±2, ±3, (2) cov(x t X s ) = E[X t μ t ][X s μ s ] = γ t,s, t, s(t s) (3) En el caso normal, los dos primeros momentos caracterizan la distribución. 1.4 Procesos estacionarios. Para algunos autores tales como Box y Jenkins (1976) esta propiedad supone requerir al proceso un estado particular de equilibrio estadístico. La base del análisis de series de tiempo es la estacionariedad, por ello es importante formalizar dicho concepto (Cobis, 2011).

16 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 1.4.1 Estacionariedad estricta. Este tipo de estacionalidad conviene hablar de la función de distribución y lo definiremos como un proceso estocástico donde, Xt, es estacionario en sentido estricto si cumple la condición: F[X t1, X t2, X t3,, X tn ] = F[X t1+k, X t2+k, X t3+k,, X tn+k ], (t 1, t 2, t 3,, t n ) (4) Lo que significa que, si la función de distribución de cualquier conjunto finito de n variables aleatorias del proceso no sufre alguna alteración si se traslada k periodos en el tiempo. 1.4.2 Estacionariedad débil. Un proceso estocástico, Xt, es estacionario en covarianza si y solo si: Las medias de las variables aleatorias un proceso son finitas y constantes, es decir hablamos de una estacionariedad de primer momento. E(X t ) = μ < ; t (5) La dispersión de todas las variables aleatorias, en torno a la media constante, es la misma para todas las variables del proceso a lo largo del tiempo, es decir tienen la misma varianza y es finita. V(X t ) = E(X t μ t ) 2 = σ 2, <, t (6) Las autocovarianzas solo dependen de la distancia en los periodos de dispersión entre las variables y no del tiempo, es decir, la covarianza lineal entre dos variables aleatorias del proceso que disten k periodos de tiempo es la misma que existe entre cualesquiera otras dos variables que estén separadas también k periodos, independientemente del momento concreto de tiempo al que estén referidas (Casimiro, 2009). Cov(X t X s ) = E[X t μ t ][X s μ s ] = γ t s = γ k <, k (7) El proceso estocástico resultara estacionario débilmente si: E(X t ) = μ < ; t (8) Cov(X t X s )= { V(X t) = σ 2, <, t = s γ t s = γ k <, t s (9)

17 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Si un proceso estocástico es estacionario débilmente y si su distribución es Normal, entonces es estacionario en sentido estricto (Casimiro, 2009). 1.5 Funciones de autocovarianzas y autocorrelación. 1.5.1 La función de autocovarianzas. Un proceso estocástico estacionario es una función de k (número de periodos de separación entre las variables) que recoge el conjunto de las autocovarianzas del proceso y se denota por: Propiedades. γ k, k = 1,2,3, Para k=0 se incluye la varianza γ 0 = E[X t μ ][X t μ ] = V(X t ) Es función simétrica γ k = E[X t μ ][X t+k μ ] = E[X t μ ][X t k μ ] = γ k 1.5.2 Función de Autocorrelación ACF. Este coeficiente mide la fuerza de la dependencia lineal entre dos variables X e Y, donde podemos evidenciar que este coeficiente se encuentra entre los valores -1 ρxt,xs 1, además ρxt,xs = ρxs,xt. Cabe hacer notar también que si las dos variables aleatorias no están correlacionadas linealmente, los valores del coeficiente serán ρxt,xs = 0. Además, si X e Y son variables aleatorias normales, entonces ρxt,xs = 0 si y sólo si X e Y son independientes. Los coeficientes de correlación entre dos variables aleatorias X e Y se define de la siguiente manera: ρ Xt X s = T t,s=1 (X t μ t )(X s μ s ) T t,s=1(x t μ t ) 2 T t,s=1(x s μ s ) 2 (10) Una serie no es correlacionada formalmente si y solo si ρxt,xs = 0 para todo t,s > 0. La representación de una correlación serial es congruente a la correlación de una variable con ella misma en intervalos sucesivos de tiempo. 1.5.3 Ruido blanco. Una serie de tiempo xt se denomina ruido blanco si {xt} es una secuencia de variables aleatorias independientes e idénticamente distribuidas con media y varianza finita. En particular, si xt tiene una distribución normal con media cero y varianza σ 2, la serie se denomina ruido blanco gaussiano (TSAY, 2005).

18 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Simbolizaremos al proceso ruido blanco como: ε t, t ε t ~ N(0, σ 2 ) E(ε t ) = 0, t V(ε t ) = σ 2, t Cov(ε ti, ε tj ) = 0, t i t j 1.6 Modelos para series de tiempo estacionarias. 1.6.1 Modelo lineal general. Un proceso lineal general, {Xt}, es uno que se puede representar como una combinación lineal ponderada de los términos de ruido blanco presentes y pasados que se descompone la serie Xt en dos partes, una que recoge el patrón de regularidad, o parte determinística, y otra parte puramente aleatoria, denominada también innovación (Casimiro, 2009): X t = ε t Ψ 1 + ε t 1 Ψ 2 + ε t 2 Ψ 3 + Dada una serie temporal de media cero, como el valor de X en el momento t depende de su pasado, un modelo teórico capaz de describir su comportamiento sería: F[X t 1, X t 2, X t 3,, ] + ε t t = 1,2,3, (11) En el caso de los procesos estacionarios distribuidos normalmente con media cero, podríamos señalar que en los procesos estocásticos bajo condiciones muy generales, Xt se puede representar como combinación lineal de los valores pasados infinitos de la variable X más un proceso ruido blanco: X t = Ψ 1 X t 1 + Ψ 2 X t 2 + Ψ 3 X t 3 + + ε t t = 1,2,3, (12)

19 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 1.6.2 Parámetros del proceso: a) En un proceso, es indispensable que el presente no venga determinado por el futuro, es decir que no permita ser anticipado, para que luego el valor de X en el momento t no pueda depender de valores futuros de X o de los procesos de ruido blanco ε t. b) Invertibilidad, en este caso, el presente dependa de forma convergente de su propio pasado lo que involucra que la influencia de Xt k en Xt ha de ir disminuyendo conforme nos alejemos en el pasado. Para el modelo general (12) cumplen la siguiente restricción: Ψ i 2 < i=1 El modelo (12) se puede reescribir en términos del operador de retardos: X t = X t (Ψ 1 L + Ψ 2 L 2 + Ψ 3 L 3 + ) + ε t (1 Ψ 1 L Ψ 2 L 2 )X t = ε t Ψ(L)X t = ε t X t = 1 Ψ(L) ε t X t = ψ(l)ε t X t = (1 + ψ 1 L + ψ 2 L 2 + ψ 3 L 3 + )ε t X t = ε t + ψ 1 ε t 1 + ψ 2 ε t 2 + ψ 3 ε t 3 + t = 1,2,3, (13) Cumpliendo la restricción anteriormente descrita, observamos que el valor Xt se puede simbolizar como la combinación lineal del ruido blanco ε t y su pasado infinito. Esta restricción implica que el valor presente depende de forma convergente de las innovaciones pasadas, es decir, la influencia de la parte determinística ε t k va desapareciendo conforme se aleja en el pasado (Casimiro, 2009). La teoría de polinomios nos proporciona una información valiosa ya que, bajo condiciones muy generales, un polinomio de orden infinito puede aproximarse mediante un cociente de la siguiente forma: (L) = φ p(l) θ q (L)

20 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Los polinomios φ p (L)y θ q (L) representan los retardos infinitos φ p (L) = 1 φ 1 (L) φ 2 (L 2 ) φ p (L p ) θ q (L) = 1 θ 1 (L) θ 2 (L 2 ) θ q (L q ) Reemplazando en el modelo (12) hallamos (L) X t = φ p(l) θ q (L) X t = ε t φ p (L)X t = θ q (L)X t Teniendo en cuenta las restricciones anteriormente mencionadas, es momento de representar de tres formas los modelos a partir de estos supuestos: Forma puramente autorregresiva (1), AR( ): el valor actual de la variable se representa en función de su propio pasado más un proceso ruido blanco presente. Forma puramente de medias móviles (2), MA( ): el valor actual de la variable se representa en función de todos los ruidos blancos presentes y pasados. forma finita: φ p (L)X t = θ q (L)ε t (1 φ 1 (L) φ 2 (L 2 ) φ p (L p )) X t = (1 θ 1 (L) θ 2 (L 2 ) θ q (L q )) ε t X t = φ 1 X t 1 + φ 2 X t 2 + + φ p X t p + ε t θ 1 ε t 1 θ 2 ε t 2 θ q ε t q X t = φ 1X t 1 + φ 2 X t 2 + + φ p X t p Forma Autorregresiva + ε t θ 1 ε t 1 θ 2 ε t 2 θ q ε t q Forma medias móviles 1.7 Proceso lineal estacionario. 1.7.1 Estacionariedad de un proceso AR(1). Teniendo en cuenta que en los modelos lineales se deben identificar ciertas características para el cual un proceso contiene un valor pasado inmediato, es decir, el primer retardo xt 1 es estadísticamente significativo en el pronóstico de xt comúnmente se expresa como

21 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. X t = φ 0 + φ 1 X t 1 + ε t (14) Este proceso representa uno de los modelos que con mayor frecuencia se usa para el análisis de las series temporales, y usualmente se le denomina proceso autorregresivo de primer orden AR(1), con lo que empezaremos la descripción del proceso a partir de sus valores condicionados para media y varianzas a partir de sus valores pasados. E(X t X t 1 ) = φ 0 + φx t 1 + ε t (15) Var(X t X t 1 ) = Var(ε t ) 2 = σ εt (16) Ahora podemos pensar en definir el proceso AR(1) como la adición de dos componentes, una de las cuales se puede establecer a partir de la información del pasado y la otra componente un término aleatorio con una estructura a precisar (retomando la definición y propiedades de ruido blanco). Entonces, reescribiremos el proceso autorregresivo de orden uno AR(1) como sigue: X t = E(X t X t 1 ) + ε t (17) Para cualquier valor del parámetro, el modelo AR(1) las siguientes condiciones. es estacionario si cumple Estacionario en media E(X t ) = E(φ 0 + φ 1 X t 1 + ε t ) E(X t ) = φ 0 + φe(x t 1 ) La condición de estacionariedad se cumple cuando la media es constante y finita E(X t ) = φ 0 + φe(x t 1 ) (1 φ)e(x t ) = φ 0 El proceso es estacionario si φ < 1 E(X t ) = φ 0 (1 φ)

22 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Estacionario débilmente. Si el proceso AR(1) presenta varianza constante en el tiempo, entonces se dice estacionario en varianza γ 0 = E(X t E(X t )) 2 = E(φX t 1 + ε t 0) 2 = φ 2 V(X t 1 ) + σ 2 Teniendo en cuenta la autocorrelación del proceso E(X t 1 ε t ) = E[(X t 1 0)(ε t 0)] = cov(x t 1 ε t ) = 0 Con la condición de estacionariedad Donde Entonces E(X t 1 ) 2 = V(X t 1 ) = V(X t ) = γ 0 γ 0 = φ 2 γ 0 + σ 2 σ2 γ 0 = 1 φ 2 Para que se cumpla la condición de estacionariedad, la varianza debe ser constante y finita si y solo si φ <1 La función de autocovarianza de k-esimo orden será: γ k = E[(X t E(X t )][X t k E(X t k )] = E[(φX t 1 + ε t )(X t k )] γ k = φe(x t X t k ) + E(ε t X t k ) = φγ k 1 Teniendo en cuenta que: γ 1 = φγ 0 γ 2 = φγ 1 γ 3 = φγ 2...

23 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. γ k = φγ k 1 Con lo que se puede deducir que el proceso es estacionario si y solo si φ < 1 Verificando que el proceso sea autorregresivo de orden 1 AR(1) y además estacionario si y solo si φ < 1. Y su función de autocovarianza estará definida a partir de: σ 2 γ k = { 1 φ 2 k = 0 φγ k 1 k > 0 Definiendo la función de autocorrelación de un proceso autorregresivo de orden 1 AR(1) donde: ρ k = { 1 k = 0 φρ k 1 k > 0 ρ k = φ k k 0 Las características esenciales para un proceso AR(1) vienen dadas a partir de: El modelo AR(1) es estacionario siempre que φ < 1. La representación gráfica de la función de autocorrelación mostrará un comportamiento hacia cero con todos sus valores positivos cuando φ > 0, mientras que si φ < 0 se alternará el signo, comenzando con negativo (Villavicencio, 2014). 1.7.2 Proceso autorregresivo de orden p: AR(2). Consideraremos un modelo AR(2) de la forma X t = φ 0 + φ 1 X t 1 + φ 2 X t 2 + ε t (18) Retomando lo aplicado en el modelo AR(1) resulta: E(X t ) = μ = φ 0 (1 φ 1 φ 2 ) Con la condición que φ 1 + φ 2 1 y de forma más conveniente expresaremos a φ 0 de la forma: φ 0 = (1 φ 1 φ 2 )μ

24 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Reemplazando y reescribiendo obtendremos (X t μ) = φ 1 (X t 1 μ)+ φ 2 (X t 2 μ) + ε t Ahora consideraremos la estacionariedad del proceso AR(2), a partir del análisis de su primer y segundo momento. 1.7.3 Primer momento del proceso. Una característica que enmarca la estacionariedad de un proceso AR(2) consiste en que se debe validar que la media sea constante y finita en el tiempo. En términos del operador de retardo (L) se tiene: E((1 φ 1 L φ 2 L 2 )x t ) = E(X t ) (1 φ 1 L φ 2 L 2 )E(X t ) = 0 E(X t ) = φ 0 1 φ 1 L φ 2 L 2 E(X t ) = 0 1.7.4 Función de autocovarianza y autocorrelación. Para que el proceso es estacionario, la función de autocovarianza y autocorrelación no deben depender de un parámetro temporal. γ k = E[(X t E(X t ))(X t k E(X t k ))] γ k = E[(X t )(X t k )] γ k = E[(φ 1 X t 1 + φ 2 X t 2 + ε t )(X t k )] γ k = φ 1 γ k 1 + φ 2 γ k 2 Donde γ 0 : γ 0 = E(X t E(X t )) 2 = E(X t ) 2 γ 0 = (φ 1 X t 1 + φ 2 X t 2 + ε t ) 2 γ 0 = φ 2 1 γ 0 + φ 2 2 γ 0 + σ 2 + 2φ 1 φ 2 γ 1 γ 0 φ 2 1 γ 0 φ 2 2 γ 0 = σ 2 + 2φ 1 φ 2 γ 1

25 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Y ahora γ 1 : γ 0 = σ2 + 2φ 1 φ 2 γ 1 1 φ 1 2 φ 2 2 γ 1 = E[(X t )(X t 1 )] γ 1 = E[(φ 1 X t 1 + φ 2 X t 2 + ε t )(X t 1 )] γ 1 = φ 1 E(X t 1 ) 2 + φ 2 E(X t 2 X t 1 ) + E(ε t x t 1 ) γ 1 = φ 1 γ 0 + φ 2 γ 1 γ 1 = φ 1γ 0 1 φ 2 El proceso es estacionario en sentido débil si y solo si se cumple la condición: 1 φ 1 2 φ 2 2 0; y φ 2 1. Donde su función de covarianza estará generada por: σ 2 + 2φ 1 φ 2 γ 1 1 φ 2 2 1 φ 2 k = 0 γ k = φ 1 γ 0 1 φ 2 k = 1 { φ 1 γ k 1 + φ 2 γ k 2 k > 1 La función de autocorrelación de un proceso autorregresivo AR(2), definida por: 1 k = 0 φ 1 ρ k = { 1 φ 2 k = 1 φ 1 ρ k 1 + φ 2 ρ k 2 k > 1 Para concluir con los procesos AR(p), se muestran las condiciones de estacionariedad para el modelo AR(1) y AR(2). Modelo AR(1): De la ecuación expresada por el operador de retado Polinomio autorregresivo: (1 φl)x t = ε t φ 1 (L) = 1 φl

26 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Raíces: 1 φl = 0 L = 1 φ La condición de estacionariedad para el modelo AR(1) es: L = 1 φ > 1 φ < 1 Modelo AR(2): De la ecuación expresada por el operador de retado (1 φ 1 L φ 2 L 2 )X t = ε t Polinomio autorregresivo: φ 2 (L) = 1 φ 1 L φ 2 L 2 Raíces: 1 φ 1 L φ 2 L 2 = 0 L 1, L 2 = φ 1 ± φ 1 2 + 4φ 2 2φ 2 La condición de estacionariedad para el modelo AR(2) es: L 1 = φ 1 + φ 2 1 + 4φ 2 > 1 y L 2φ 2 = φ 1 φ 2 1 + 4φ 2 > 1 2 2φ 2 En la literatura de series de tiempo, las dos de las soluciones se conocen como las raíces características del modelo de AR(2). Se Denotan las dos soluciones por ω1 y ω2. Si para los valores de ωi que pertenecen al conjunto de los reales, entonces la ecuación de diferencia de segundo orden del modelo, se puede factorizar como (1 - ω1l) (1 - ω2l) y el modelo AR(2) puede ser considerado como un modelo AR(1), funcionando por encima de otro modelo AR(1). La función de autocorrelación (ACF) de X t es entonces una mezcla de dos degradaciones exponenciales. Si φ 1 2 + 4φ 2 < 0, entonces ω1 y ω2 son números complejos (llamados un par complejo conjugado), y un gráfico de la ACF de mostrarían una imagen de amortiguación ondas de seno y coseno. En aplicaciones comerciales y económicas, las raíces características complejas son importantes. Ellas dan lugar al

27 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. comportamiento de los ciclos económicos. Es entonces común para los modelos de series de tiempo económico tener raíces características de valor complejo (TSAY, 2005). 1.8 La estimación de los procesos autorregresivos. Bajo el supuesto de un orden conocido p tenemos diferentes posibilidades para estimar los parámetros: Si se conoce la distribución del proceso de ruido blanco que genera el proceso AR(p), los parámetros se puede estimar utilizando los métodos de máxima verosimilitud (MV). Los parámetros también pueden ser estimados con el método de momentos mediante el uso de las ecuaciones de Yule-Walker. Si el orden de un proceso AR es desconocido, se puede estimar con la ayuda de criterios de información. Para este fin, los procesos AR con aumentos sucesivos de orden p = 1,2,..., pmax serán estimados. Por último, el orden p* se minimiza para lo cual se elige que el criterio correspondiente (Kirchgässner & Wolters, 2007). A menudo se utilizan los siguientes criterios: El error de predicción final, que se remonta a HIROTUGU Akaike (1969) EFP = T + m T m T 1 T (u t (p) ) 2 t=1 En estrecha relación con esto está el criterio de información de Akaike (AIC) Akaike (1974) T AIC = ln 1 T (u t (p) ) 2 + m 2 T t=1 AIC = ln(función de verosimilitud) + 2m

28 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Las alternativas son el criterio Bayesiano de Gedeón Schwarz (1978) CS = ln 1 T (u t (p) ) 2 T t=1 + m lnt T así como el criterio desarrollado por EDWARD J. Hannon y BARRY G. QUINN (1979) HQ = ln 1 T (u t (p) ) 2 T t=1 + m 2lnln(T) T Los valores u t son los residuos estimados del proceso AR(p), mientras que m es el número de parámetros estimados. Si se estima que el término constante, también, m = p + 1 para un proceso AR(p). Estos criterios se basan siempre en el mismo principio: Se componen de una parte, la suma de residuos al cuadrado (o su logaritmo), que disminuye cuando el número de parámetros estimados aumenta, y de un término de castigo lo que aumenta cuando el número de los parámetros estimados se incrementa. Mientras que los dos primeros criterios sobrestiman el verdadero orden asintóticamente, los otros dos criterios estiman que el verdadero orden del proceso consistente (Kirchgässner & Wolters, 2007). 1.8.1 Proceso de Medias Móviles de orden 1, MA(1): Pasamos ahora a otra clase de modelos simples que también son útiles en el modelado de retornos de en una serie financiera. Estos modelos se llaman modelos de promedios móviles (MA). Hay varias maneras de introducir modelos MA. Un enfoque consiste en tratar el modelo como una simple extensión de la serie de ruido blanco. Otro enfoque es tratar el modelo como modelo AR de orden infinito con algunas limitaciones de los parámetros (TSAY, 2005). Enfocaremos nuestra atención en el modelo de promedios móviles de orden q. X t = ε t θ 1 ε t 1 θ 2 ε t 2 θ q ε t q Lo llamaremos como una serie con media móvil de orden q y abreviaremos su nombre como MA(q) Con el fin de verificar si el proceso MA(1) es estacionario, se verifican los momentos uno y dos del proceso

29 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. X t = ε t θ 1 ε t 1 Esperanza del proceso. A partir de las condiciones del proceso MA(1) su valor esperado será: E(X t ) = E(ε t θε t 1 ) E(X t ) = E(ε t ) θe(ε t 1 ) = 0 Concluimos que el proceso MA(1) es estacionario en media. Función de autocovarianza y autocorrelación. Para que un proceso sea estacionario, debe cumplir que la función de autocovarianza y autocorrelación no dependan del tiempo. Para γ 0 se tiene, Para γ 1 y γ 2 se tiene, γ 0 = E(X t E(X t )) 2 = E(X t ) 2 γ 0 = E(ε t θε t 1 ) 2 γ 0 = E(ε t ) 2 + θ 2 E(ε t 1 ) 2 2θE(ε t ε t 1 ) γ 0 = σ 2 + θ 2 σ 2 0 γ 0 = (1 + θ 2 )σ 2 γ 1 = E[(ε t θε t 1 )(ε t 1 θε t 2 )] γ 1 = E(ε t ε t 1 ) θe(ε t 1 ) 2 θe(ε t ε t 2 ) + θ 2 E(ε t 1 ε t 2 ) = θσ 2 γ 2 = E(X t E(X t ))(X t 2 E(X t 2 )) = E[(ε t θε t 1 )(ε t 2 θε t 3 )] γ 2 = E(ε t ε t 2 ) θe(ε t 1 ε t 2 ) θe(ε t ε t 3 ) + θ 2 E(ε t 1 ε t 3 ) γ 2 = 0 Luego, la función de autocovarianzas de un MA(1) es:

30 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. (1 + θ 2 )σ 2 k = 0 γ k = { θσ 2 k = 1 0 k > 1 La función de autocovarianzas es finita y depende sólo de k y no alguna condición temporal, para cualquier valor del parámetro θ. La funcion de autocorrelación de un proceso MA(1) es: 1 k = 0 θ ρ k = { 1 + θ 2 k = 1 0 k > 1 La funcion de autocorrelacion ACF es una herramienta de gran utilidad en la identificacion del orden de un modelo de medias moviles. La ACF de un MA(q) se anula despues del retardo q, es decir, se anula (ρk = 0 para k > q), entonces se tiene que el proceso puede ser modelizado mediante un proceso de medias moviles de orden q, MA(q) 1.8.2 Proceso de Medias Móviles de orden 2, MA(2): Para analizar el proceso se tendrá en cuenta la ecuación: Donde ε t ~ RB(0, σ 2 ) X t = ε t θ 1 ε t 1 θ 2 ε t 2 (19) Valor esperado. De acuerdo a la ecuación (19) el proceso tiene media: E(X t ) = E(ε t θ 1 ε t 1 θ 2 ε t 2 ) = 0 Función de autocovarianza y autocorrelación. Para γ 0 se tiene, γ 0 = E(X t E(X t )) 2 = E(X t ) 2 γ 0 = E(ε t θ 1 ε t 1 θ 2 ε t 2 ) 2 γ 0 = σ 2 + θ 2 1 σ 2 + θ 2 2 σ 2 γ 0 = (1 + θ 2 1 + θ 2 2 )σ 2 La expresión para γ 1 :

31 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. La expresión para γ 2 : γ 1 = E[(X t E(X t ))(X t 1 E(X t 2 ))] = E(X t X t 1 ) γ 1 = E[(ε t θ 1 ε t 1 θ 2 ε t 2 )(ε t 1 θ 1 ε t 2 θ 2 ε t 3 )] γ 1 = θ 1 σ 2 + θ 1 θ 2 σ 2 = ( θ 1 + θ 1 θ 2 )σ 2 γ 2 = E[(X t E(X t ))(X t 2 E(X t ))] = E(X t X t 2 ) γ 2 = E[(ε t θ 1 ε t 1 θ 2 ε t 2 )(ε t 2 θ 1 ε t 3 θ 2εt 4 )] γ 2 = θ 2 σ 2 Para γ 3 se tiene, γ 3 = E[(X t E(X t ))(X t 3 E(X t ))] = E(X t X t 3 ) γ 3 = E[(ε t θ 1 ε t 1 θ 2 ε t 2 )(ε t 3 θ 1 ε t 4 θ 2 ε t 5 )] γ 3 = 0 La función de autocovarianzas de un MA(2) es: γ 0 = (1 + θ 2 1 + θ 2 2 )σ 2 k = 0 γ k = { γ 1 = ( θ 1 + θ 1 θ 2 )σ 2 k = 1 γ 2 = θ 2 σ 2 k = 2 y k > 2 La función de autocorrelación de un MA(2) es: ρ 1 = θ 1 + θ 1 θ 2 1 + θ 2 2 1 + θ 2 k = 1 ρ k = θ 2 ρ 2 = 1 + θ 2 2 1 + θ 2 k = 2 { ρ 3 = 0 k > 2 Por lo tanto, el modelo MA(q) no es invertible para cualquier valor del vector de parámetros de medias móviles, sino que estos tendrán que cumplir algunas restricciones. Derivar estas restricciones fue muy sencillo para el MA(1), pero se complica mucho al aumentar el orden del modelo de medias móviles. El siguiente

32 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. teorema proporciona condiciones necesarias y suficientes para que el modelo de medias móviles sea invertible (Casimiro, 2009). Modelo MA(1): De la ecuación expresada por el operador de retado X t = (1 θl)ε t Polinomio medias móviles: θ 1 (L) = 1 θl Raíces: 1 θl = 0 L = 1 θ La condición de invertibilidad para el modelo MA(1) es: L = 1 θ > 1 θ < 1 Modelo MA(2): De la ecuación expresada por el operador de retado X t = (1 θ 1 L θ 2 L 2 )ε t Polinomio de medias móviles: θ 2 (L) = 1 θ 1 L θ 2 L 2 Raíces: 1 θ 1 L θ 2 L 2 = 0 L 1, L 2 = θ 1 ± θ 1 2 + 4θ 2 2θ 2 La condición de invertibilidad para el modelo MA(2) es: L 1 = θ 1 + θ 2 1 + 4θ 2 > 1 Y L 2θ 2 = θ 1 θ 2 1 + 4θ 2 > 1 2 2θ 2 1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q). Un modelo ARMA combina las ideas de los modelos AR y MA en una forma compacta de manera que el número de parámetros usados se mantiene pequeño. Para la serie de retorno en finanzas, la posibilidad de utilizar modelos ARMA es baja. Sin embargo, el concepto de modelos ARMA es altamente relevante en el modelado de la volatilidad (TSAY, 2005).

33 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. La notación de un proceso ARMA(p, q) será de la siguiente manera: X t = φ 1 X t 1 + + φ p X t p + z t + θ 1 ε t 1 + + θ q ε t q (20) ε t ~ RB(0, σ 2 ) El modelo en términos del operador de retardos queda de la siguiente manera: (1 φ 1 L φ p L p )X t = (1 θ 1 L θ q L q )ε t φ p (L)X t = θ q (L)ε t Donde φ p (L) es el polinomio autorregresivo y θ q (L) es el polinomio de promedios móviles. Las condiciones de invertibilidad del modelo ARMA(p, q) vienen impuestas por la parte de medias móviles, dado que la parte autorregresiva finita siempre es invertible porque está directamente escrita en forma autorregresiva (Casimiro, 2009). El modelo ARMA(p, q) va a compartir las características de los modelos AR(p) y MA(q) ya que contiene ambas estructuras a la vez. El modelo ARMA(p, q) tiene media cero, varianza constante y finita y una función de autocovarianzas infinita. La función de autocorrelación es infinita decreciendo rápidamente hacia cero pero sin truncarse (Casimiro, 2009). 1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1): El modelo ARMA(1, 1) tiene la siguiente estructura: ε t ~ RB(0, σ 2 ), φ < 1 y θ R X t = φx t 1 + ε t θε t 1 (21) Donde X t esta en función de su pasado hasta el primer retardo, la innovación contemporánea y el pasado de la innovación hasta el retardo 1, además. Con el fin de verificar si el proceso ARMA(1, 1) es estacionario, se verifican las pruebas de media y covarianza constantes: Valor esperado. A partir de sus elementos característicos tenemos:

34 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. E(X t ) = E(φX t 1 + ε t θε t 1 ) E(X t ) = E(φX t 1 ) E(X t ) = φe(x t 1 ) = 0 Función de autocovarianza y autocorrelación. Para que un proceso sea estacionario, debe cumplir que la función de autocovarianza y autocorrelación no dependan del tiempo. Para γ 0 se tiene, Para γ 1 se tiene, γ 0 = E(X t E(X t )) 2 = E(X t ) 2 γ 0 = E(φX t 1 + ε t θε t 1 ) 2 γ 0 = φ 2 γ 0 + σ 2 + θ 2 σ 2 2φθσ 2 γ 0 = (1 + θ2 2φθ)σ 2 1 φ 2 γ 1 = E[(X t E(X t ))(X t 1 E(X t 1 ))] = E(X t X t 1 ) Para γ 2 se tiene, γ 1 = E[(φX t 1 + ε t θε t 1 )X t 1 ] γ 1 = φγ 0 θσ 2 γ 2 = E[(X t E(X t ))(X t 2 E(X t 2 ))] = E(X t X t 2 ) γ 2 = E[(φX t 1 + ε t θε t 1 )X t 2 ] γ 2 = φγ 1 La función de autocovarianzas de un ARMA(1, 1) es: γ 0 = (1 + θ 1 2 2φθ)σ 2 1 φ γ k = 2 k = 0 γ 1 = φγ 0 θσ 2 k = 1 { γ h = φγ k 1 k > 1 La función de autocorrelación de un ARMA(1, 1) es:

35 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. ρ 1 = φ θσ2 k = 0 ρ k = γ 0 ρ k = φ ρ k 1 k > 1 { Como se puede observar, la varianza cuenta con una parte que proviene de la parte de medias moviles, otra que proviene de la parte autorregresiva y una tercera que es la interaccion entre ambas partes del modelo. La autocovarianza de orden 1, γ 1, es la suma de la autocovarianza de orden 1 de la parte AR(1) y de la autocovarianza de orden 1 de la parte MA(1). A partir del retardo 1, la parte medias móviles del modelo no aparece de forma explicita si aparece, en ρ 1 en la ACF, dependiendo esta solo de la estructura autorregresiva. Esta ACF es una funcion infinita, que depende de los parametros AR, φ, y MA, θ, hasta k = 1 y luego decrece exponencialmente, siguiendo la estructura marcada por la parte autorregresiva de primer orden. Para comprobar estacionariedad e invertibilidad del proceso ARMA(1, 1), se deben calcular las raíces del polinomio autorregresivo y las raíces del polinomio medias móviles, respectivamente (Casimiro, 2009): Raíces del polinomio autorregresivo: 1 φb = 0 B = 1 φ B = 1 φ φ < 1 Raíces del polinomio medias móviles: 1 θb = 0 B = 1 θ B = 1 θ θ < 1 1.9.2. Modelos lineales no estacionarios. En finanzas, las series de tiempo de interés, tasas de cambio, o series de precios de un activo son de gran interés para este tipo de procesos no estacionarios. Para una serie de precios de algún activo en particular, la no estacionariedad es debida principalmente al hecho de que no hay un nivel fijo de precios (Monsalve, 2011). Los modelos anteriomente trabajados, tienen la caractestica de tener media y varianza constantes y las autocovarianzas no dependen del tiempo sino sólo de los retardos. En las series de tiempo económicas, que es el principal tema de estudio en el presente trabajo, en la mayoría de los casos no se comportan de forma estacionaria, ya sea porque suelen ir cambiando de nivel en el tiempo o porque la varianza no es constante. A este tipo de proceso se les considera procesos integrados (Villavicencio, 2014).

36 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q). La publicación de G. P. E. Box y G. M. Jenkins Time Series Analysis: Forecasting and Control, op. cit., marcó el comienzo de una nueva generación de herramientas de pronóstico. Popularmente conocida como metodología de Box-Jenkins (BJ), pero técnicamente conocida como metodología ARIMA, el interés de estos métodos de pronósticos no está en la construcción de modelos uniecuacionales o de ecuaciones simultáneas, sino en el análisis de las propiedades probabilísticas, o estocásticas, de las series de tiempo económicas por sí mismas según la filosofía de que los datos hablen por sí mismos. A diferencia de los modelos de regresión, en los cuales se explica por las k regresoras X1, X2, X3,..., Xk, en los modelos de series de tiempo del tipo BJ, X t se explica por valores pasados o rezagados de sí misma y por los términos de error estocásticos. Por esta razón, los modelos ARIMA reciben algunas veces el nombre de modelos ateóricos porque no se derivan de teoría económica alguna, y las teorías económicas a menudo son la base de los modelos de ecuaciones simultánea (Gujarati & Porter, 2009). Denominaremos proceso ARIMA(p, d, q), al modelo definido de la siguiente forma: (1 φ 1 L φ p L p )(1 L) d X t = c + (1 θ 1 L θ q L q )ε t (22) El modelo (22) se denomina modelo Autorregresivo Integrado de Medias Moviles de Orden (p,d,q) o ARIMA(p, d, q), donde p es el orden del polinomio autorregresivo estacionario, d es el orden de integración de la serie, es decir, el numero de diferencias que hay que tomar a la serie para que sea estacionaria, y q es el orden del polinomio de medias moviles invertible (Casimiro, 2009). φ p (L) d X t = c + θ q (L)ε t (23) En este caso el término integrado, indique que si se nombra ω t = d X t al proceso estacionario, x t se obtiene como suma (integración) de ω t. En efecto, si como: ω t = (1 L)X t (1 L) 1 = 1 + L + L 2 + L 3 + + L k

37 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Entonces: X t = (1 L) 1 ω t = t j= ω t (24) A continuación se presentan dos modelos ARIMA sencillos: 1.9.4 Modelo de Paseo Aleatorio. El paseo aleatorio es un modelo AR(1) con parámetro φ = 1: X t = X t 1 + ε t (25) X t = ε t (26) En este modelo el valor de x en el tiempo t es igual a su valor en el tiempo t 1 más una perturbación aleatoria. El paseo aleatorio no es estacionario porque la raíz del polinomio AR no tiene módulo mayor que la unidad (González, 2009): 1 L = 0 L = 1 Como la primera diferencia de la serie X t es un ruido blanco, se tiene que X t es un proceso integrado de orden 1. El proceso es no estacionario puesto que la raíz del polinomio asociado es igual a la unidad y la serie va cambiando de forma estocástica a lo largo del tiempo. El paseo aleatorio hace parte de los procesos no estacionarios de raíces unitarias. La función de autocovarianza y autocorrelación esta dada por: γ k = tσ 2 y ρ k = t t(t+h) para k > 0 1.9.5 Modelo de Paseo Aleatorio con deriva. El paseo aleatorio con deriva resulta de añadir una constante al modelo anterior. X t = X t 1 + ε t + δ (27) X t = ε t + δ (28) En este caso, la inclusión de una constante en el modelo implica la inclusión de una tendencia determinista con pendiente δ, junto con la tendencia estocástica (González, 2009).

38 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. 1.9.6 Modelos Heterocedásticos Condicionales. Conocer la volatilidad es muy importante en muchas áreas. Por ejemplo, existe una enorme cantidad de trabajo en econometría sobre la variabilidad de la inflación a lo largo del tiempo. Para algunas personas con poder de decisión, la inflación en sí misma quizá no sea dañina, pero no es deseable su variabilidad porque dificulta la planificación financiera. Sucede lo mismo con los importadores, exportadores y comerciantes que acuden a los mercados de cambio de divisas, pues la variabilidad de las tasas de cambio representa grandes pérdidas o ganancias. A los inversionistas de las casas de bolsa obviamente les interesa la volatilidad de los precios de las acciones, pues una gran volatilidad puede significar enormes pérdidas o ganancias y, en consecuencia, provocar mayor incertidumbre. En los mercados volátiles, a las compañías les resulta difícil capitalizarse en los mercados de capital. Una característica de la mayoría de estas series de tiempo financieras consiste en que en su forma de nivel son no estacionarias. En consecuencia, en vez de modelar las series de tiempo financieras en su forma de nivel, por qué no hacer los modelos de sus primeras diferencias? Sin embargo, estas primeras diferencias suelen presentar amplias variaciones, o volatilidad, lo cual indica que la varianza de las series de tiempo financieras se modifica con el tiempo. Cómo podemos determinar el modelo de dicha variación cambiante? En estos casos es cuando resulta práctico el llamado modelo de heteroscedasticidad condicional autorregresivo (ARCH), que originalmente desarrolló Engle. Como su nombre lo indica, la heteroscedasticidad, o varianza desigual, puede tener una estructura autorregresiva en la que la heteroscedasticidad observada a lo largo de diferentes periodos quizá esté autocorrelacionada (Gujarati & Porter, 2009). 1.9.7 Modelo autorregresivo condicional heterocedástico de orden p: ARCH(p). Engle (1982) propuso por primera vez el modelo de heteroscedasticidad condicional autorregresiva (ARCH) para modelar la varianza cambiante de una serie de tiempo. Como se discutió en la sección anterior, la serie de retorno de un activo financiero, por ejemplo {X t }, es a menudo una secuencia de correlación serial con media cero, como se exhibe agrupamiento de la volatilidad. Esto sugiere que la varianza condicional de X t rentabilidades pasadas no es constante. La varianza condicional, también conocida como la volatilidad condicional, de X t se denota con el subíndice t - 1 significa que el acondicionado está sobre los retornos en el tiempo t - 1. Cuando X t está disponible, el retorno al cuadrado proporciona un estimador insesgado. Una