Econometría Aplicada

Documentos relacionados
Econometría Aplicada

Curso de nivelación Estadística y Matemática

Econometría Aplicada

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

Econometría II Grado en finanzas y contabilidad

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Econometría II Grado en finanzas y contabilidad

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Análisis de Series de Tiempo

ANÁLISIS DE REGRESIÓN

Métodos Estadísticos para Economía y Gestión IN 540 Clase 7

Procesos autorregresivos

ARCH y GARCH. Series de tiempo. Miguel Ángel Chong R. 14 de mayo del 2013

Econometria con Series Temporales

Tema1. Modelo Lineal General.

Estadística II Examen Final 19/06/2015 Soluciones. Responda a las preguntas siguientes en los cuadernillos de la Universidad

TODO ECONOMETRÍA. A continuación voy a realizar un primer gráfico para observar el comportamiento de mi serie.

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Econometría II Grado en finanzas y contabilidad

Modelos Arma y método Box & Jenkins

Econometria de Series Temporales

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero

Apuntes de Series Temporales

Econometría Aplicada

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Series de Tiempo Estacionarias

Tendencias y ciclos en las variables macroeconómicas

Métodos Estadísticos Multivariados

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

Pronóstico con Modelos ARIMA para los casos del Índice de Precios y Cotizaciones (IPC) y la Acción de América Móvil (AM)

Econometría II Grado en finanzas y contabilidad

1. CONCEPTOS BASICOS DE SERIES DE TIEMPO 1.1 INTRODUCCIÓN

Econometría Aplicada

EJC 22: METODOLOGÍA BOX JENKINS

Estadística II Examen final junio 27/6/17 Curso 2016/17 Soluciones

Econometría II. Hoja de Problemas 1

Predicción. Capítulo Predictores lineales

PRACTICAS SOBRE LA MODELIZACIÓN DE SERIES TEMPORALES MENSUALES CON LA METODOLOGÍA DE BOX-JENKINS

Estadística para la Economía y la Gestión IN 3401 Clase 5

Regresión Simple. Leticia Gracia Medrano. 2 de agosto del 2012

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Econometría Aplicada

Ejemplos de estudios de series de tiempo

Econometría 2. Modelos no estacionarios y contrastes de raíz unitaria = 0 8. (0 4) 1 +, (0 2 ), y valores críticos

SERIE TEMPORAL TASA PASIVA REFERENCIAL ECUADOR MAT. GEOVANNY TOALOMBO Agosto 2006

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Econometría dinámica y financiera

Diplomado en Econometría Coordinadora académica: M.F. Esperanza Sainz López

Series de tiempo I. Procesos univariados y estacionarios. Gabriel Montes-Rojas. Series temporales estacionarias Estacionariedad Predicción

Conceptos básicos de inferencia estadística (IV): Inferencia no paramétrica: Contrastes de aleatoriedad.

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

10.1 Enfoque Bayesiano del problema de la estimación

Estadística aplicada al medio ambiente

Regresión Lineal Simple y Múltiple Regresión Logística

Tópicos en Series de Tiempo

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Tema 8: Regresión y Correlación

ECONOMETRÍA I. Tema 4: El Modelo de Regresión Lineal Múltiple: inferencia y validación

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero

Grado en Finanzas y Contabilidad

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos

Diplomado en Econometría Coordinadora académica: M.F. Esperanza Sainz López

Estadística para la Economía y la Gestión IN 3401

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16

Regresión con errores autocorrelacionados

Regresión lineal simple

Regresión Lineal Múltiple

PROCESOS ESTACIONARIOS UNIVARIADOS 1

TEMA 2 Diseño de experimentos: modelos con varios factores

Tema 4. Regresión lineal simple

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

5. Estimación del Modelo y Resultados

Tema 6. Análisis Factorial.

UNIVERSIDAD CARLOS III DE MADRID ECONOMETRÍA EXAMEN FINAL (Modelo C)

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE

EXAMEN DE ECONOMETRÍA

TEMA 5: Especificación y Predicción en el MRL

ANÁLISIS DE LAS SERIES DE TIEMPO - NIVEL II

Julio Deride Silva. 4 de junio de 2010

Modelo de Regresión Lineal

T2. El modelo lineal simple

Modelación estadística: La regresión lineal simple

Análisis de series temporales

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

Econometría II - examen (SOLUCION)

Índice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero

UNIVERSIDAD NACIONAL DE LA PLATA FACULTAD DE CIENCIAS NATURALES Y MUSEO CÁTEDRA DE ESTADÍSTICA CLASE ESPECIAL. Tema:

Tema 2: Modelos probabilísticos de series

Índice General de Ventas en Grandes Almacenes y su logaritmo

Práctica 5: cointegración

Transcripción:

Econometría Aplicada Series de Tiempo Víctor Medina

Series de Tiempo Series de Tiempo

Series de Tiempo Introducción En esta parte del curso veremos análisis de series de tiempo y procesos estocásticos. Una serie de tiempo es un conjunto de observaciones x t, donde t indica el tiempo de ocurrencia de la observación. Por ejemplo, observaciones de x t hechas en t = 1, 2, 3,..., N El tiempo puede ser medido en cualquier unidad (ej. minutos, días, meses, años, etc.) Una serie de tiempo se dice discreta cuando el conjunto de observaciones se hace en un conjunto discreto de periodos, por ejemplo, en intervalos fijos de tiempo (diarias, mensuales, trimestrales, anuales, etc.). Una serie de tiempo es continua cuando las observaciones se realizan sobre un intervalo continuo de tiempo, por ejemplo, [0, T ]. Las observaciones en sí pueden seguir siendo discretas. A nosotros nos interesará estudiar series de tiempo discretas con tiempo equiespaciado.

Series de Tiempo Introducción Las observaciones sucesivas en el tiempo son, en general, no independientes. Esto significa que las observaciones pasadas pueden ser usadas para predecir futuras observaciones. Si, dadas las obsevaciones x 1,..., x t 1, la observación x t se puede predecir exactamente, la serie de tiempo se dice determinística. Si las observaciones futuras no se pueden predecir exactamente, entonces se dice que la serie de tiempo es estocástica. En series estocásticas, las observaciones futuras tendrán una distribución de probabilidad. Si las observaciones son dependientes, entonces esta distribución de probabilidad será dependiente de las observaciones pasadas.

Ejemplos Ejemplos

Ejemplos Tipo de Cambio USD-Peso Chileno 600 dolar_obs 400 200 12 1989 12 1999 12 2009 fecha

Ejemplos Diferencia Tipo de Cambio USD-Peso Chileno 50 dif_dolar 0 12 1989 12 1999 12 2009 fecha

Ejemplos Inflación Chile 600 IPC 400 200 0 12 1959 12 1979 12 1999 fecha

Ejemplos PIB Chile 40 35 PIB_MM 30 25 12 2007 12 2009 12 2011 12 2013 12 2015 fecha

Ejemplos Diferencia trimestral del PIB Chile 3 2 dif_pib 1 0 1 12 2009 12 2011 12 2013 12 2015 fecha

Ejemplos IPSA Bolsa de Santiago 5000 4000 IPSA 3000 2000 12 2005 12 2007 12 2009 12 2011 12 2013 12 2015 Fecha

Ejemplos Diferencia diaria IPSA Bolsa de Santiago 200 100 dif_ipsa 0 100 200 300 12 2005 12 2007 12 2009 12 2011 12 2013 12 2015 Fecha

Ejemplos Acción Google 800 600 Google 400 200 12 2004 12 2009 12 2014 Fecha

Ejemplos Diferencia diaria Acción Google 100 50 dif_google 0 12 2004 12 2009 12 2014 Fecha

Ejemplos Objetivos de las series de tiempo Entre los objetivos de la series de tiempo podemos mencionar Describir y resumir observaciones de series de tiempo Ajustar modelos con dimensiones reducidas Realizar predicciones

Procesos Estacionarios y No Estacionarios Procesos Estacionarios y No Estacionarios

Procesos Estacionarios y No Estacionarios Variables estacionarias y no estacionarias En los gráficos presentados además de la serie misma, vimos también la diferencia en la variable, o el cambio de la variable de un periodo a otro y t = y t y t 1 Notamos que hay algunas series que al restarle a cada observación el valor del periodo anterior, la serie resultante tiende a estar acotada entre dos valores, sin embargo para otras no parece tan claro. Qué serie representa variables estacionarias y cuales son no estacionarias? Se dice que y t es estacionario si su esperanza y varianza son constante a lo largo del tiempo, y además si la covarianza entre dos valores de la serie depende sólo del largo de tiempo que separa esos dos valores (y no del momento que es evaluado) En otras palabras, la serie de tiempo y t es estacionaria si para todo t E(y t) = µ (media constante) var(y t) = σ 2 (varianza constante) cov(y t, y t+s ) = cov(y t, y t s ) = γ s (covarianza depende de s, no de t)

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) Supongamos que la serie y t es una variable económica que observamos en el tiempo. En línea con la mayoría de las variables económicas, asumimos que y t tiene naturaleza estocástica porque no podemos predecirla perfectamente. Las series de tiempo univariadas son ejemplos de procesos estocásticos donde la variable y está relacionada con sus valores pasados y valores actual y pasados del error (no tenemos variables explicativas x s) El modelo autorregresivo de orden 1, AR(1), es un modelo de series de tiempo univariado útil para explicar la diferencia entre estacionario y no estacionario. Viene dado por: y t = ρy t 1 + v t, ρ < 1 Donde los errores v t son independientes, con media cero y varianza σ 2 v. Veremos que ρ < 1 implica que y t es estacionario.

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) Podemos expresar el modelo de la siguiente manera Esperanza y t = ρy t 1 + v t = ρ(ρy t 2 + v t 1) + v t t 1 = ρ t y 0 + ρ i v t i i=0 t 1 E(y t) = E(ρ t y 0 + ρ i v t i) i=0 t 1 = ρ t y 0 + ρ i E(v t i) = ρ t y 0 = 0 si t es suficientemente grande (o pensar que la serie no tiene un t = 0, sino que sigue infinitamente a t = ) i=0

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) Varianza t 1 var(y t) = var(ρ t y 0 + ρ i v t i) i=0 t 1 = ρ 2i var(v t i) i=0 = σ 2 v t 1 ρ 2i i=0 y si recordamos que t 1 i=0 αi = 1 αt 1 α, luego var(y t) = σv 2 1 ρ 2t 1 ρ = 1 2 σ2 v 1 ρ 2 si t es suficientemente grande y ρ < 1 (sino no converge)

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) Autocovarianza t 1 t+s 1 cov(y t, y t+s) = cov(ρ t y 0 + ρ i v t i, ρ t+s y 0 + ρ j v t+s j) t 1 = cov( i=0 t 1 = ρ s cov( i=0 ρ i v t i, i=0 i=0 ρ i v t i, t+s 1 j=0 t 1 i= s ρ j v t+s j) ρ i v t i) t 1 t 1 = ρ s cov( ρ i v t i, ρ i v t i) t 1 = σvρ 2 s i=0 ρ s ρ 2i i=0 = σv 2 1 ρ 2 Obs. no depende de t, sino que de la distancia s. j=0

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) Podemos definir la función de autocovarianzas γ(y t, y t+s) = cov(y t, y t+s) en el caso donde sólo dependa de la distancia o lag s, γ(s) = γ(y t, y t+s) (fijarse que γ(0) = var(y t)) Tambíen podemos definir la función de autocorrelación (ACF) r(y t, y t+s) = cov(y t, y t+s) var(yt)var(y t+s) y nuevamente, en el caso que sólo dependa de s, r(s) = r(y t, y t+s) = γ(s) γ(0) Para AR(1), tenemos que r(s) = γ(s) γ(0) = ρs

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) con constante En la realidad es difícil encontrarse con procesos de media cero. Podemos incluir un término µ de la siguiente manera o expresado de otra forma y t µ = ρ(y t 1 µ) + v t y t = α + ρy t 1 + v t, ρ < 1 con α = µ(1 ρ) Extendiendo la serie, tenemos y t = α + ρy t 1 + v t = α + ρ(α + ρy t 2 + v t 1) + v t t 1 t 1 = ρ t y 0 + α ρ i + ρ i v t i i=0 i=0

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) con constante Esperanza. Si utilizamos la última expresión, rescatamos que Varianza E(y t) = α 1 ρ = µ t 1 t 1 var(y t) = var(ρ t y 0 + α ρ i + ρ i v t i) = σv 2 1 1 ρ 2 Autocovarianza Autocorrelación (ACF) i=0 i=0 ρ s cov(y t, y t+s) = σv 2 1 ρ = γ(s) 2 r(s) = γ(s) γ(0) = ρs Obs. La ACF debiera ir decayendo a medida que aumentamos el lag s

Procesos Estacionarios y No Estacionarios Gráficamente modelo autorregresivo de orden 1 sin y con constante

Procesos Estacionarios y No Estacionarios Modelo autorregresivo de orden 1 AR(1) con constante y tendencia temporal Otra extensión al modelo es considerar que AR(1) fluctua entorno a una linea recta, es decir y t µ δt = ρ(y t 1 µ δ(t 1)) + v t, ρ < 1 que también puede ser expresado de la siguiente manera y t = α + λt + ρy t 1 + v t donde α = µ(1 ρ) + ρδ y λ = δ(1 ρ) Esperanza E(y t) = µ + δt Varianza Es estacionario? var(y t) = σv 2 1 1 ρ 2

Procesos Estacionarios y No Estacionarios

Procesos Estacionarios y No Estacionarios Modelos de caminata aleatoria (Random Walk) Para el caso especial en que ρ = 1, tenemos que y t = y t 1 + v t al cual se le conoce como random walk. Su nombre proviene porque la serie pareciera caminar para arriba o para abajo sin seguir ningún patrón aparente. Expansión de la serie Esperanza Varianza t 1 y t = y t 1 + v t = y t 2 + v t 1 + v t = y 0 + E(y t) = y 0 var(y t) = tσv 2 i=0 v t i

Procesos Estacionarios y No Estacionarios

Procesos Estacionarios y No Estacionarios Caminata aleatoria con constante y tendencia temporal Otra extensión no estacionaria es la que resulta si se agrega un término constante a la caminata aleatoria y t = α + y t 1 + v t modelo conocido como caminata aleatoria con constante Si además agregamos una tendencia temporal, tenemos y t = α + δt + y t 1 + v t

Procesos Estacionarios y No Estacionarios Gráficamente

Procesos Estacionarios y No Estacionarios Series de tiempo interactivo

Procesos Estacionarios y No Estacionarios Regresiones espúreas

Procesos Estacionarios y No Estacionarios Regresiones espúreas

Procesos Estacionarios y No Estacionarios Regresiones espúreas La principal razón de por qué es importante saber si una serie es estacionaria o no estacionaria antes de realizar un análisis de regresión, es que cuando las series usadas son no estacionarias existe la problemática de obtener resultados aparentemente significativos sobre data que no tiene relación. Estas regresiones se llaman espúreas. En otras palabras, cuando series de tiempo no estacionarias son usadas en un análisis de regresión, el resultado puede indicar una relación significativa cuando en realidad no existe. Estimadores de Mínimos Cuadrados (MC) pierden sus propiedades y los estadísicos t no son confiables. Como muchas variables económicas son no estacionarias, es importante tener presente cómo deben ser tratadas. Cómo podemos testear si una serie es estacionaria o no? Cómo podemos hacer regresiones cuando tenemos series no estacionarias?

Procesos Estacionarios y No Estacionarios Test de estacionariedad Existen variados test para determinar si una serie es estacionaria o no. Discutiremos uno de los más populares en econometría, test de Dickey-Fuller. 1. Dickey-Fuller, sin constante y sin tendencia y t = ρy t 1 + v t 2. Dickey-Fuller, con constante y sin tendencia y t = α + ρy t 1 + v t 3. Dickey-Fuller, con constante y con tendencia y t = α + λt + ρy t 1 + v t

Procesos Estacionarios y No Estacionarios 1. Dickey-Fuller, sin constante y sin tendencia o alternativamente y t = ρy t 1 + v t y t = (ρ 1)y t 1 + v t = βy t 1 + v t Luego, la hipótesis nula puede escribirse en términos de ρ o β H 0 : ρ = 1 H 0 : β = 0 H 1 : ρ < 1 H 1 : β < 0 La hipótesis nula es que la serie es no estacionaria. En otras palabras, si no rechazamos la nula, concluímos que no existe evidencia para rechazar que el proceso es no estacionario. Y, por el contrario, si rechazamos la nula, concluímos que la serie es estacionaria.

Procesos Estacionarios y No Estacionarios 2. Dickey-Fuller, con constante y sin tendencia o alternativamente y t = α + ρy t 1 + v t y t = α + (ρ 1)y t 1 + v t = α + βy t 1 + v t H 0 : ρ = 1 H 0 : β = 0 H 1 : ρ < 1 H 1 : β < 0 3. Dickey-Fuller, con constante y con tendencia o alternativamente y t = α + λt + ρy t 1 + v t y t = α + λt + (ρ 1)y t 1 + v t = α + λt + βy t 1 + v t H 0 : ρ = 1 H 0 : β = 0 H 1 : ρ < 1 H 1 : β < 0

Procesos Estacionarios y No Estacionarios Valores críticos del test Dickey-Fuller Un camino lógico para testear la hipótesis de DF, sería realizar la regresión por MC y luego construír el estadístico t = ˆβ/ŝe( ˆβ). Desgraciadamente, el estadístico t ya no distribuye bajo una distribución t cuando la nula es cierta Problema: cuando la nula es cierta, y t es no estacionario y su varianza incrementa a medida que la muestra crece. Este incremento altera la distribución usual. Para reconocer este hecho, usualmente a este estadístico se le llama τ (tau) y su valor debe ser comparado con valores especiales (los cuales cambian dependiendo del tipo de test DF que apliquemos). Table 1: Valores críticos Dickey-Fuller Modelo 1% 5% 10% y t = βy t 1 + v t -2.56-1.94-1.62 y t = α + βy t 1 + v t -3.43-2.86-2.57 y t = α + λt + βy t 1 + v t -3.96-3.41-3.13 Normal estándar -2.33-1.65-1.28

Procesos Estacionarios y No Estacionarios Dickey-Fuller aumentado Una importante extensión del test de Dickey-Fuller permite la inclusión de modelos con el término del error autocorrelacionado. Esta autocorrelación es probable que aparezca si nuestro modelo no incorporó términos anteriores de la serie y t s que capturen la dinámica de nuestro proceso. Usando la versión de DF con constante, una extensión sería y t = α + βy t 1 + m a s y t s + v t con y t s = y t s y t s 1. Se agregan tantos términos de retraso como sea necesario para asegurar que los residuos no están autocorrelacionados. Este test, con variaciones de constante y tendencia respectiva, se conoce como Dickey-Fuller aumentado En la práctica siempre usamos el test DF aumentado s=1

Procesos Estacionarios y No Estacionarios Ejemplo test Dickey-Fuller Considerando la serie Inflación Chile 10.0 7.5 5.0 IPC 2.5 0.0 2.5 12 1994 12 1999 12 2004 12 2009 12 2014 fecha

Procesos Estacionarios y No Estacionarios Ejemplo test Dickey-Fuller cuál? 1. IP C t = β IP C t 1 + v t 2. IP C t = α + β IP C t 1 + v t 3. IP C t = α + λt + β IP C t 1 + v t

Procesos Estacionarios y No Estacionarios Ejemplo test Dickey-Fuller Alternativamente comando Stata dfuller 1. IP C t = β IP C t 1 + v t 2. IP C t = α + β IP C t 1 + v t 3. IP C t = α + λt + β IP C t 1 + v t

Procesos Estacionarios y No Estacionarios Orden de integración Hasta el momento hemos discutido si una serie es estacionaria o no. Podemos llevar nuestro análisis un paso más allá incluyendo el concepto de orden de integración Recordemos que si y t = y t 1 + v t es un camino aleatorio, entonces y t = y t y t 1 = v t es estacionaria. Series como y t, que pueden convertirse en estacionarias tomando su primera diferencia, se les llama integradas de orden 1, denotadas por I(1) Las series estacionarias, se les dice integradas de orden 0, I(0) En general, el orden de integración de una serie es el número mínimo de veces que debe ser diferenciada para hacerla estacionaria.

Procesos Estacionarios y No Estacionarios Orden de integración Es estacionaria? 10.0 IPC dif_ipc 7.5 5.0 valor 2.5 0.0 2.5 1994 1999 2004 2009 2014 1994 1999 2004 2009 2014 fecha

Procesos Estacionarios y No Estacionarios Orden de integración Aplicando Dickey-Fuller (pareciera que fluctúa entorno a cero) ( IP C) t = β( IP C) t 1 + v t donde ( IP C) t = IP C t IP C t 1 Luego, podriamos afirmar que IPC es una serie I(1), ya que no es estacionaria, pero su diferencia si lo es.

Procesos Estacionarios y No Estacionarios Cointegración Como regla general, series no estacionarias no deberían usarse en modelos de regresión para evitar regresiones espúreas. Sin embargo, existe una excepción a la regla. Si y t y x t son variables I(1) no estacionarias, entonces cualquier combinación lineal de ellas e t = y t β 1 β 2x t también es I(1). En el caso particular en que e t = y t β 1 β 2x t es estacionaria I(0), se dice que y t y x t están cointegradas Esto quiere decir que y t y x t comparten tendencias estocásticas similares (nunca diverge una muy lejos de la otra). Una forma de testear si y t y x t están cointegradas es ver si los errores e t = y t β 1 β 2x t son estacionarios. Como e t son no observables, testeamos la estacionariedad de los residuos de mínimos cuadrados ê t = y t ˆβ 1 ˆβ 2x t usando test de Dickey-Fuller. Testear cointegración es efectivamente testear la estacionariedad de los residuos. Si los residuos son estacionarios, entonces y t y x t están cointegrados. Si por el contrario, los residuos no son estacionarios, entonces las series no están cointegradas y la relación entre ellas es espúrea.

Procesos Estacionarios y No Estacionarios Cointegración El test de estacionariedad de los residuos se basa entonces en la ecuación ê t = γê t 1 + v t donde ê t = ê t ê t 1. Y tal como se explicó anteriormente, se examina el estadístico t (o mejor dicho τ) arrojado por la regresión. Como basamos este test en valores estimados del error, los valores críticos para τ difieren de los que vimos anteriormente: Table 2: Valores críticos Dickey-Fuller para test de cointegración Modelo 1% 5% 10% y t = βx t + e t -3.39-2.76-2.45 y t = β 1 + β 2x t + e t -3.96-3.37-3.07 y t = β 1 + δt + β 2x t + e t -3.98-3.42-3.13

Procesos Estacionarios y No Estacionarios Regresión sin cointegración Hasta el momento hemos aprendido que regresiones con variables I(1) son aceptables si éstas están cointegradas (residuos estacionarios). Qué pasa cuando no hay cointegración entre variables I(1)? Convertir las series no estacionarias en estacionarias. Depende de si las variables son estacionarias en diferencia o en tendencia. Estacionario en diferencia de orden 1 Consideremos nuevamente la caminata aleatoria y t = α + y t 1 + v t que puede transformarse en estacionaria tomando la primera diferencia (I(1)) y t = y t y t 1 = α + v t Supongamos que tenemos otra variable x t no estacionaria pero su primera diferencia es estacionaria (I(1)). Sin embargo, no está cointegrada con y t.

Procesos Estacionarios y No Estacionarios Estacionario en diferencia de orden 1 Luego, si las dos series son I(1) pero no cointegradas, una regresión adecuada entre ellas sería relacionar y t y x t (ambas estacionarias) y t = α + β 0 x t + e t En general, si una serie y t es I(1), entonces y t, y t 1 = y t 1 y t 2, etc. son estacionarias. Luego, el modelo anterior se puede generalizar incluyendo diferencias que se estimen relevantes, por ejemplo y t = α + θ y t 1 + β 0 x t + β 1 x t 1 + e t Estacionario en tendencia Consideremos ahora el siguiente modelo y t = α + δt + v t A la variable se le dice que es estacionaria en tendencia porque se puede estacionarizar restándole su tendencia, de la forma y t α δt = v t

Procesos Estacionarios y No Estacionarios Estacionario en tendencia Si dos variables y y x son estacionarias en tendencia, un posible modelo autorregresivo con tendencias sería y t = θy t 1 + β 0x t + β 1x t 1 + e t donde y t = y t α 1 δ 1t y x t = x t α 2 δ 2t (los coeficientes (α 1, δ 1) y (α 2, δ 2) pueden ser estimados por MC) Alternativamente a la creación de y t y x t, podemos estimar directamente el modelo y t = α + δt + θy t 1 + β 0x t + β 1x t 1 + e t que no es más que el desarrollo algebráico de la ecuación anterior con α = α 1(1 θ 1) α 2(β 0 + β 1) + θ 1δ 1 + β 1δ 2 y δ = δ 1(1 θ 1) δ 2(β 0 + β 1)

Pronóstico Pronóstico

Pronóstico Pronóstico Los métodos de pronóstico suponen que las series son estacionarias o pueden ser transformadas en estacionarias. Los métodos más tradicionales son 1. Modelos ARIMA 2. Modelos VAR (Vector Autoregression) 3. Modelos de alisamiento exponencial 4. Modelos de regresión uniecuacional 5. Modelos de regresión de ecuaciones simultáneas Nos concentraremos en los modelos ARIMA y supondremos que estamos trabajando con series estacionarias, o series que podemos estacionarizar en diferencia o tendencia.

Pronóstico ARIMA Los modelos ARIMA se construyen con modelos Promedios móviles de orden q, MA(q) Autorregresivos de orden p, AR(p) La combinación de estos últimos, AR(p) y MA(q) que se denominan ARMA(p,q) Si tenemos además integración de orden d, entonces se denominan ARIMA(p,d,q) Partiremos analizando los modelos MA(q)

Pronóstico MA(q) Si {Z t} W N(0, σ 2 ) para t Z, entonces la serie {X t} se dice que sigue un proceso de promedios móviles de orden q si donde θ 1,..., θ q son constantes. Esperanza X t = Z t + θ 1Z t 1 +... + θ qz t q E(X t) = E(Z t + θ 1Z t 1 +... + θ qz t q) = 0 Autocovarianza (considerando θ 0 = 1) γ(k) = cov(x t, X t+k ) = E(X tx t+k ) 0 = E[(θ 0Z t +... + θ qz t q)(θ 0Z t+k +... + θ qz t+k q )] q q = θ sθ re[z t sz t+k r ] r=0 s=0

Pronóstico Pero { σ 2 t s = t + k r E(Z t sz t+k r ) = 0 sino Luego, utilizando el cambio de variable j = r k, tenemos Entonces y por lo tanto, γ(k) = { σ 2 q k s=0 θrθ r+k k q 0 k > q var(x t) = γ(0) = σ 2 q r=0 θ 2 r q k s=0 θrθ r+k q k q r(k) = r=0 θ2 r 0 k > q

Pronóstico X t = Z t 0.8Z t 1

Pronóstico Ejemplos de modelación de procesos MA Sabemos que un proceso de promedios móviles es una suma ponderada de un número fijo de eventos de ruido blanco. Algunos ejemplos de cuando un modelo de este tipo puede adecuarse en la práctica son El efecto de las huelgas en alguna métrica económica, por ejemplo, productividad. Las huelgas pueden ser consideradas eventos aleatorios. La productividad en el tiempo puede verse afectada tanto por las huelgas ocurridas en ese momento como también (en menor medida) por huelgas que ocurrieron en periodos previos. Ventas de bienes durables, por ejemplo, lavadoras. La gente compra nuevas lavadoras cuando la que tenían está defectuosa. La fluctuación en el número de fallas en el tiempo puede ser considerada como ruido blanco. El número de personas que compra una lavadora en un periodo depende tanto del numero de fallas en ese periodo como también en los anteriores (personas que aún no han reemplazado su lavadora).

Pronóstico MA interactivo

Pronóstico Procesos Autorregresivos Considerando {Z t} W N(0, σ 2 ) con t Z. La serie de tiempo {X t} es un proceso autorregresivo de orden p (AR(p)) si X t = α 1X t 1 + α 2X t 2 +... + α px t p + Z t donde α 1, α 2,..., α p son constantes. Ejemplo: modelo AR(1) Anteriormente habíamos visto que un modelo AR(1) tenía la forma y que además Esperanza E(X t) = 0 X t = α 1X t 1 + Z t Función de autocovarianzas, si α 1 < 1, γ(k) = σ2 α k 1 (1 α 2 1 ) Función de autocorrelación, si α 1 < 1, r(k) = γ(k) = γ(0) αk 1

Pronóstico Ejemplo de modelación de procesos AR(1) Los modelos autorregresivos asumen que el valor actual de una serie de tiempo es la suma ponderada de un numero fijo de valores previos más ruido blanco. Un ejemplo interesante de las ciencias forenses, es modelar las muestras de cocaína en los fajos de billetes. La cocaína se transfiere de un billete a otro. Luego, la cantidad de cocaína en un billete está relacionada a la cantidad de cocaína en los billetes previos más ruido (que puede ser contaminación de otras fuentes). Notar que la posición del billete en el fajo es la que se utiliza como tiempo.

Pronóstico Ejemplo de modelación de procesos AR(1) La serie de tiempo ilustra la contaminación de cocaína en 1065 billetes incautados de alguien que posteriormente fue acusado de un crimen que involucraba manipulación de esta droga.

Pronóstico Ejemplo realizado en clases: AR(2) X t = α 1X t 1 + α 2X t 2 + Z t 1. Calcular E(X t) 2. Calcular γ(0) = var(x t) 3. Calcular γ(1) = cov(x t, X t 1) 4. Calcular γ(2) = cov(x t, X t 2) 5. Calcular r(1) = cov(x t, X t 1)/var(X t) 6. Calcular r(2) = cov(x t, X t 2)/var(X t)

Pronóstico AR interactivo

Pronóstico Estimaciones mediante las observaciones Supongamos que tenemos observaciones de la serie de tiempo {X t} para los periodos t = 1, 2,..., N. Suponemos también que {X t} es estacionario, luego las estimaciones de ˆµ, ˆγ(k) y ˆr(k) vienen dadas por 1. Estimamos µ con el promedio muestral x = x1 + x2 +... + xn N 2. γ(k) es estimado, para el lag k, como N k t=1 ˆγ(k) = (xt x)(x t+k x) N k obs Algunos textos prefieren el uso de N en el denominador en vez de N k.

Pronóstico 3. r(k) es estimado, para el lag k, como ˆr(k) = ˆγ(k) ˆγ(0) Las fórmulas, tanto para ˆγ(k) como para ˆr(k) deben ser usadas sólo cuando k es considerablemente menor relativo a N, por ejemplo, k < N/3.

Pronóstico Correlogramas o ACF Ya hemos visto e interpretado los correlogramas. En términos de nuestra estimaciones, estos gráficos no son más que las estimaciones ˆr(k) para distintos valores de k y permiten la interpretación de los coeficientes de correlación. Por ejemplo, las siguientes figuras. La de la izquierda es un proceso AR(1) y la figura de la derecha un proceso MA(1)

Pronóstico Detección de un proceso MA(q) Como vimos anteriormente, para un proceso MA(q), r(k) = 0 para todo k > q. Entonces cuando el número de observaciones es grande y la serie {X t} es un proceso MA(q), esperariamos 1. ˆr(1), ˆr(2),..., ˆr(q) estén cerca de r(1), r(2),..., r(q) y, por lo tanto, sean distintos de cero. 2. ˆr(q + 1), ˆr(q + 2),... estén aleatoreamente distribuídos alrededor de cero. En particular, si ˆr(1) es grande y ˆr(2), ˆr(3),... son cercanos a cero, esperaríamos poder ajustar un proceso MA(1).

Pronóstico Ejemplo de detección de MA(q) Los siguientes dos correlogramas son de dos series de tiempo diferentes. Usted decide ajustar un proceso de medias móviles a cada uno, Por qué? Qué orden sugeriría para cada modelo?

Pronóstico Detección de un proceso AR(p) Vimos que la función de autocorrelación para un proceso AR(1) X t = α 1X t 1 + Z t está dada por r(k) = γ(k) γ(0) = αk 1 Por lo tanto, esperaríamos que los coeficientes de la estimación muestral de la función de autocorrelación ˆr(k) sean cercados a α1. k Notar que, a diferencia del modelo MA(1), los valores ˆr(k) no caen a cero luego de haber superado el orden del proceso. Como ˆr(1) se espera que sea cercano a α 1, el valor de ˆr(1) puede ser usado para obtener una estimación gruesa de α 1.

Pronóstico Ejemplo de detección de AR(1) Los siguientes dos correlogramas fueron obtenidos de dos series que se saben siguen un proceso AR(1). Qué valores de α 1 estimaría para cada proceso?

Pronóstico Detección de un proceso AR(p) Detectar el orden de un proceso AR(p) sólo a través del correlograma puede ser difícil, ya que los ˆr(k) en general no caen a cero luego de algún valor (como en el caso de MA(q)). Para el proceso general X t = p α ix t i + Z t i=1 donde Z t W N(0, σ 2 ), estimaciones de α i con i {1, 2,..., p}, dada las observaciones x 1,..., x N, pueden ser obtenidas minimizando 1 N N t=p+1 ( xt p ) 2 α ix t i Las estimaciones resultantes ˆα 1, ˆα 2,..., ˆα p son las estimaciones de mínimos cuadrados. La estimación ˆα p se le conoce como coeficiente de autocorrelación parcial de la muestra para el rezago p. i=1

Pronóstico Para obtener los coeficientes de autocorrelación parcial de la muestra, por ejemplo, en el rezago k, un proceso AR(k) se ajusta a la muestra (ecuación anterior). Luego, la estimación ˆα k es el coeficiente de autocorrelación parcial de la muestra para el rezago k. El coeficiente de autocorrelación parcial para el rezago p, por ejemplo, mide la autocorrelación en el rezago p que no está considerada por las autocorrelaciones en los rezago 1, 2,..., p 1. Los coeficientes de autocorrelación parcial pueden ser graficados en función del rezago, análogo al ACF (que grafica ˆr(k) vs k). Este gráfico se llama función de autocorrelación parcial (PACF). Para un proceso AR(p), los coeficientes ˆα p+1, ˆα p+2,... deberían caer a cero porque no son significativos. De esta forma, el PACF puede ser usado para estimar el orden p del proceso AR(p) (de la misma manera que el correlograma es usado para estimar el orden q del proceso MA(q)).

Pronóstico Ejemplo detección de un proceso AR(p) Los siguientes dos gráficos son dos PACF de dos procesos diferentes. El primero es un proceso AR(1) con α 1 = 0.8 y el segundo es un AR(2) con α 2 = 0.6

Pronóstico Ejemplo: cocaína en billetes Habíamos considerado que la serie era un proceso AR(1) La serie de tiempo ilustra la contaminación de cocaína en 1065 billetes incautados de alguien que posteriormente fue acusado de un crimen que involucraba manipulación de esta droga.

Pronóstico Ejemplo: cocaína en billetes EL PACF y el ACF de la serie son Por lo tanto, preferiríamos ajustar a la data una serie de un proceso AR(2) en vez de uno AR(1).

Pronóstico Procesos ARMA(p,q) Un proceso AR(p) junto con uno MA(q) se pueden combinar para formar un modelo ARMA(p,q) La serie {X t} se dice que es un proceso ARMA(p,q) si X t viene dado por X t = α 1X t 1 + α 2X t 2 +... + α px t p + Z t + θ 1Z t 1 +... + θ qz t q donde Z t W N(0, σ 2 ) Desde este punto de vista se puede observar que MA(q) y AR(p) son casos particulares de procesos ARMA, obtenidos para p = 0 y q = 0, respectivamente. Es decir MA(q)=ARMA(0,q) AR(p)=ARMA(p,0) Ruido blanco=arma(0,0)

Pronóstico Ejemplo: ARMA(1,1) X t = α 1X t 1 + Z t + θ 1Z t 1 Esperanza Autocovarianza Caso k = 0 Caso k = 1 Autocorrelación Caso k = 0 Caso k = 1 E(X t) = E(α 1X t 1 + Z t + θ 1Z t 1) cov(x t, X t+k ) = E(X tx t+k )

Pronóstico ARMA interactivo

Pronóstico ARMA(p,q) con constante El proceso ARMA(p,q) recién visto puede ser generalizado a X t = c + α 1X t 1 + α 2X t 2 +... + α px t p + Z t + θ 1Z t 1 +... + θ qz t q con c 0. A este proceso lo llamaremos ARMA(p,q) con término constante Si el proceso es estacionario, entonces la esperanza µ c µ = 1 α 1 α 2... α p Haciendo la misma transformación vista en clases pasadas Y t = X t µ

Pronóstico Y t = X t µ entonces Y t ARMA(p,q), ya que X t = c + α 1X t 1 + α 2X t 2 +... + α px t p + Z t + θ 1Z t 1 +... + θ qz t q = µ(1 α 1... α p) + α 1X t 1 +... + α px t p + Z t + θ 1Z t 1 +... + θ qz t X t µ = α 1(X t 1 µ) +... + α p(x t p µ) + Z t + θ 1Z t 1 +... + θ qz t q Y t = α 1Y t 1 + α 2Y t 2 +... + α py t p + Z t + θ 1Z t 1 +... + θ qz t q Luego tratamos Y t tal cual hemos visto hasta ahora y si queremos rescatar una expresión para X t, entonces usamos X t = µ + Y t Notar que la función de autocorrelación r(k) es la misma tanto para X t como para Y t ya que γ(k) no depende de µ

Pronóstico Pasos del proceso de ajuste del modelo El modelo ARMA(p,q) con E(X t) = µ (ARMA(p,q) con constante) tiene p + q + 2 parámetros: α 1, α 2,..., α p θ 1, θ 2,..., θ q µ, σ 2 y una muestra con N observaciones {x 1, x 2,..., x N }. El proceso de ajuste tiene las siguientes etapas: 1. Identificación de los modelos posibles. Esta etapa puede incluir el preprocesamiento de la data para lograr la estacionariedad (por ejemplo, diferenciar en el caso de series integradas - procesos ARIMA que veremos a continuación). Los gráficos ACF y PACF pueden ser usados como ayuda para identificar los modelos apropiados. Para comparar los modelos seleccionados un criterio muy utilizado es el AIC.

Pronóstico Pasos del proceso de ajuste del modelo 2. Estimacion de los parámetros del modelo. En general existen 3 enfoques: métodos de los momentos, minimos cuadrados no lineales, y máxima verosimilitud. 3. Verificación del modelo escogido. Esto puede hacerse revisando los residuos {Ẑt}, los cuales deben ser ruido blanco. Graficar {Ẑt} versus el tiempo (qué se deberia ver?) o realizar un correlograma (los residuos no tienen que estar correlacionados) (Más adelante veremos una aplicación de este estilo)

Pronóstico Procesos ARIMA En la práctica, la serie {X t} puede no ser estacionaria Para estacionarizar, debemos controlar por el efecto no estacionario de la serie (tendencia, por ejemplo) Como vimos anteriormente si consideramos las diferencias de la serie a veces podemos rescatar estacionariedad Orden 1: X t = X t X t 1 Orden 2: ( X t) = 2 X t =? En general, si la serie {X t} tiene una tendencia que sigue un polinomio de grado d en el tiempo t, entonces consideramos el proceso en diferencias de orden d W t = d X t Luego, si {W t} puede ser modelado usando un proceso ARMA(p,q) entonces la serie {X t} se dice que es un modelo ARIMA(p,d,q)

Pronóstico Ejemplo: ARIMA(0,1,1) Consideremos el modelo X t = X t 1 + Z t θz t 1 Luego, podemos expresar W t = X t X t 1 = Z t θz t 1 entonces {W t} ARMA(0,1) y {X t} ARIMA(0,1,1)

Pronóstico Ejemplo: Box-Jenkins La data de Box-Jenkins consiste en el total mensual de pasajeros internacionales en EEUU, de enero 1949 a diciembre 1960 La serie ha sido log-transformada, y la periodicidad ha sido removida Un gráfico se muestra a continuación Podemos ver una clara tendencia, aproximadamente lineal

Pronóstico Ejemplo: Box-Jenkins

Pronóstico Ejemplo: Box-Jenkins La primera diferencia... Se ve mejor, podriamos decir entonces que el modelo ARIMA(p,1,q) es adecuado.

Pronóstico Pronóstico con un proceso ARMA (Box-Jenkins) Ahora queremos estimar valores futuros de una serie de valores observados. Supongamos que tenemos las observaciones x 1,..., x N. El problema es estimar el valor X N+h para algún entero h. Para simplificar asumiremos que no hay término constante. Notación Denotamos X N N+h el pronóstico hecho en t = N para X N+h Ejemplo, cuando h = 1 tenemos X N N+1 que es el pronóstico de X N+1 hecho en t = N Idea general La idea general es reemplazar Z T = 0 para cualquier valor T > t (valor futuro de t). Así, al periodo N, Z N+1, Z N+2,... son reemplazados por cero. Por otra parte, X t es reemplazado por su pronóstico para valores futuros de t. Por ejemplo, para un pronóstico hecho en N, X N+1 es reemplazado por X N N+1. Es decir, el pronóstico se realiza utilizando la forma del modelo (este enfoque se conoce como Box-Jenkins)

Pronóstico Pronóstico de X N+1 en el periodo N De la definición de un proceso ARMA(p,q), sabemos que X N+1 = α 1X N +α 2X N 1+...+α px N+1 p+z N+1+θ 1Z N +...+θ qz N+1 q Para obtener el pronóstico del periodo N + 1, hecho en el periodo N (X N N+1), reemplazamos Z N+1 = 0, luego X N N+1 = α 1X N + α 2X N 1 +... + α px N+1 p + θ 1Z N +... + θ qz N+1 q Entonces X N N+1 = X N+1 Z N+1

Pronóstico Ejemplo: AR(1) Consideremos que las observaciones {x 1,..., x N } siguen el proceso X t = 0.5X t 1 + Z t Calcular el pronóstico para h = 1, en t = N Calcular el pronóstico para h = 2, en t = N Calcular el pronóstico para h, cualquier entero, en t = N.