Series de tiempo con aplicaciones: Enfoque temporal

Documentos relacionados
Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Procesos autorregresivos

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Econometría II Grado en finanzas y contabilidad

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Tópicos en Series de Tiempo

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

Modelos Arma y método Box & Jenkins

Tema 2: Modelos probabilísticos de series

Econometria con Series Temporales

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

ARCH y GARCH. Series de tiempo. Miguel Ángel Chong R. 14 de mayo del 2013

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

Econometría II Grado en finanzas y contabilidad

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo.

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013

LADE y DER-LADE. Primer evaluación parcial

Econometría II Grado en finanzas y contabilidad

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Procesos de media móvil y ARMA

Ejemplos de estudios de series de tiempo

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

Econometria de Series Temporales

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Curso de nivelación Estadística y Matemática

Apuntes de Series Temporales

Uso de la función de correlación cruzada en la identificación de modelos ARMA

Predicción con modelos ARIMA

Modelos Box-Jenkins. Presentamos a continuación un ejemplo con datos reales en el que se hace uso de gran parte de lo expuesto hasta este momento.

Análisis de series temporales

CAPÍTULO 4 DESARROLLO DE LA INVESTIGACIÓN. En este capítulo se aplicarán los métodos seleccionados a la información. Primero se

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

PROCESOS ESTACIONARIOS UNIVARIADOS 1

Universidad Nacional Autónoma de México Laboratorio de Cómputo Científico, F. C.

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

Conceptos básicos sobre Series de Tiempo

Procesos de Media Móvil y ARMA

3. Variables aleatorias

Repaso de Teoría de la Probabilidad

Curso 2006/07. Tema 4: Tratamiento de la estacionalidad. Modelos SARIMA. 2. Estudio teórico de los modelos estacionales

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Modelos Lineales Generalizados

Series económicas: Precios de divisas, tasas, índice de precios. Series Físicas: Meteorológica, temperatura, energia solar

Momentos de Funciones de Vectores Aleatorios

Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º ( )

Intervalos de confianza para los índices de capacidad C pm y C pmk en procesos estacionarios gaussianos

EJC 22: METODOLOGÍA BOX JENKINS

Este manual se ha elaborado como material de guía y apoyo para que el alumno se inicie, tanto desde un punto de vista teórico como aplicado, en el

Modelos para series de tiempo de memoria larga: identificación y aplicaciones

Índice general. Resumen... Introducción Series de tiempo univariadas Ejemplos Procesos estocásticos 7

Econometría II - examen (SOLUCION)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Clase 3. Procesos estocásticos en Teoría de la señal.

SERIE TEMPORAL TASA PASIVA REFERENCIAL ECUADOR MAT. GEOVANNY TOALOMBO Agosto 2006

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero

TEMA 3 REGRESIÓN Y CORRELACIÓN

Part I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria

Cálculo de Probabilidades II Preguntas Tema 2

5. Estimación del Modelo y Resultados

Métodos Estadísticos Multivariados

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

DISTRIBUCIONES DE PROBABILIDAD

Repaso de conceptos de álgebra lineal

EXTRACCIÓN DE SEÑALES EN MODELOS ARIMA

Repaso de Estadística

SOLUCIONES PRÁCTICA 6: SERIES TEMPORALES DIPLOMADO EN ESTADÍSTICA

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Procesos estocásticos

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Series de tiempo I. Procesos univariados y estacionarios. Gabriel Montes-Rojas. Series temporales estacionarias Estacionariedad Predicción

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Tema 2 MODELOS UNIVARIANTES LINEALES.

Una nota sobre la prueba de Peña y Rodríguez para la bondad del ajuste en series de tiempo

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Procesos Estocásticos Estacionarios

CRITERIOS DE EVALUACIÓN 1º BACH. C. N. S. MATEMÁTICAS I

Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Índice General de Ventas en Grandes Almacenes y su logaritmo

Transformaciones y esperanza

MODELADO DE DOS INTERVENCIONES EN ALGUNAS SERIES DE PARADOS DE CASTILLA Y LEÓN (*)

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE

Abstract. Keywords: Econometric Models Human Rights Basic Areas of Law JEL: C5, R15, K1

Teórica básica. Incluimos. - Temas

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

Estadística Espacial

COMPONENTES PRINCIPALES

Series de Tiempo Estacionarias

Series de Tiempo. Pablo Flores. Universidad Iberoamericana 1 de noviembre de 2016

Distribuciones multivariadas

Transcripción:

Series de tiempo con aplicaciones: Enfoque temporal Gladys E. Salcedo E. 25o Simposio Internacional de Estadística Agosto 6,7 de 2015 Armenia, Quindío

Datos 1: Series igualmente espaciadas Turbiedad 20 40 60 80 Silicatos 0 50 150 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes Clorofila 0 40 80 120 Nitritos 0.00 0.15 0.30 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes ph 7.0 8.0 9.0 Ortofosfatos 0.0 0.2 0.4 0.6 0 20 40 60 80 100 Mes 0 20 40 60 80 100 Mes

Datos 2: Series estacionales

Datos 3: Series desigualmente espaciadas Nitritos 0.1 0.3 0.5 Fosfatos 0.5 1.0 1.5 2.0 0 100 200 300 400 Delta_i 0 100 200 300 400 Delta_i ph 7.0 7.5 8.0 8.5 Silicatos 1 3 5 7 0 100 200 300 400 Delta_i 0 100 200 300 400 Delta_i Clorofila 0 2 4 6 8 0 100 200 300 400 Delta_i

1. Algunas generalidades Sea (Ω, A, P) un espacio de probabilidad y sea T un conjunto de índices, un proceso estocástico es una función X(t, ω), definida en T Ω, tal que para cada t fijo X(t, ω) es una variable aleatoria sobre (Ω, A, P) y para cada ω fijo, X(t, ω) es una trayectoria, realización, función muestral del proceso o una serie de tiempo. Graficamente un proceso estacionario puede representarse así: Proceso estocástico como una familia de variables aleatorias

Proceso estocástico como una familia de trayectorias Xt 2 1 0 1 2 3 0 20 40 60 80 100 Tiempo La serie de tiempo como una trayectoria

El proceso {X t, t T} se dice que es estrictamente o fuertemente estacionario si las distribuciones conjuntas de (X t1, X t2,..., X tk ) y (X t1 +h, X t2 +h,..., X tk +h) son iguales para todo t 1, t 2,..., t k, h T, o sea, son invariantes a translaciones en el tiempo. Esto es, F Xt1,X t2,...,x tk (x 1, x 2,..., x k ) = F Xt1 +h,x t2 +h,...,x tk +h (x 1, x 2,..., x k ). Proceso estocástico estacionario

Dado el proceso {X t, t T} se define la función media del proceso por µ t = E(X t ) = la función varianza del proceso por σ 2 t = E(X t µ t ) 2 = X t df Xt, (X t µ) 2 df Xt, y la función de autocovarianza entre las variables X t1 y X t2 por γ x (t 1, t 2 ) = E(X t1 µ 1 )(X t2 µ 2 ) = si las integrales de Riemann-Stieltjes son finitas. (X t1 µ 1 )(X t2 µ 2 ) df Xt1,X t2.

Cuando un proceso {X t, t T} es estrictamente estacionario, con EX 2 t <, se tiene en particular que F Xtk (x) permanece invariante para todo k. Por otra parte, implicando que F Xt1, X t2 (x 1, x 2 ) = F Xt1 +k, X t2 +k (x 1, x 2 ) i) E(X t ) = µ t = µ, t T; ii) Var(X t ) = σ 2 = σ 2 x, t T; iii) γ x (t i, t j ) = γ x ( t i t j ) = γ x (k), para cualesquier t i, t j, k T. Esto es, la covarianza entre las dos variables X ti y X tj sólo depende de su separación t i t j = k. Note que γ x (0) = σx 2 y γ x (k) = γ( k), es decir, la función de autocovarianza tiene su máximo en cero y es una función simétrica alrededor de cero. Un proceso {X t, t T} que satisface las propiedades (i), (ii) y (iii) se dice que es débilmente estacionario o estacionario de segundo orden.

{X t, t T} es un proceso gaussiano si y solamente si las funciones de distribución de {X t1, X t2,..., X tk }, para cualquier k, son todas normales multivariadas. Cómo correlacionar las variables del proceso? La Función de Autocorrelación Simple (FAS) del proceso {X t, t T} a rezago k se define mediante la función ρ x (k) = Corr(X t, X t+k ) = γ x(k) γ x (0), k Z. La FAS de un proceso estacionario cumple las siguientes propiedades: i) ρ x (0) = 1, ii) ρ x (k) 1, k Z, iii) ρ x ( k) = ρ x (k), k Z, iv) ρ x (k) es no negativa definida en el sentido que n n j=1 k=1 a ja k ρ x ( t i t j ) 0, para cualesquier reales a 1,..., a n y t 1,..., t n de Z.

La Función de Autocorrelación Parcial(FAP) entre X t y X t+k corresponde a la función de correlación entre los errores e t y e t+k dada por ϕ x (k) = Corr(e t, e t+k ), donde X t = α 1 X t+1 + α 2 X t+2 +... + α k 1 X t+k 1 + e t y X t+k = β 1 X t+1 + β 2 X t+2 +... + β k 1 X t+k 1 + e t+k. Función de Autocorrelación

Cuando ambas funciones de autocorrelación, la simple y la parcial, son todas nulas para todo k 0 se dice que el proceso es sin memoria o es un ruido blanco. Una sucesión de variables aleatorias {a t, t T} es un proceso ruido blanco de media cero si i) E(a t ) = { 0, t T σ 2 ii) γ(k) = a para k = 0 0 para k 0, Función de Autocovarianza de un Ruido Blanco o sea que su esperanza es cero, su varianza es constante y los {a t, t = 1, 2,..., } son variables aleatorias no correlacionadas.

Transformaciones a series estacionarias Dada una serie {X t, t T}, considere el operador de rezagos B d, d Z +, tal que B d X t = X t d, t T B 0 X t = X t y B d C = C, para C una constante. A partir del operador B d se puede construir un nuevo operador (1 B) d, el cual transforma la serie {X t, t T} en la serie de las d-ésimas diferencias. Ejm. Si d = 1, se tiene Y t = (1 B)X t = X t BX t = X t X t 1, Y 1 = X 2 X 1 Y 2 = X 3 X 2.. Y t 1 = X t X t 1

Si d = 2, se tiene W t = (1 B) 2 X t = (1 B)(1 B)X t = (1 B)Y t = Y t Y t 1, es decir que {W t, t T} es la serie con las variaciones de las primeras diferencias, o sea la serie de las segundas diferencias de {X t, t T.}. Y así sucesivamente. Cuando la no estacionariedad de una serie se debe a que la media presenta tendencias polinómicas de orden d, una transformación de la serie original a través del operador (1 B) d permite convertirla en una serie estacionaria. En la práctica rara vez se requieren los valores de d mayores a 2.

Ejemplos: 0 20 40 60 80 100 120 140 Xt Xt 0 1000 2000 3000 4000 5000 Xt 0 10 20 30 40 50 0 10 20 30 40 50 t t (a) (b) Series no estacionarias generadas en el programa R Note que las series presentan tendencia, la figura (a) muestra una tendencia de tipo lineal mientras que la figura (b) presenta una tendencia de tipo cuadrático. 0 20 40 60 80 100 120 140 Yt=diff(Xt) 30 20 10 0 10 20 30 0 10 20 30 40 50 0 10 20 30 40 50 t t (a) (b) Serie estacionaria luego de transformada

Cuando la no estacionariedad se debe a que la varianza no permanece constante se podría realizar una Transformación de Box y Cox: Suponga que la varianza σ 2 t de la variable aleatoria X t puede expresarse como una función de su media, es σ 2 t = f (µ t ). Si T( ) es una función cuya primera derivada existe, por la expansión de Taylor de primer orden se puede obtener la siguiente aproximación lineal de T(X t ) alrededor de µ t : ( ) dt T(X t ) T(µ t ) + (X t µ t ). dx t Xt =µ t Aplicando varianza a ambos lados y resolviendo el lado derecho de la ecuación anterior se obtiene una aproximación lineal a la varianza de T(X t ) dada por ( 2 dt Var(T(X t )) dx t f (µ t ). Xt =µ t)

Se desea entonces que Var(T(X t )) = C 2, esto es ( ) 2 dt f (µ t ) = C 2 dx t Xt=µ t de donde T(µ t ) = C f (µt ) dµ t. Restringiendo la forma funcional de f a la familia de funciones potencia, resulta fácil determinar la transformación T. Si la varianza es proporcional a µ 2(1 α) t para algún α, se tiene que T(µ t ) = { C Cµt α µ 1 α dµ t = α α 0 t Cln(µ t ) α = 0 En general, la función T que estabiliza la varianza de X t es { Xt α T(X t ) = α α 0 ln(x t ) α = 0 que es la Transformación de Box y Cox.

El valor de α puede identificarse mediante el siguiente procedimiento: 1. Divida la realización en varios subconjuntos y calcule para cada subconjunto la media, el rango y la desviación típica. 2. Haga un gráfico cartesiano con los valores de las medias en el eje horizontal y las desviaciones típicas en el vertical. 3. Si los puntos presentan una tendencia paralela al eje horizontal tome α = 1 y en tal caso no se necesita una transformación. Si los puntos se aproximan a una recta con pendiente positiva tome α = 0 y en este caso la transformación logarítmica es adecuada. Valores de α para la transformación de Box y Cox

2. Modelos Lineales para Series de Tiempo De acuerdo al tipo de relación lineal que se establezca entre las variables del proceso, los modelos lineales para series de tiempo pueden ser Autorregresivos(AR), de Medias Móviles(MA) y Autorregresivos de Medias Móviles (ARMA). 2.1. Los Procesos Autorregresivos El proceso {X t, t T} es Autorregresivo de orden p, p Z +, si X t = C + ϕ 1 X t 1 + ϕ 2 X t 2 + + ϕ p X t p + a t, donde {a t, t T} es un ruido blanco. Notación: AR(p). Si el proceso es estacionario en media, y tomando esperanza a ambos lados de esta ecuación se tiene

E[X t ] = E[C] + ϕ 1 E[X t 1 ] + ϕ 2 E[X t 2 ] + + ϕ p E[X t p ] + E[a t ], µ = C + ϕ 1 µ + ϕ 2 µ + + ϕ p µ, de donde, p C = µ(1 ϕ i ). i=1 Reemplazando C y denotando por X t = X t µ, se tiene X t = ϕ 1 X t 1 + ϕ 2 X t 2 + + ϕ p X t p + a t, la cual corresponde a un AR(p) de media cero. En términos del operador B el modelo queda en la forma X t = ϕ 1 B X t + ϕ 2 B 2 X t + + ϕ p B p X t + a t (1 ϕ 1 B ϕ 2 B 2 ϕ p B p ) X t = a t, ϕ p (B) X t = a t. ϕ p (B) = 0 es la ecuación característica del proceso. El proceso AR(p) es estacionario si todas las raíces de ϕ p (B) = 0 están fuera del círculo unitario.

2.1.1. Procesos Autorregresivos de orden 1 En particular cuando p = 1 se tiene X t = ϕ 1 X t 1 + a t, donde ϕ 1 (B) = 1 ϕ 1 B y la ecuación característica 1 ϕ 1 B = 0 tiene su raíz fuera del círculo unitario cuando ϕ 1 < 1, lo cual corresponde a la condición de estacionariedad para el proceso AR(1). Si el proceso también es estacionario en varianza se tiene que de donde V( X t ) = ϕ 2 1V( X t ) + V(a t ), σ 2 x = σ 2 a (1 ϕ 2 1 ). Luego la condición de estacionariedad, ϕ 1 < 1, también garantiza que σ 2 x sea finita y positiva.

La función de autocorrelación simple del proceso AR(1) tiene la forma ρ x (k) = ϕ k 1, para k 1, y por lo tanto cuando el proceso es estacionario, la función ρ x (k) decrece a cero en forma exponencial. La función de autocorrelación parcial tiene la forma { ϕ1 si k = 1 ϕ x (k) = 0 si k 1. Gráficamente: FAS 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.0 0.2 0.4 0.6 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un modelo AR(1) para ϕ 1 = 0.65

Ejemplo: Color Rio Quindio 2 3 4 5 6 7 8 9 0 20 40 60 80 100 120 Mes Serie Color Rio Quindío FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.0 0.2 0.4 0.6 0.8 0 5 10 15 20 5 10 15 20 FAS y FAP para Color

Modelo: X t = 3.51 + 0.86X t 1 + a t Residuales color 2 1 0 1 2 3 0 20 40 60 80 100 120 Mes Serie residual para modelo de Color FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.1 0.0 0.1 0.2 0 5 10 15 20 5 10 15 20 FAS y FAP para residuales de Color

2.1.2. Procesos Autorregresivos de orden 2 Cuando p = 2, se tiene X t = ϕ 1 X t 1 + ϕ 2 X t 2 + a t, donde ϕ 2 (B) = 1 ϕ 1 B ϕ 2 B 2 = 0, es la ecuación característica y tiene sus raíces fuera del círculo unitario cuando se cumplen las tres siguientes condiciones: ϕ 2 < 1, ϕ 1 + ϕ 2 < 1, ϕ 2 ϕ 1 < 1, las cuales corresponden a las condiciones de estacionariedad del proceso AR(2), y además también garantizan que la varianza de X t sea finita, dado que Var( X t ) = (1 ϕ 2 )σ 2 a (1 + ϕ 2 )(1 ϕ 1 ϕ 2 )(1 + ϕ 1 ϕ 2 ).

Si el modelo AR(2) se premultiplica por X t k y se toma valor esperado se llega a la ecuación en diferencias γ x (k) = ϕ 1 γ x (k 1) + ϕ 2 γ x (k 2), k 1. Al dividir la anterior ecuación entre γ x (0) se obtiene ρ x (k) = ϕ 1 ρ x (k 1) + ϕ 2 ρ x (k 2), k 1, cuya ecuación característica es justamente ϕ 2 (B) = 1 ϕ 1 B ϕ 2 B 2 = 0.

Luego la función de autocorrelación simple ρ x (k), para el proceso AR(2), depende de la solución de la ecuación característica, así: i) Si ambas raíces denotadas G 1 1 y G 1 2 son reales pero distintas entonces ρ x (k) = A 1 G k 1 + A 2G k 2 con A 1 y A 2 dos constantes resultantes de aplicar las condiciones iniciales ρ(0) = 1 y ρ 1 = ϕ 1 1 ϕ 2. ii) Si ambas raíces son reales e iguales (G 1 ), entonces ρ x (k) = A 1 G k + A 2 kg k donde A 1 y A 2 se obtienen de las condiciones iniciales. iii) Si las raíces son un par de complejos conjugados denotados G 1 1 y G 1 2, entonces la función de autocorrelación tiene una forma sinusoidal amortiguada dada por ρ x (k) = signo(ϕ 1 ) k r k sin(kω + α) sin α donde r = ϕ 2, cos ω = ϕ 1 2 ϕ 2, tan α = 1+r2 1 r 2 tan ω.

La función de autocorrelación parcial del proceso AR(2) tiene la forma ρ 1 = ϕ 1 1 ϕ 2 si k = 1 ρ ϕ x (k) = 2 ρ 2 1 = ϕ 1 ρ 2 22 si k = 2 1 0 si k 3. En resumen gráficamente: FAS 0.4 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.6 0.4 0.2 0.0 0.2 0.4 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un AR(2) para ϕ 1 = 0.85 y ϕ 2 = 0.55

En general, para el proceso AR(p) ϕ p (B) X t = a t, la ecuación característica ϕ p (B) = 0, tiene p raíces, G 1 1, G 1 2,..., G 1 p, con lo cual se genera la solución general de la ecuación en diferencias, de la forma ρ x (k) = A 1 G k 1 + A 2G k 2 + + A pg k p, G i < 1, donde los A i se obtienen de las condiciones iniciales y los G i son reales o complejos; por lo tanto la función de autocorrelación simple ρ x (k) es una combinación lineal de funciones sinusoidales amortiguadas. Note que la función de autocorrelación parcial caracteriza los procesos autorregresivos, ya que el número de valores no nulos de esta función corresponden a su orden.

Ejemplo: Turbidez 20 40 60 80 100 0 20 40 60 80 100 Mes Serie de Turbidez Ciénaga Grande FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0.3 0.4 0.5 0 5 10 15 20 5 10 15 20 FAS y FAP para la serie de Turbidez

El modelo: Modelo sin constante: Normalidad residual: X t = C + ϕ 1 X t 1 + ϕ 2 X t 2 + a t, ϕ 1 ϕ2 Ĉ 0.3457 0.3434 56.5328 (0.0901) (0.0905) 4.7558 X t = ϕ 1 X t 1 + ϕ 2 X t 2 + a t, ϕ 1 ϕ2 Ĉ 0.3457 0.3434-0.7055 (0.0901) (0.0905) 4.7558 Test p-valor Kolmogorov-Smirnov 0.489

Mes Residuales 20 0 20 40 60 0 20 40 60 80 100 Serie residual de Turbidez Ciénaga Grande FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 5 10 15 20 FAS y FAP para la serie residual del modelo AR(2)

2.2. Procesos de Medias Móviles Cuando las variables del proceso dependen solamente de las variables de un proceso ruido blanco, surgen los modelos de Medias Móviles (MA). Un modelo de Medias Móviles de orden q está dado por X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, q Z +, donde {a t, t T} es un proceso de ruido blanco. En términos del operador de rezagos B, el modelo MA(q) puede representarse como X t = (1 θ 1 B θ 2 B 2 θ q B q )a t X t = θ q (B)a t, donde θ q (B) representa el polinomio característico del proceso.

De la ecuación X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, observe que E( X t ) = 0 y Var( X t ) = (1 + θ 2 1 + + θ2 q)σ 2 a, así que el proceso MA(q) es siempre estacionario y si las raíces de la ecuación θ q (B) = 0 caen fuera del círculo unitario, se dice que el proceso es invertible. 2.2.1. Procesos de Medias Móviles de orden 1 En el modelo MA(q), cuando q = 1 se tiene el proceso de medias móviles de orden 1, MA(1) X t = (1 θ 1 B)a t, así que el proceso es invertible si θ 1 < 1.

La función de autocorrelación del proceso es dada por ρ x (k) = { θ1 1+θ 2 1 si k = 1 0 si k > 1, La función de autocorrelación parcial es dada por ϕ x (k) = θk 1 (1 θ2 1 ) 1 θ 2(k+1), k 1. 1 En un MA(1) la FAS es cero a partir del rezago dos, mientras que la FAP decrece a cero exponencialmente. FAS 0.5 0.0 0.5 1.0 FAP 0.4 0.3 0.2 0.1 0.0 0.1 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un MA(1) para θ 1 = 0.75

2.2.2. Procesos de Medias Móviles de orden 2 Cuando q = 2 se tiene el proceso X t = (1 θ 1 B θ 2 B 2 )a t. El proceso estacionario, y las condiciones de invertibilidad son: θ 2 < 1, θ 1 + θ 2 < 1, θ 2 θ 1 < 1. La función de autocorrelación del proceso MA(2) es dada por θ 1 (1 θ 2 ) si k = 1 1+θ1 2+θ2 2 ρ x (k) = θ 2 si k = 2 1+θ 1 2+θ2 2 0 si k > 2 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un MA(2) para θ 1 = 0.94 y θ 2 = 0.33

En general, en el proceso MA(q), X t = a t θ 1 a t 1 θ 2 a t 2 θ q a t q, la varianza es dada por Var( X t ) = σ 2 a q j=0 θ2 j. Por su parte, la función de autocorrelación simple tiene la forma ρ x (k) = { θk +θ 1 θ k+1 + +θ q k θ q 1+θ 2 1 + +θ2 q si k = 1, 2,..., q 0 si k > q. Como en el proceso MA(2), la función de autocorrelación parcial del proceso MA(q) decae a cero, en forma exponencial o sinusoidal, dependiendo de las raíces de la ecuación característica 1 θ 1 B θ q B q = 0. Note que, en los procesos de medias móviles, el número de valores no nulos de la función de autocorrelación simple caracterizan su orden. Muchas situaciones prácticas corresponden a procesos mixtos, es decir que tienen parte autorregresiva y parte promedio móvil, se conocen como procesos ARMA.

2.3. Procesos de Autoregresivos de Medias Móviles Un modelo ARMA(p, q) con p el orden de la parte autorregresiva y q el orden del promedio móvil, tiene por ecuación X t = ϕ 1 X t 1 +ϕ 2 X t 2 + +ϕ p X t p θ 1 a t 1 θ 2 a t 2 θ q a t q +a t. En términos del operador de rezagos la ecuación toma la forma donde y ϕ p (B) X t = θ q (B)a t, ϕ p (B) = 1 ϕ 1 B ϕ 2 B 2 ϕ p B p θ q (B) = 1 θ 1 B θ 2 B 2 θ q B q. La estacionariedad y la invertibilidad del proceso depende de que las raices de las ecuaciones ϕ p (B) = 0 y θ q (B) = 0 estén fuera del C.U.

Para construir la FAS se se multiplica la ecuación del modelo a ambos lados por X t k y se toman las esperanzas γ k ϕ 1 γ k 1... ϕ p γ k p = E[ X t k a t 1 ] θ q E[ X t k a t q ]. Puede verificarse, que para k > q los valores esperados se hacen cero. Dividiendo luego por γ 0 se llega a o sea, ρ k ϕ 1 ρ k 1 ϕ p ρ k p = 0, ϕ p (B)ρ k = 0, k > q. Por lo tanto para valores de k > q la FAS tiene el mismo comportamiento que el ρ k de un AR(p) y para k = 1, 2,, q, el comportamiento depende de los parámetros ϕ i y θ i. Así que la FAS tiene un comportamiento irregular en los primeros q valores y a partir de allí se comporta como un AR(p). En cuanto a la función de autocorrelación parcial, ya que el proceso ARMA(p, q) contiene el proceso MA(q), la FAP cae en forma exponencial o sinusoidal dependiendo de las raices de las ecuaciones ϕ p (B) = 0 y θ q (B) = 0.

2.3.1. Procesos ARMA(1,1) La situación más simple en los procesos ARMA(p, q) ocurre cuando p = q = 1. En tal caso la ecuación del proceso está dada por (1 ϕ 1 B) X t = (1 θ 1 B)a t o también X t = ϕ 1 X t 1 θ 1 a t 1 + a t así el proceso es estacionario cuando ϕ 1 < 1 y para que sea invertible se requiere que θ 1 < 1. La FAS de un ARMA(1, 1) es 1 para k = 0 (ϕ ρ k = 1 θ 1 )(1 ϕ 1 θ 1 ) 1+θ1 2 2ϕ para k = 1 1θ 1 ϕ 1 ρ k 1 para k > 1 Note que ρ k tiene un decrecimiento geométrico que se inicia a partir de k = 1.

En cuanto a la función de autocorrelación parcial, ya que el proceso contiene un MA(1) la FAP decrece exponencialmente, y su forma depende de las magnitudes y signos de los parámetros del modelo, lo que gráficamente puede representarse en la siguiente forma: FAS 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.1 0.0 0.1 0.2 0.3 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un ARMA(1,1) para ϕ 1 = 0.87 y θ 1 = 0.62 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.6 0.4 0.2 0.0 0.2 0.4 0.6 0 2 4 6 8 10 2 4 6 8 10 FAS y FAP de un ARMA(1,1) para ϕ 1 = 0.73 y θ 1 = 0.45

2.4. Procesos ARIMA Lo analizado hasta ahora parte del supuesto de que el proceso {X t, t T} es estacionario en media. De no serlo sería necesario una transformación del tipo Y t = (1 B) d X t, y el análisis se haría entonces sobre el proceso {Y t, t T}. Para obtener nuevamente X t se requiere la transformación inversa X t = y por ejemplo para d = 1 se tiene Y t (1 B) d, X t = Y t (1 B) = i=0 B i Y t = t Y t i = Y j, i=0 j= o sea que X t resulta ahora de un proceso de Integración de Y t.

La ecuación del proceso después de restar la media, toma entonces la siguiente forma: ϕ p (B)Ỹ t = θ q (B)a t, que corresponde a ϕ p (B)(1 B) d X t = θ q (B)a t, o sea que depende de tres parámetros (p, d, q) con p como el orden de la parte autorregresiva, q el orden de la parte promedio móvil y d el orden de diferenciación para conseguir estacionariedad en media. Se dice entonces que el proceso X t, t T es del tipo ARIMA(p, d, q), esto es, Autorregresivo Integrado de Médias móviles.

Ejemplo: Estudiantes de Periodismo 100 200 300 400 500 Serie diferenciada 40 0 20 40 0 5 10 15 20 25 30 0 5 10 15 20 25 30 Semestre Semestre FAS 0.4 0.0 0.4 0.8 FAP 0.2 0.0 0.2 0.4 0.6 0 5 10 15 2 4 6 8 10 12 14 Serie de ingresos semestrales a Periodismo UQ Modelo ARIMA(1,1,0): ϕ 1 (B)(1 B) X t = a t, (1 0.68B) Z t = a t Z t = 0.68 Z t 1 + a t.

Semestre Residuales 40 20 0 20 0 5 10 15 20 25 30 Serie residual para modelo de Periodismo p-valor test de Kolmogorov-Smirnov = 0.8378 FAS 0.4 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0.3 0 5 10 15 2 4 6 8 10 14 FAS y FAP para la serie residual

2.5. Procesos SARIMA Suponga que se desconoce que el proceso {X t, t T} presenta una componente periódica y se le ajusta un modelo ARIMA(p, d, q), esto es ϕ p (B)(1 B) d X t = θ q (B)N t. Obviamente N t, t T no será un ruido blanco, y presentará correlaciones entre períodos estacionales, esto es ρ N (ks) = E(N t µ N )(N t ks µ N ) σ 2 N 0, k = 1, 2,.... Puede demostrarse que los períodos estacionales siguen un modelo ARIMA(P, D, Q) Φ P (B s )(1 B s ) D N t = Θ Q (B s )a t. donde y Φ P (B s ) = 1 Φ 1 B s Φ 2 B 2s Φ P B Ps Θ Q (B s ) = 1 Θ 1 B s Θ 2 B 2s Θ Q B Qs.

si las raíces de esos polinomios caen fuera del círculo unitario, del modelo del proceso {N t, t T} se puede llegar a la expresión ϕ p (B)Φ P (B s )(1 B s ) D (1 B) d X t = θ(b)θ Q (B s )a t, que se denomina el modelo ARIMA estacional multiplicativo o SARIMA(p, d, q) (P, D, Q) s.

Mes Salinidad 0 5 10 15 20 25 30 35 0 20 40 60 80 100 Serie Salinidad mensual Ciénaga Grande de Santa Marta FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.0 0.2 0.4 0.6 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP para la serie de salinidad

Mes Salinidad diferenciada 20 10 0 10 20 0 20 40 60 80 100 Serie salinidad diferenciada CGSM FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.3 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP para la serie de salinidad diferenciada

Algunos modelos candidatos Modelo SARIMA AIC σ 2 a Test K-S (0, 1, 1)(1, 0, 0) 12 644.41 31.08 0.3788 (0, 1, 0)(1, 0, 1) 12 648.82 32.15 0.162 (0, 1, 0)(1, 0, 0) 12 648.06 33.33 0.083 (0, 1, 1)(0, 0, 1) 12 651.15 34.80 0.292 (0, 1, 0)(0, 0, 1) 12 653.27 36.37 0.220 Residuales Modelo 2 20 10 0 10 0 20 40 60 80 100 Mes Serie residual para el Modelo 1 FAS 0.2 0.0 0.2 0.4 0.6 0.8 1.0 FAP 0.2 0.1 0.0 0.1 0.2 0 5 10 15 20 25 30 0 5 10 15 20 25 30 FAS y FAP de la serie residual del Modelo 1

Referencias Bibliográficas 1. Box,G.E.P. and Jenkins,G.M.(1976), Time Series Analysis Forescasting and Control, 2nd. Ed., Holdan-Day, San Francisco. 2. Heyse, J.F. and Wei, W.W.S. (1984), Partial Process Autocorrelation for Vector Time Series, Tech. Report No.30, Department of Statistics, Temple University. 3. Lutkepohl, H. (1991), Introduction to Multiple Time Series Analysis (MTS), Heidelberg. Springer Verlang. 4. Reinsel, G.C. (1993), Elements of Multivariate Time Series Analysis, Springer Verlag, New York. 5. Wei, W.W.S. (1990), Time Series Analysis: Univariate and Multivariate methods, Addison Wesley, California.