Procesos de media móvil y ARMA

Documentos relacionados
Procesos autorregresivos

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Procesos autorregresivos

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013

Procesos de Media Móvil y ARMA

Predicción con modelos ARIMA

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Econometría II Grado en finanzas y contabilidad

LADE y DER-LADE. Primer evaluación parcial

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

Econometria con Series Temporales

Tema 2: Modelos probabilísticos de series

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

1. Control de Mínima Varianza

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

Apuntes de Series Temporales

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

Análisis de series temporales

Tópicos en Series de Tiempo

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Problemas de Espacios Vectoriales

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Tema 2 MODELOS UNIVARIANTES LINEALES.

Econometría II Grado en finanzas y contabilidad

Técnicas de Predicción Solución Examen Final

Tema 4. El Modelo de Regresión Lineal con Series Temporales.

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores

UNIDAD. Logaritmos ÍNDICE DE CONTENIDOS

Macroeconometría ( ) Examen final

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Series de tiempo con aplicaciones: Enfoque temporal

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

CURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Sistemas de Ecuaciones Lineales y Matrices

TEMA 3.- VECTORES ALEATORIOS.- CURSO

Derivada de la función compuesta. Regla de la cadena

Espacios vectoriales

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).

Procesos Estocásticos Estacionarios

Métodos Estadísticos Multivariados

Espacios vectoriales reales.

6 Vectores. Dependencia e independencia lineal.

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

Anuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales.

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Modelos Arma y método Box & Jenkins

Diagonalización de matrices

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

UNIDAD 1 NUMEROS COMPLEJOS

Predicción. Capítulo Predictores lineales

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas

Econometría 2. Modelos no estacionarios y contrastes de raíz unitaria = 0 8. (0 4) 1 +, (0 2 ), y valores críticos

Sistemas de ecuaciones lineales

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo.

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

2. El conjunto de los números complejos

Econometría II - examen (SOLUCION)

ECUACIONES POLINÓMICAS CON UNA INCÓGNITA

TEMA 8 REGRESIÓN Y CORRELACIÓN

Continuidad y monotonía

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

La transformada de Laplace

Formas canónicas de Jordan

1. Matrices. Operaciones con matrices

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

2. Hallar las soluciones enteras de la ecuación. x 4 + y 4 = 3x 3 y.

CAPITULO 8. LA TRANSFORMADA DE LAPLACE La transformada de Laplace

Funciones convexas Definición de función convexa. Tema 7

Series Temporales. Teresa Villagarcía

Econometria de Series Temporales

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

ECUACIONES Y SISTEMAS EN DIFERENCIAS

electromagnética. tica. Ondas electromagnéticas ticas Física Avanzada Universidad de Vigo. Departamento de Física Aplicada

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Departamento de Ingeniería Matemática - Universidad de Chile

Reglas de derivación Sumas, productos y cocientes. Tema 4

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

ÁLGEBRA II (LSI PI) UNIDAD Nº 2 GEOMETRÍA ANALÍTICA. Facultad de Ciencias Exactas y Tecnologías UNIVERSIDAD NACIONAL DE SANTIAGO DEL ESTERO

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Transcripción:

Capítulo 5 Procesos de media móvil y ARMA Herman Wold (1908-1992) Estadístico y económetra sueco. Desarrolló la representacion general de procesos estacionarios y la metodología econométrica estudiando los problemas de identificación y causalidad en econometría y las funciones de demanda. Es además el inventor de los mínimos cuadrados parciales (PLS), método de estimación muy utilizado en aplicaciones químicas y sociológicas. Fué profesor de estadística en la Universidad de Uppsala desde 1942 hasta 1970 y en la de Goteborg desde 1970 hasta 1975. Fue presidente de la Econometric Society. 5.1 Introducción En el capítulo anterior hemos estudiado una clase de procesos estacionarios lineales, los procesos autorregresivos, que se caracterizan por tener muchos coeficientes de autocorrelación distintos de cero y que decrecen con el retardo. Estos procesos AR son procesos con memoria relativamente larga, ya que el valor actual de una serie esta correlado con todos los anteriores, aunque con coeficientes decrecientes. Como vimos en el capítulo anterior esta propiedad se traduce en que podemos escribir un proceso AR como una función lineal de todas las innovaciones que le han generado, con pesos que tienden a cero con el retardo. Los procesos AR no pueden representar series de memoria muy corta, donde el valor actual de la serie sólo esta correlado con un número pequeño de valores anterios, de manera que la función de autocorrelación simple tenga sólo unas pocas autocorrelaciones distintas de cero. Una familia de procesos que tienen esta propiedad de memoria muy corta son los procesos de media móvil, o procesos MA de su nombre en inglés moving average, que estudiremos en este capítulo. Estos procesos MA son función de un número finito, y generalmente pequeño, de las innovaciones pasadas que han ocurrido en el proceso. Después, combinaremos las propiedades de los procesos AR y MA para definir los procesos ARMA, que dan lugar a una familia muy amplia y flexible de procesos estocásticos estacionrios útiles para representar muchas series temporales. Los procesos puros AR y MA aparecen entonces como casos particulares de esta representación general ARMA. 5.2 EL proceso de media móvil de orden uno (MA(l)) Se define el proceso de media móvil de orden uno, MA(l), añadiendo a un proceso de ruido blanco una dependencia del valor actual de la serie de la última innovación ocurrida. De esta manera el proceso será una combinación lineal de las dos últimas innovaciones, de acuerdo con la ecuación: ez t = a t θa t 1 (5.1) donde ez t = z t µ, siendo µ la media del proceso y a t es un proceso de ruido blanco con varianza σ 2. El proceso MA(1) puede escribirse con la notación de operadores: 1

2 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA ez t =(1 θb) a t. (5.2) Este proceso es la suma de los dos procesos estacionarios, a t y θa t 1 y, por tanto, siempre será estacionario, para cualquier valor del parámetro, a diferencia de los procesos AR. En las aplicaciones de este proceso supondremos que θ < 1, de manera que la innovación pasada tenga menos peso que la presente. Entonces, decimos que el proceso es invertible y tiene la propiedad de que el efecto de los valores pasados de la serie decrece con el tiempo. Para justificar esta propiedad, sustituyamos a t 1 en (5.1) como función de z t 1,elresultadoes: y repitiendo esta operación para a t 2 : ez t = a t θ (ez t 1 + θa t 2 )= θez t 1 θ 2 a t 2 + a t ez t = θez t 1 θ 2 (ez t 2 + θa t 3 )+a t = θez t 1 θ 2 ez t 2 θ 3 a t 3 + a t mediante sustituciones sucesivas de a t 3, a t 4..., etc, se obtiene: Xt 1 ez t = θ i ez t 1 θ t a 0 + a t (5.3) i=1 Se observa que si θ < 1, elefectodeez t k tiende hacia cero con k y el proceso se denomina invertible. Si θ 1 se daría la situación paradójica en que el efecto de las observaciones pasadas aumentaría con la distancia y, aunque el proceso seguiría siendo estacionario, parece poco adecuado para representar series reales. En adelante, supondremos que el proceso es invertible. Entonces, como θ < 1, existe el operador inverso (1 θb) 1 y podemos escribir la ecuación (5.2) como: 1+θB + θ 2 B 2 +... ez t = a t (5.4) queequivalea: ez t = X θ i ez t 1 + a t i=1 que es equivalente a (5.3) suponiendo que el proceso comienza en el infinito pasado. Esta ecuación representa el proceso MA(l) con θ < 1 como un AR( ) concoeficientes que decrecen en progresión geométrica. La varianza del proceso se calcula a partir de (5.1). Elevando al cuadrado y tomando esperanzas se obtiene: E(ez t 2 )=E(a 2 t )+θ 2 E(a 2 t 1) 2θE(a t a t 1 ) ycomoe(a t a t 1 )=0por ser un proceso de ruido blanco y E(a 2 t )=E(a 2 t 1) =σ 2, tenemos que: σ 2 z = σ 2 1+θ 2. (5.5) Esta ecuación nos indica que la varianza marginal del proceso, σ 2 z, es siempre mayor que la varianza de las innovaciones, σ 2, y tanto mayor cuanto mayor sea θ 2. 5.2.1 Función de autocorrelación simple y parcial Para obtener la función de autocorrelación simple de un proceso MA(l) comenzaremos calculando las covarianzas. La de primer orden se calcula multiplicando la ecuación (5.1) por ez t 1 y tomando esperanzas: γ 1 = E(ez t ez t 1 )=E(a t ez t 1 ) θe(a t 1 ez t 1 ). En esta expresión el primer término E(a t ez t 1 ) es cero, ya que ez t 1 según (5.1) el valor en un instante de la serie depende de su innovación, a t 1, y de la innovación previa, a t 2, pero no de las innovaciones futuras, como a t. Para calcular el segundo, sustituyendo ez t 1 por su expresión según (5.1), resulta E(a t 1 ez t 1 )=E(a t 1 (a t 1 θa t 2 )) = σ 2

5.3. EL PROCESO MA(Q) 3 con lo que se obtiene: De la misma forma se calcula la autocovarianza de orden dos: γ 1 = θσ 2. (5.6) γ 2 = E(ez t ez t 2 )=E(a t ez t 2 ) θe(a t 1 ez t 2 )=0 ya que como los valores de la serie estan incorrelados con las innovaciones futuras los dos términos son nulos. El mismo resultado se obtiene para las covarianzas de orden superior a uno ya que si multiplicamos la ecuación (5.1) por ez t j, donde j>1, y tomamos esperanzas siempre aparecerán esperanzas del valor de la serie en un instante e innovaciones futuras, con lo que se obtiene: γ j =0, j > 1. (5.7) Dividiendo las autocovarianzas (5.6) y (5.7) por la expresión (5.5) de la varianza del proceso, obtenemos que los coeficientes de autocorrelación de un proceso MA(1) verifican: ρ 1 = θ 1+θ 2, ρ k =0 k>1, (5.8) ylafas tendrá únicamente un valor distinto de cero en el primer retardo. Como θ < 1 el valor del coeficiente de autocorrelación en un MA(1) invertible es siempre menor que 0.5. Este resultado demuestra que la función de autocorrelación simple (fas) deunprocesoma(l)tienelas mismas propiedades que la función de autocorrelación parcial (fap) de un proceso AR(l): existe un primer coeficiente distinto de cero y todos los demás son nulos. Esta dualidad entre el AR(1) y el MA(1) se presenta también en la función de autocorrelación parcial, fap. En efecto, según (5.4), al escribir un proceso MA(l) en forma autorregresiva hay un efecto directo de z t k sobre z t de magnitud θ k, cualquiera que sea k. Por tanto, la fap tendrá todos los coeficientes no nulos y que decrecen geométricamente con k. Estaeslaestructurade la fas de un AR(l) y, por tanto, concluimos que la fap de un MA(l) tiene la misma estrutura que la fas de un AR(l). Ejemplo 5.1 Los datos de la serie que vamos a estudiar estan en el fichero tempmundo.dat. Son datos mensuales entre los años 1881-2002 y representan la desviación entre la temperatura promedio de un mes y la media de ese mes calculada promediando las temperaturas en los 25 años entre 1951-1975. Esta serie se ha construido para estudiar el calentamiento de la tierra. El gráfico de esta serie se presenta en la figura 5.1. Vemos que esta serie, y t, tiene tendencia creciente, por lo que no se estacionaria. Sin embargo, z t = y t y t 1, que representa las variaciones de temperatura media en la tierra entre un mes y el siguiente es una serie estacionaria, como indica su gráfico que aparece en la figura 5.2. Se observa que la serie z t es estacionaria y parece mostrar correlación negativa. La figura 5.3 muestra su función de autocorrelación, donde se observa un sólo coeficiente diferente de cero. El gráfico 5.4 muestra la fap, donde se observa un decrecimiento geométrico. Ambos gráficos sugieren un modelo MA(1) para la serie de diferencias entre meses, z t. 5.3 El Proceso MA(q) Generalizando la idea de un MA(1), podemos escribir procesos cuyo valor actual dependa no sólo de la última innovación sino de las q últimas innovaciones. Se obtiene entonces el proceso MA(q), con representación general: ez t = a t θ 1 a t 1 θ 2 a t 2... θ q a t q, o, introduciendo la notación de operadores: ez t = 1 θ 1 B θ 2 B 2... θ q B q a t (5.9)

4 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA 1 0.5 0-0.5-1 -1.5 0 500 1000 1500 Figura 5.1: Temperaturas de la tierra en desviaciones a la media del mes entre 1881 y 2002 que puede escribirse de forma más compacta como: ez t = θ q (B) a t. (5.10) Un proceso MA(q) es siempre estacionario, por ser la suma de procesos estacionarios. Diremos que el proceso es invertible si las raíces del operador θ q (B) =0son, en módulo, mayores que la unidad. Las propiedades de este proceso se obtienen con el mismo método utilizado para el MA(1). Multiplicando (5.9) por ez t k para k 0 y tomando esperanzas se obtienen las autocovarianzas: γ 0 = 1+θ 2 1 +... + θ 2 q σ 2 γ k = ( θ k + θ 1 θ k+1 +... + θ q k θ q ) σ 2 k =1,..., q γ k = 0 k>q resultando que un proceso MA(q) tiene exactamente los q primeros coeficientes de la función de autocovarianzas distintos de cero. Dividiendo las covarianzas por γ 0 y utilizando una notación más compacta, la función de autocorrelación será. P i=q i=0 ρ k = θ iθ k+i P i=q, k =1,..., q i=0 θ2 i ρ k = 0, k > q. donde θ 0 = 1, y θ k =0para k q +1. Para calcular la función de autocorrelación parcial de un MA(q) expresaremos el proceso como un AR( ): y llamando θ 1 q (B) =π (B), donde: θ 1 q (B) ez t = a t π (B) =1 π 1 B... π k B k...

5.3. EL PROCESO MA(Q) 5 Figura 5.2: Variaciones mensuales sobre las medias de los meses de las temperaturas en la tierra en el periodo 1881-2002 yloscoeficientes de π (B) se obtienen imponiendo que π (B) θ q (B) =1. Suponer que el proceso es invertible implica que las raíces de θ q (B) =0están fuera del círculo unidad, y la serie π (B) será convergente. Igualando las potencias de B a cero, se obtiene que los coeficientes π i verifican la relación siguiente: π k = θ 1 π k 1 +... + θ q π k q donde π 0 = 1 y π j =0para j<0. La solución de esta ecuación en diferencias será de la forma P A i G k i, donde ahora los G 1 i son las raices del operador de media móvil. Obtenidos los coeficientes π i de la representación AR( ), podemos escribir el proceso MA como: X ez t = π i ez t i + a t i=1 Esta expresión permite concluir que la fap de un MA será no nula para todo retardo, ya que existe un efecto directo de ez t i sobre ez t para todo i. Lafap de un proceso MA tendrá pues la misma estructura que la fas de un proceso AR del mismo orden. Concluimos que existe una dualidad entre procesos AR y MA, de manera que la fap de un MA(q) tiene la estructura de la fas de un AR(q) ylafas de un MA(q) tiene la estructura de la fap de un AR(q). La figura 5.5 presenta esta funciones para procesos MA(1) y MA(2).

6 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Figura 5.3: Funcion de autocorelación para la serie de desviaciones de la temperatura de la tierra Figura 5.4: Funcion de autocorelación parcial para la serie de desviaciones de la temperatura de la tierra

5.4. PROCESOS MA( ). LA DESCOMPOSICIÓN DE WOLD 7 5.4 Procesos MA( ). La descomposición de Wold Los procesos autorregresivos y de media móvil estudiados en las secciones anteriores son casos particulares de una representación general de procesos estacionarios obtenida por Wold (1938). Este autor demostró que todo proceso estocástico débilmente estacionario, z t,demediafinita, µ, que no contenga componentes deterministas, puede escribirse como una función lineal de variables aleatorias incorreladas, a t, como: z t = µ + a t + ψ 1 a t 1 + ψ 2 a t 2 +... = µ + X ψ i a t i (ψ 0 =1) (5.11) donde E(z t )=µ, y E [a t ]=0; Var(a t )=σ 2 ; E [a t a t k ]=0,k>1. Llamando ez t = z t µ, yutilizandoel operador de retardo, podemos escribir: i=0 ez t = ψ(b)a t (5.12) siendo ψ(b) =1+ψ 1 B + ψ 2 B 2 +... un polinomio indefinido en el operador de retardo B. Llamaremos a (5.12) la representación lineal general de un proceso estacionario no determinista. Las propiedades del proceso se obtienen como en los caso de un modelo MA. La varianza de z t en (5.11) será: Var(z t )=γ 0 = σ 2 X i=0 ψ 2 i (5.13) y para que el proceso tenga varianza finita la serie ψ 2 i ª debe ser convergente. Observemos que si los coeficientes ψ i se anulan a partir de un retardo q el modelo general se reduce a un MA(q) y la fórmula (5.13) coincide con la obtenida en el apartado anterior. Las covarianzas se obtienen con γ k = E(ez t ez t k )=σ 2 X i=0 ψ i ψ i+k que proporcionan como caso particular para k =0la fórmula (5.13) para la varianza. De nuevo si los coeficientes ψ i se anulan a partir de un retardo q esta expresión para las autocovarianzas coincide con las de un proceso MA(q). Los coeficientes de autocorrelacion vendrán dados por: ρ k = P i=0 ψ iψ i+k P i=0 ψ2 i Esta representación es importante porque nos garantiza que cualquier proceso estacionario admite una representación lineal. En general, las variables a t forman un proceso de ruido blanco, es decir están incorreladas con media cero y varianza constante, pero si, como ocurre para ciertos procesos, tienen una distribución normal, entonces el proceso {a t } es de variables independientes y la variable ez t tiene una distribución normal. Entonces la estacionaridad débil coincide con la estricta. La figura 5.6 presenta una interpretación física del teorema de Wold. La serie ez t, puede considerarse el resultado de pasar un proceso de impulsos {a t } de variables incorreladas a través del filtro lineal ψ (B) que determina la ponderación de cada «impulso» en la respuesta

8 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Figura 5.6: La descomposición de Wold como un filtro lineal. Una consecuencia de este teorema es que todo proceso estacionario admite también una representación autorregresiva, que puede ser de orden infinito. Esta representación es la inversa de la de Wold, y escribiremos ez t = π 1 ez t 1 + π 2 ez t 2 +... + a t, queennotacióndeoperadoressereducea π(b)ez t = a t. La representacion AR( ) es la dual de la MA( ) yseverifica π(b)ψ(b) =1, con lo que igualando las potencias de B a cero podemos obtener los coeficientes de una representación a partir de los de la otra. 5.4.1 Los Procesos AR y MA y el proceso general Es inmediato comprobar que un proceso MA es un caso particular de la representación de Wold. También lo son los procesos AR. Por ejemplo, el proceso AR(l) (1 φb) ez t = a t (5.14) puede escribirse, como vimos en el capítulo 4, multiplicando por el operador inverso (1 φb) 1 ez t = 1+φB + φ 2 B 2 +... a t querepresentaalprocesoar(1) comouncasoparticulardelaformama( ) del proceso lineal general, con coeficientes ψ i que decaen en progresión geométrica. La condición de estacionaridad y varianza finita, serie de coeficientes ψ 2 i convergente, equivale ahora a que φ < 1. Para procesos AR de orden más alto resulta más cómodo obtener los coeficientes de la representación MA( ) imponiendo la condición de que esta representación es el resultado de invertir un proceso AR, con lo que el producto de ambos operadores debe ser la unidad. Por ejemplo, para un AR(2) la condición será: 1 φ1 B φ 2 B 2 1+ψ 1 B + ψ 2 B 2 +... =1 e imponiendo la anulación de las potencias de B se obtienen los coeficientes: ψ 1 = φ 1 ψ 2 = φ 1 ψ 1 + φ 2 ψ i = φ 1 ψ i 1 + φ 2 ψ i 2, i 2 donde ψ 0 =1. Análogamente, para un AR(p) los coeficientes ψ i de la representación general se calculan mediante:

5.5. EL PROCESO ARMA(1, 1) 9 yparai p deben verificar la condición: 1 φ1 B... φ p B p 1+ψ 1 B + ψ 2 B 2 +... =1 ψ i = φ 1 ψ i 1 +... + φ p ψ i p, i p La condición de estacionaridad implica que las raíces de la ecuación característica del proceso AR(p), φ p (B) =0, deben estar fuera del círculo unidad. Escribiendo el operador φ p (B) como: donde G 1 i φ p (B) = py (1 G i B) i=1 son las raíces de φ p (B) =0,severifica que, desarrollando en fracciones parciales: φ 1 p (B) = X k i (1 G i B) será convergente si G i < 1. En resumen, los procesos AR pueden considerarse casos particulares de la representación del proceso lineal general que se caracterizan porque: (1) todos los ψ i son distintos de cero; (2) existen restricciones sobre las ψ i, que dependen del orden del proceso. En general verifican la secuencia ψ i = φ 1 ψ i 1 +...+φ p ψ i p, con condiciones iniciales que dependen del orden del proceso. Esta relación entre los coeficientes ψ i y los del proceso permiten concluir que los coeficientes ψ i tienen la misma estructura que los coeficientes de autocorrelación simple. En efecto, para un AR(p) hemos visto que satisfacen la ecuación de un proceso, como ocurría con las autocorrelaciones, y para un MA el número de coeficientes no nulos de ambos tipos es el orden del proceso. 5.5 ElprocesoARMA(1,1) Una conclusión de la sección anterior es que los procesos AR y MA aproximan un proceso lineal general MA ( ) desde puntos de vista complementarios: los AR permiten estructura MA ( ), pero imponen restricciones sobre las pautas de decrecimiento de los coeficientes ψ i ; los MA exigen un número de términos finito, pero a cambio no imponen restricciones sobre sus valores. Desde el punto de vista de la estructura de autocorrelación, los AR permiten muchos coeficientes distintos de cero, pero con una pauta de decrecimiento fija,mientras que los MA permiten unos pocos coeficientes distintos de cero con valores arbitrarios. Los procesos ARMA intentan combinar estas propiedades y permiten representar de forma escueta (utilizando pocos parámetros) procesos cuyos primeros q coeficientes son cualesquiera mientras que los siguientes decrecen según leyes simples. Matemáticamente, los procesos ARMA resultan de añadir estructura MA a un proceso AR o viceversa. El proceso más simple es el ARMA(1, l), que se escribe: o, con notación de operadores: ez t = φ 1 ez t 1 + a t θ 1 a t 1 (1 φ 1 B) ez t =(1 θ 1 B) a t (5.15) donde φ 1 < 1 para que el proceso sea estacionario, y θ 1 < 1 para que sea invertible. Además supondremos que φ 1 6= θ 1. Si ambos parámetros fuesen idénticos tendríamos que, multiplicando ambos miembros por el operador (1 φ 1 B) 1, resulta que ez t = a t, y el proceso sería ruido blanco. En la formulación de los modelos ARMA supondremos siempre que no hay raices comunes en los operadores AR y MA. Para obtener la función de autocorrelación de un ARMA(1,1), multiplicando (5.15) por ez t k y tomando esperanzas, se obtiene: γ k = φ 1 γ k 1 + E (a t ez t k ) θ 1 E (a t 1 ez t k ) (5.16)

10 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Para k>1, elruidoa t esta incorrelado con la historia de la serie. Para comprobarlo basta expresar el proceso como un MA( ) invirtiendo la parte AR ez t =(1 φ 1 B) 1 (1 θ 1 B) a t = a t +(φ 1 θ 1 )a t 1 + φ 1 (φ 1 θ 1 )a t 2 +... yalsera t ruido blanco estará incorrelado con los valores a t i y, por tanto, con ez t i. En consecuencia: Para k =0, E[a t ez t ]=σ 2 y γ k = φ 1 γ k 1 k>1 (5.17) E [a t 1 ez t ]=E [a t 1 (φ 1 ez t 1 + a t θ 1 a t 1 )] = σ 2 (φ 1 θ 1 ) sustituyendo estos resultados en (5.16), para k =0 γ 0 = φγ 1 + σ 2 θ 1 σ 2 (φ 1 θ 1 ). (5.18) Tomando en (5.16) k =1,resultaqueE[a t ez t 1 ]=0,E[a t 1 ez t 1 ]=σ 2 y se obtiene: y resolviendo (5.18) y (5.19) se obtiene: γ 1 = φ 1 γ 0 θ 1 σ 2 (5.19) γ 0 = σ 2 1 2φ 1θ 1 + θ 2 1 1 φ 2 1 Para obtener los coeficientes de autocorrelación, dividiendo (5.19) por esta expresión: ρ 1 = (φ 1 θ 1 )(1 φ 1 θ 1 ) 1 2φ 1 θ 1 + θ 2 1 (5.20) Observemos que si φ 1 = θ 1, esta autocorrelación es cero, porque, como indicamos antes, los operadores (1 φ 1 B) y (1 θ 1 B) se cancelan y resultará un proceso de ruido blanco. En el caso frecuente en que ambos coeficientes son positivos y φ 1 > θ 1 es fácil comprobar que la correlación aumenta con (φ 1 θ 1 ). El resto de los coeficiente de autocorrelación se obtienen dividiendo (5.17) por γ 0, que resulta en: ρ k = φ 1 ρ k 1 k>1 que indica que a partir del primer coeficiente la fas de un ARMA(1, 1) tiene un decrecimiento exponencial determinado por el parámetro φ 1 de la parte AR. La diferencia con un AR(l) es que este decrecimiento comienza a partir de ρ 1, y no de ρ 0 =1, y este primer valor de la autocorrelación de primer orden depende de la diferencia relativa entre φ 1 y θ 1. Observemos que si φ 1 w 1 y φ 1 θ 1 = ε, pequeño, podemos tener muchos coeficientes distintos de cero pero todos de pequeño tamaño. Para calcular la fap escribiremos el ARMA(1, 1) en la forma AR( ) (1 θ 1 B) 1 (1 φ 1 B) ez t = a t y utilizando que (1 θ 1 B) 1 =1+θ 1 B + θ 2 1B 2 +..., y operando, se obtiene: ez t =(φ 1 θ 1 ) ez t 1 + θ 1 (φ 1 θ 1 ) ez t 2 + θ 2 1 (φ 1 θ 1 ) ez t 3 +... + a t El efecto directo de ez t k sobre ez t decrece geométricamente con θ k 1 y, por tanto, la fap tendrá un decrecimiento geométrico a partir de un valor inicial. En conclusión, en un proceso ARMA(1,1) la fas y la fap tienen una estructura similar: un valor inicial, cuya magnitud depende de φ 1 θ 1, y después decrecimiento geométrico. La tasa de decrecimiento en la fas depende de φ 1, mientras que en la fap depende de θ 1.Lafigura 5.7 presenta las funciones de autocorrelación simple y parcial para distintos procesos ARMA (1,1).

5.6. PROCESOS ARMA(P,Q) 11 Figura 5.7: Funciones de autocorrelación simple y parcial para procesos ARMA(1,1) 5.6 Procesos ARMA(p,q) El proceso ARMA(p, q) será: 1 φ1 B... φ p B p ez t =(1 θ 1 B... θ q B q ) a t (5.21) o, en notación compacta, φ p (B) ez t = θ q (B) a t El proceso será estacionario si las raíces de φ p (B) =0esta fuera del círculo unidad, e invertible si lo están las de θ q (B) =0. Supondremos, además, que no hay raíces comunes que pueden cancelarse entre los operadores AR y MA. Para obtener los coeficientes ψ i de la representación general MA( ) escribiremos: ez t = φ p (B) 1 θ q (B) a t = ψ (B) a t e igualaremos las potencias de B en ψ (B) φ p (B) alasdeθ q (B). Análogamente, podemos representar un ARMA(p, q) como un AR( ) haciendo: θ 1 q (B) φ p (B) ez t = π (B) ez t = a t

12 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA yloscoeficientes π i resultarán de φ p (B) =θ q (B) π (B). Para calcular las autocovarianzas, multiplicando (5.21) por ez t k y tomando esperanzas, γ k φ 1 γ k 1... φ p γ k p = E [a t ez t k ] θ 1 E [a t 1 ez t k ]... θ q E [a t q ez t k ] para k>qtodos los términos de la derecha se anulan, y dividiendo por γ 0 : es decir: ρ k φ 1 ρ k 1... φ p ρ k p =0 φ p (B) ρ k =0 k>q (5.22) y concluimos que los coeficientes de autocorrelación para k > q seguirán un decrecimiento determinado únicamente por la parte autorregresiva. Los primeros q coeficientes dependen de los parámetros MA y AR y de ellos p proporcionarán los valores iniciales para el decrecimiento posterior (para k > q) según (5.22). Por tanto, si p>qtoda la fas mostrará un decrecimiento dictado por (5.22). En resumen, la fas: 1. tendrá q p +1valores iniciales con una estructura que depende de los parámetros AR y MA; 2. decrecerá a partir del coeficiente q p como una mezcla de exponenciales y sinusoides, determinada exclusivamente por la parte autorregresiva. Puede comprobarse que la fap tendrá una estructura similar. Conclusión La fas y fap de los procesos ARMA es el resultado de la superposición de sus propiedades AR y MA: en la fas ciertos coeficientes iniciales que dependen del orden de la parte MA y después un decrecimiento dictado por la parte AR. En la fap valores iniciales dependientes del orden del AR y seguidos del decrecimiento debido a la parte MA. Esta estructura compleja hace que el orden de un proceso ARMA sea difícil de identificar en la práctica. La figura 5.8 resume estas características Figura 5.8: Resumen de la fas y fap de procesos ARMA

5.7. LOSPROCESOSARMAYLASUMADEPROCESOSESTACIONARIOS 13 5.7 Los procesos ARMA y la suma de procesos estacionarios Una razón que explica porque los procesos ARMA son frecuentes en la práctica es que al sumar procesos AR resulta un proceso ARMA. Para ilustrar esta idea, consideremos el caso más simple donde sumamos a un proceso AR(1) un ruido blanco. Sea z t = y t + v t (5.23) donde y t = φy t 1 + a t sigue un proceso AR(1) de media cero y v t es un ruido blanco independiente de a t, yportantodey t. El proceso z t puede interpretarse como el resultado de observar un proceso AR(1) con cierto error de medida. La varianza de este proceso suma será: γ z (0) = E(z 2 t )=E (y 2 t + v 2 t +2y t v t ) = γ y (0) + σ 2 v, (5.24) ya que como los sumando son independientes la varianza es la suma de las varianzas de los componentes. Para calcular las autocovarianzas tendremos en cuenta que las autocovarianzas del proceso y t verifican γ y (k) =φ k γ y (0) y que las del proceso v t son nulas. Entonces: γ z (k) =E(z t z t k )=E [(y t + v t )(y t k + v t k )] = γ y (k) =φ k γ y (0), k 1 ya que por la independencia de los componentes E [y t v t k ]=0para cualquier k yalserv t ruido blanco E [v t v t k ]=0. En particular, sustituyendo en la ecuación anterior para k =1la varianza γ y (0) por su expresión (5.24), se obtiene: γ z (1) = φγ z (0) φσ 2 v (5.25) mientras que para k 2 γ z (k) =φγ z (k 1) (5.26) Si comparemos la ecuación (5.25) con la (5.19) y la (5.26) con la (5.17) concluimos que el proceso z t sigue un modelo ARMA(1,1) con parámetro AR igual a φ. El parámetro θ y la varianza de las innovaciones del proceso ARMA(1,1) dependen de la relación entre las varianzas de los sumandos. En efecto, llamando λ = σ 2 v/γ y (0) al cociente de varianzas entre los dos sumandos, según la ecuación (5.25) la primera autocorrelación es: ρ z (1) = φ φ λ 1+λ mientras que por (5.26) las restantes verifican, para k 2, ρ z (k) =φρ z (k 1). Si λ es muy pequeño, lo que implica que la varianza del ruido adicional o error de medida e pequeño, el proceso será muy próximo a un AR(1), y el parámetro θ será muy pequeño. Si λ no es muy pequeño, tendremos el ARMA(1,1) y el valor de θ depende de λ ydeφ. Si λ, de manera que el ruido blanco sea dominante, el parámetro θ será igual al valor de φ y tendremos un proceso de ruido blanco. Los resultados anteriores se generalizan para cualquier proceso AR(p). Puede comprobarse (véase Granger y Morris, 1976) que se verifica: AR(p)+AR(0) = ARMA(p, p), y que, además: AR(p)+ AR(q) = ARM A(p + q,max(p, q)) Por ejemplo, si sumamos dos procesos AR(1) independientes se obtiene un nuevo proceso ARMA(2,1). La suma de procesos MA es simple, y es fácil comprobar que si sumamos procesos MA independientes obtenemos nuevos procesos MA. Supongamos z t = x t + y t donde los dos procesos x t,y t tienen media cero y siguen procesos MA(1) independientes con covarianzas γ x (k), γ y (k), que son cero para k>1. La varianza del proceso suma será: γ z (0) = γ x (0) + γ y (0), (5.27)

14 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA y la autocovarianza de orden k E(z t z t k )=γ z (k) =E [(x t + y t )(x t k + y t k )] = γ x (k)+γ y (k) Por tanto, todas las covarianzas γ z (k) de orden mayor que uno serán cero, ya que los son γ x (k) y γ y (k). Dividiendo esta ecuación por γ z (0) y utilizando (5.27), se obtiene que las autocorrelaciones verificarán: ρ z (k) =ρ x (k)λ + ρ y (k)(1 λ) donde: γ λ = x (0) γ x (0) + γ y (0) es la varianza relativa del primer sumando. En el caso particular en que uno de los dos procesos sea ruido blanco se obtendrá un modelo MA(1) con autocorrelación menor que para el proceso original. De la misma forma es fácil demostrar que MA(q 1 )+MA(q 2 )=MA(max(q 1,q 2 )). Para procesos ARMA se demuestra también que: donde ARMA(p 1,q 1 )+ARMA(p 2,q 2 )=ARMA(a, b) a p 1 + p 2, b max(p 1 + q 1,p 2 + q 2 ) Estos resultados sugieren que siempre que observemos procesos que sean suma de otros, y alguno de ellos tenga estructura AR, es esperable observar procesos ARMA. Este resultado es a primera vista sorprendente, porque la mayoría de las series reales pueden considerarse como suma de ciertos componentes, lo que supondría que todos los procesos reales deberían ser ARMA. Sin embargo, en la práctica muchas series reales se aproximan bien mediante series AR o MA. La explicación de esta paradoja es que un proceso ARMA(p+h, p) con p raices similares en la parte AR y MA puede en la práctica aproximarse bien por un AR(h), por la casi cancelación de raices similares en ambos miembros. Ejercicios 5 5.1 Dado el proceso de media cero z t =(1.7B)a t : (a) calcular la función de autocorrelación; (b) escribirlo como un proceso AR( ). 5.2 Demostrar que los procesos MA(1) z t = a t 0.5a t 1 y z t = a t 2a t 1 tienen la misma estructura de autocorrelación pero uno es invertible y otro no. 5.3 Demostrar que los dos procesos z t = a t +0.5a t 1 y z t =0.5a t + a t 1 son indistinguibles ya que tienen lamismavarianzaylamismaestructuradeautocorrelación. 5.4 Dado el proceso MA(2) z t = a t 1.2a t 1 +0.35a t 2 : (a) comprobar si es invertible; (b) calcular su estructura de autocorrelación; (c) escribirlo como un proceso AR( ). 5.5 Dado el modelo z t =5+0.9z t 1 + a t +0.4a t 1 : (a) calcular su estructura de autocorrelación;(b) escribirle en la forma MA( ); (c) escribirle en el forma AR( ). 5.6 Dado el proceso (1 B +0.21B 2 )z t = a t 0.3a t 1 :(a) comprobar si es estacionario e invertible; (b) obtener la función de autocorrelación simple; (c) obtener su representación AR( ); (d) obtener su representación MA( ). 5.7 Demostrar que si sumamos dos procesos MA(1) se obtiene un nuevo proceso MA(1) con parámetro MA que es una combinación lineal de los parámetros MAde los dos procesos, con pesos proporcionales a los cocientes entre las varianzas de las innovaciones de los sumando con relación a la varianza de la innovación del proceso suma.