Modelos Box-Jenkins. Presentamos a continuación un ejemplo con datos reales en el que se hace uso de gran parte de lo expuesto hasta este momento.

Documentos relacionados
Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Econometría II Grado en finanzas y contabilidad

Guía breve de análisis de series temporales unidimensionales con Gretl

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

ANÁLISIS EN EL DOMINIO DEL TIEMPO

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

Econometría II Grado en finanzas y contabilidad

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

EJC 22: METODOLOGÍA BOX JENKINS

PRACTICAS SOBRE LA MODELIZACIÓN DE SERIES TEMPORALES MENSUALES CON LA METODOLOGÍA DE BOX-JENKINS

Econometría II Grado en finanzas y contabilidad

ARCH y GARCH. Series de tiempo. Miguel Ángel Chong R. 14 de mayo del 2013

Econometría 2. Modelos no estacionarios y contrastes de raíz unitaria = 0 8. (0 4) 1 +, (0 2 ), y valores críticos

Procesos autorregresivos

Predicción con modelos ARIMA

Ejemplos de estudios de series de tiempo

TODO ECONOMETRÍA. A continuación voy a realizar un primer gráfico para observar el comportamiento de mi serie.

TEMA 3 M O D E L O S U N I V A R I A N T E S L I N E A L E S

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Series Temporales. Teresa Villagarcía

Curso 2006/07. Tema 4: Tratamiento de la estacionalidad. Modelos SARIMA. 2. Estudio teórico de los modelos estacionales

Herramientas para el Estudio de Mercado. Técnicas de Predicción.

Apuntes de Series Temporales

Relación 3 de problemas

Estadística aplicada al medio ambiente

SOLUCIONES PRÁCTICA 6: SERIES TEMPORALES DIPLOMADO EN ESTADÍSTICA

Curso de nivelación Estadística y Matemática

REGRESIÓN LINEAL SIMPLE

Análisis de Series de Tiempo. Universidad Nacional Autónoma de México. M. en C. César Almenara Martínez. 10 de Noviembre de 2010.

Quinta Entrega. 3. Diagnosis: se comprueba que los residuos verifican la hipótesis de ruido blanco.

Análisis de Series Temporales con GRETL

Econometría de Económicas Ejercicios para el tema 2 y 3

Series de tiempo con aplicaciones: Enfoque temporal

Econometría dinámica y financiera

Tercera práctica de REGRESIÓN.

SERIE TEMPORAL TASA PASIVA REFERENCIAL ECUADOR MAT. GEOVANNY TOALOMBO Agosto 2006

Curso de Predicción Económica y Empresarial Edición 2004

Modelo Lineal Generalizado GAMMA. Distribución gamma: Otra parametrización mediante el parámetro de forma y la media:

Estadística Industrial. Universidad Carlos III de Madrid Series temporales Práctica 5

Máster en comunicaciones. Clase 2. Modelos predictores.

Modelos Arma y método Box & Jenkins

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelación con ARMA

SEMINARIO ECONOMETRIA 14 DE MAYO DEL CASO: Determinando un éstandar de productividad comercial en banca

Tema 4. Regresión lineal simple

Regresión con errores autocorrelacionados

No usar por academias

El Movimiento Browniano en la modelización del par EUR/USD

Ajustando Curva SnapStat

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE

Estimación del impacto de la subida del Impuesto sobre el Valor Añadido en el Índice de Precios al Consumo

Estadística II Ejercicios Tema 5

Diseño de experimentos Hugo Alexer Pérez Vicente

Análisis de Series. Modelos Heterocedásticos.

Econometría II Grado en finanzas y contabilidad

EJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos

LADE y DER-LADE. Primer evaluación parcial

Estacionalidad Determinista Segmentada, Efecto Calendario, Efecto Semana Santa y predicción de modelos con Raíces Unitarias

El modelo de regresión múltiple

Tema 2 MODELOS UNIVARIANTES LINEALES.

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es

Índice General de Ventas en Grandes Almacenes y su logaritmo

CAPÍTULO 4 DESARROLLO DE LA INVESTIGACIÓN. En este capítulo se aplicarán los métodos seleccionados a la información. Primero se

Modelación estadística: La regresión lineal simple

Estadística I Tema 5: Introducción a la inferencia estadística

Técnicas de Predicción Solución Examen Final

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Mínimos Cuadrados Generalizados

Ajuste por mínimos cuadrados

Regresión Lineal Múltiple

Econometria de Series Temporales

Tema 2. Heterocedasticidad. 1 El modelo de regresión lineal con errores heterocedásticos

Series temporales. Series temporales

Séptima Entrega. New Workfile Daily (5 days week) 1:1:1991 a 2:16:1998. File Import Read Text Lotus Excel

INTRODUCCION AL ECONOMETRIC VIEWS. Aquí se introduce la frecuencia y las fechas de comienzo y final de los datos.

Práctica 5: cointegración

Métodos Estadísticos para Economía y Gestión IN 540 Clase 7

Modelos de Calibración

UNIVERSIDAD DE ALICANTE FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES

Conceptos básicos de inferencia estadística (III): Inferencia no paramétrica: Contrastes de bondad de ajuste.

incendios forestales para el periodo de estudio. El software E-Views 9 es utilizado para las

Modelos Box-Jenkins. El paseo aleatorio X t = c + X t 1 + a t no es estacionario. Sin embargo, el proceso diferenciado regularmente

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u

Tema 8: Regresión y Correlación

Estadística II Examen Final 19/06/2015 Soluciones. Responda a las preguntas siguientes en los cuadernillos de la Universidad

Unidad V: Estadística aplicada

5. Estimación del Modelo y Resultados

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

Tema 5: Planteamiento de los modelos de series temporales. Coro Chasco Yrigoyen Universidad Autónoma de Madrid (UAM) Asignatura: Econometría II

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Contrastes sobre la media Sea X 1, X 2,..., X n una m.a.s. extraída de una población normal X con media desconocida µ. Se desea contrastar:

D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero

5. DISEÑO FACTORIALES 2 k

Tema 10: Introducción a los problemas de Asociación y Correlación

Transcripción:

: Presentamos a continuación un ejemplo con en el que se hace uso de gran parte de lo expuesto hasta este momento. La serie de tiempo que analizaremos se corresponde con la producción anual de tabaco en EE.UU. (1872-1983).

: 1: Identificación del modelo (gráf. secuencial, fas y fap muestrales) 1872-1983 El gráfico de la izquierda muestra presencia de heterocedasticidad y tendencia. Comenzamos transformando la serie para tratar de estabilizar la variabilidad. Puesto que ésta aumenta con el nivel de la serie (quizás la desviación típica sea lineal en la media), le aplicamos a la producción de tabaco la función logaritmo neperiano.

: Producción transformada (ln) El gráfico de la izquierda muestra que: La varianza de la producción se ha estabilizado al aplicarle la función logaritmo neperiano. La serie transformada tiene tendencia. La diferenciación regular podría eliminar la tendencia.

: Dif. reg. del ln de la producc. El gráfico de la izquierda muestra que: La tendencia ha sido eliminada al aplicarle una diferencia regular. La serie diferenciada es estacionaria (quizás presenta algún valor atípico).

: Dif. reg. del ln de la producc. A la espera de realizar el análisis de residuos, el gráfico de la izquierda sugiere que: La serie transformada proviene de un proceso MA(1). El logaritmo neperiano de la producción de tabaco ha sido generado por un proceso (0,1,1).

: El modelo identificado ((0,1,1)) se puede expresar como (1 B) Y t = c + (1 + θ 1 B) a t, siendo Y t = ln (X t ) y X t la producción de tabaco del año t. Una representación equivalente es Y t = c + Y t 1 + a t + θ 1 a t 1. Nota: Obsérvese que, puesto que el proceso diferenciado no tiene parte AR, la constante c coincide con su media µ.

: 2: Estimación del modelo identificado (0,1,1) Estimando los parámetros por máxima verosimilitud resulta: θ 1 = 0.6899 (0.0698), µ = 0.0145 (0.0049), y σ 2 a = 0.02624. Nótese que todos los parámetros son significativamente distintos de cero. Puesto que el modelo no tiene parte AR, la constante c del modelo coincide con la media µ del proceso diferenciado. Por tanto, c = 0.0145.

3: Diagnosis del modelo (0,1,1) : Residuos: gráficos secuencial y Q-Q normal Contrastes de independencia

: Contrastes de media cero y normalidad µ a = 0: p valor = 0.9145 Normalidad: Jarque-Bera: p valor = 9.39e 07 Shapiro-Wilk: p valor = 0.002283 Conclusión: Un modelo (0,1,1) con constante e innovaciones no gaussianas resulta adecuado como generador de la serie de la producción de tabaco (transformada a través de la función logaritmo neperiano).

: 4: modelo (criterio BIC) Hemos calculado los valores del criterio BIC para distintos procesos (p,1,q) (p, q {0, 1, 2, 3}). El modelo (0,1,1) resultó ser el de menor BIC (BIC= 74.31). Nótese que este modelo coincide con el previamente identificado en base a las fas y fap muestrales. Ninguno de los demás modelos evaluados alcanzó un BIC que distase del mínimo menos de 2 unidades.

: 5: Predicción en base al modelo (0,1,1) El (0,1,1) que hemos seleccionado, estimado y chequeado fue utilizado para realizar predicciones a horizontes de k = 1,..., 5. Éstas se muestran en el gráfico de la derecha (azul), junto con la serie histótica (negro). Puesto que no tenemos gaussianidad, no presentamos los intervalos de. Serie histótica y predicciones

: : La clase de procesos que acabamos de estudiar: Captura no estacionariedades provocadas por la presencia de tendencia (incluso no determinista). No captura no estacionariedades provocadas por la presencia de componente estacional. A continuación, ampliaremos la clase de procesos estudiada, de modo que la nueva clase sea capaz de modelizar no estacionariedades provocadas tanto por la presencia de tendencia (determinista o estocástica) como por la presencia de componente estacional (determinista o estocástica).

: ARMA : En la construcción de los procesos ya estudiados jugaban un papel fundamental los procesos ARMA. Recuérdese que: {X t } t es (p,d,q) (1 B) d X t es ARMA(p,q). Del mismo modo, necesitaremos de los procesos ARMA para construir la nueva clase de procesos.

: ARMA : Los procesos ARMA que ya hemos estudiado modelizan la dependencia regular: dependencia entre observaciones consecutivas ocurridas en el pasado inmediato. Por ejemplo: AR(1): X t = c + φ 1 X t 1 + a t. MA(2): X t = c + θ 1 a t 1 + θ 2 a t 2 + a t. ARMA(1,1): X t = c + φ 1 X t 1 + θ 1 a t 1 + a t. Los procesos ARMA modelizan la dependencia estacional: dependencia entre observ. ocurridas en instantes separados por múltiplos del período estacional s. Así, si s=12: AR(1) 12 : X t = c + Φ 1 X t 12 + a t. MA(2) 12 : X t = c + Θ 1 a t 12 + Θ 2 a t 24 + a t. ARMA(1,1) 12 : X t = c + Φ 1 X t 12 + Θ 1 a t 12 + a t.

Ejemplo de la fas y la fap de procesos AR(1) 12 y MA(2) 4 AR(1) 12 MA(2) 4 :

Ejemplo de la fas y la fap de procesos ARMA(1,1) 12 ARMA(1,1) 12 : Φ 1 > 0, Θ 1 > 0 ARMA(1,1) 12 : Φ 1 < 0, Θ 1 < 0 :

: ARMA : Definición Un proceso estacionario {X t } t que admite la representación X t = c + Φ 1 X t s + Φ 2 X t 2s + + Φ P X t Ps +a t + Θ 1 a t s + Θ 2 a t 2s + + Θ Q a t Qs, donde c, Φ 1,..., Φ P, Θ 1,..., Θ Q son constantes, se conoce como un proceso ARMA(P,Q) s (proceso ARMA estacional). Es un ARMA(sP,sQ) con muchos coeficientes nulos. Por tanto, las condiciones de estacionariedad, causalidad e invertibilidad se deducen de las de los ARMA. ARMA(P,0) s AR(P) s. ARMA(0,Q) s MA(Q) s.

: ARMA : Definición La ecuación que define al proceso ARMA(P,Q) s X t = c + Φ 1 X t s + Φ 2 X t 2s + + Φ P X t Ps +a t + Θ 1 a t s + Θ 2 a t 2s + + Θ Q a t Qs, se puede escribir en la forma compacta donde Φ (B s ) X t = c + Θ (B s ) a t, Φ (B s ) = ( 1 Φ 1 B s Φ 2 B 2s Φ P B Ps), Θ (B s ) = ( 1 + Θ 1 B s + Θ 2 B 2s + + Θ Q B Qs) y B s denota al operador retardo estacional, definido por B s X t = X t s.

: ARMA : Identificación fas Retardos s, 2s,... : AR(P) s Muchos coeficientes no nulos Se anula para todo MA(Q) s retardo mayor que Qs Retardos s, 2s,... : ARMA(P,Q) s Muchos coeficientes no nulos fap Se anula para todo retardo mayor que Ps Retardos s, 2s,... : Muchos coeficientes no nulos Retardos s, 2s,... : Muchos coeficientes no nulos Los valores en los retardos no (distintos de ks) son nulos.

Utilizando la información contenida en la tabla anterior, y la distribución muestral de ρ k ó α k bajo procesos MA ó AR, respect., identificamos algunos procesos ARMA. : Serie, fas y fap Conclusión Los gráficos de la izquierda sugieren que la serie: 1 Es estacionaria. 2 Ha sido generada por un proceso AR(1) 3.

: Serie, fas y fap Conclusión Los gráficos de la izquierda sugieren que la serie: 1 Es estacionaria. 2 Ha sido generada por un proceso AR(1) 12, o por un MA(1) 12.

: ARMA multiplicativos: Definición φ (B) X t = c + θ (B) a t. Modeliza la dependencia regular. ARMA estacional: Φ (B s ) X t = c + Θ (B s ) a t. Modeliza la dependencia estacional. ARMA estacional multiplicativo: Combinando ambos modelos, podemos modelizar conjuntamente la dependencia regular y la estacional a través del modelo φ (B) Φ (B s ) X t = c + θ (B) Θ (B s ) a t. Este modelo se denota por ARMA(p,q) (P,Q) s y es, en particular, un ARMA(p+sP,q+sQ) con muchos coeficientes nulos.

: ARMA multiplicativos: Ejemplos El proceso AR(1) MA(1) 12. 1 (1 φ 1 B) X t = c + ( 1 + Θ 1 B 12) a t. 2 X t = c + φ 1 X t 1 + a t + Θ 1 a t 12. El proceso MA(1) AR(1) 12. ( 1 1 Φ1 B 12) X t = c + (1 + θ 1 B) a t. 2 X t = c + Φ 1 X t 12 + a t + θ 1 a t 1. El proceso AR(1) AR(1) 12. 1 (1 φ 1 B) ( 1 Φ 1 B 12) X t = c + a t. 2 X t = c + φ 1 X t 1 + Φ 1 X t 12 φ 1 Φ 1 X t 13 + a t. El proceso MA(1) MA(1) 12. 1 X t = c + (1 + θ 1 B) ( 1 + Θ 1 B 12) a t. 2 X t = c + a t + θ 1 a t 1 + Θ 1 a t 12 + θ 1 Θ 1 a t 13.

Ejemplos de la fas y la fap de ARMAs multiplicativos AR(1) MA(1) 12 MA(1) AR(1) 12 :

Ejemplos de la fas y la fap de ARMAs multiplicativos AR(1) AR(1) 12 MA(1) MA(1) 12 :

: ARMA multiplicativos: Identificación Fas de un proceso ARMA estacional multiplicativo: En los retardos bajos (1, 2,..., [s/2]) se observará la fas de la parte regular. En los retardos (s, 2s, 3s...) se observará la fas de la parte estacional. A ambos lados de los retardos se repetirá la fas de la parte regular (invertida, si la fas en el retardo estacional es negativa).

: ARMA multiplicativos: Identificación Fap de un proceso ARMA estacional multiplicativo: En los retardos bajos (1, 2,..., [s/2]) se observará la fap de la parte regular. En los retardos (s, 2s, 3s...) se observará la fap de la parte estacional. A la derecha de cada retardo estacional aparecerá la fap de la parte regular (invertida, si la fap en el retardo estacional es positiva). A la izquierda de cada retardo estacional aparecerá la fas de la parte regular (invertida, si la fap en el retardo estacional es negativa).

Utilizando la información contenida en las 2 transparencias anteriores, y la distribución muestral de ρ k ó α k bajo procesos MA ó AR, respectivamente, identificamos algunos procesos ARMA multiplicativos. : Serie, fas y fap Conclusión Los gráficos de la izquierda sugieren que la serie: 1 Es estacionaria. 2 Ha sido generada por un proceso AR(1) AR(1) 7.

: Serie, fas y fap Conclusión Los gráficos de la izquierda sugieren que la serie: 1 Es estacionaria. 2 Ha sido generada por un proceso MA(1) AR(1) 12.

: : Sea X t = S t + V t, donde {S t } t no es estacionario, {V t } t sí y 1 S t = S t s (componente estacional determinista), ó 2 S t = S t s + W t donde {W t } t es estacionario con media 0 (componente estacional estocástica). {X t } t no es estacionario, pues contiene una componente que no lo es, S t. Sin embargo, sí lo es el proceso diferenciado estacionalmente 1 X t X t s = V t V t s ó 2 X t X t s = W t + V t V t s. Conclusión: A veces, la diferenciación estacional consigue eliminar la componente estacional.

: : Basándonos en los ejemplos anteriores, ante una serie con tendencia y/o componente estacional, sugerimos: Eliminar la tendencia aplicando d diferencias regulares ((1 B) d ). En general, es suficiente d 3. Eliminar la componente estacional aplicando D diferencias ((1 B s ) D ). En general, es suficiente D = 1. Una vez que la serie diferenciada es estacionaria, modelizarla a través de un Sólo dependencia regular: ARMA(p,q). Sólo dependencia estacional: ARMA(P,Q) s. Ambos tipos de dependencia: ARMA(p,q) (P,Q) s.

: : Definición Un proceso (p,d,q) (P,D,Q) s (o estacional multiplicativo) es aquél que, después de aplicarle d diferencias regulares y D diferencias de periodo s, se corvierte en un proceso ARMA(p,q) (P,Q) s. Equivalentemente: {X t } t es un proceso (p,d,q) (P,D,Q) s (o estacional multiplicativo) si admite una representación del tipo: φ (B) Φ (B s ) (1 B) d (1 B s ) D X t = c + θ (B) Θ (B s ) a t, donde el polinomio φ (z) Φ (z s ) no tiene raíces de módulo 1.

: Ejemplo: Proceso (1,1,1) (1,1,1) 12 La expresión del (1,1,1) (1,1,1) 12 es AR reg. AR est. Dif. reg. Dif. est. (1 φ 1 B) ( 1 Φ 1 B 12) (1 B) ( 1 B 12) X t = c + (1 + θ 1 B) ( 1 + Θ 1 B 12) a t MA MA reg. est.

: Ejemplo: Proceso (1,1,1) (1,1,1) 12 Operando en la expresión del (1,1,1) (1,1,1) 12 (1 φ 1 B) ( 1 Φ 1 B 12) (1 B) ( 1 B 12) X t = c + (1 + θ 1 B) ( 1 + Θ 1 B 12) a t se obtiene la representación: X t = c + (1 + φ 1 ) X t 1 φ 1 X t 2 + (1 + Φ 1 ) X t 12 (1 + φ 1 + Φ 1 + φ 1 Φ 1 ) X t 13 + (φ 1 + φ 1 Φ 1 ) X t 14 Φ 1 X t 24 + (Φ 1 + φ 1 Φ 1 ) X t 25 φ 1 Φ 1 X t 26 +a t + θ 1 a t 1 + Θ 1 a t 12 + θ 1 Θ 1 a t 13

: : Definición El proceso (p,d,q) (P,D,Q) s : Es estacionario cuando d = D = 0 (se convierte en un proceso ARMA(p,q) (P,Q) s ). Modeliza la dependencia regular (p o q 0). Modeliza la dependencia estacional (s > 1, y P o Q 0) Captura no estacionariedades provocadas por la presencia de tendencia (d > 0). Captura no estacionariedades provocadas por la presencia de componente estacional (s > 1 y D > 0). Generaliza a todos los procesos que hemos estudiado. Es, posiblemente, el proceso más utilizado en la modelización de series de tiempo univariantes.

: : Identificación En la práctica, ante una serie real,... cuándo propondremos un estacional como su generador? Cuando, siendo homocedástica, detectemos la presencia de componente estacional. La presencia de componente estacional en una serie (y, por tanto, la necesidad de diferenciarla estacionalmente para eliminarla) suele ser delatada por: El gráfico secuencial de la serie. La fas muestral: Presenta fuerte correlación positiva en el retardo estacional (y, posiblemente, en sus múltiplos), Converge lentamente a cero a medida que el retardo crece. Presenta periodicidad del mismo periodo que la serie,

: Serie original Serie diferenciada regularmente

: Serie dif. reg. y estac. (s=12) Conclusión Los gráficos estudiados sugieren que la serie original: 1 No es estacionaria. 2 Ha sido generada por un proceso (0,1,1) (0,1,1) 12, o quizás por un (1,1,0) (0,1,1) 12.

: Heterocedasticidad En los modelos teóricos que hemos presentado, la falta de estacionariedad venía provocada por la presencia de tendencia y/o componente estacional. Aplicando diferencias (regulares y/o, respectivamente) conseguíamos eliminar este tipo de no estacionariedad. Otra fuente que provoca falta de estacionariedad es la heterocedasticidad (la varianza no es constante o estable). A continuación veremos cómo eliminar la heterocedasticidad.

: En el gráfico de la derecha, se intuye que la variabilidad de la serie (consumo de electricidad...) no es constante. Concretamente, parece que la variabilidad aumenta al hacerlo el nivel de la serie. Serie heterocedástica

: En el gráfico de la derecha, se muestra la serie transformada a través de la función logaritmo neperiano. Se observa que la aplicación de dicha función ha conseguido estabilizar la varianza. Serie homocedástica (log)

: TRANSFORMACIONES PARA ESTABILIZAR LA VARIANZA Transformaciones de Box-Cox La familia de transformaciones de Box-Cox se define como aquélla que transforma a x t en: xt λ 1, si λ 0 λ ln(x t ), si λ = 0 Si la desviación típica es una función potencial de la media (σ t = kµ t 1 λ ), entonces la transformación de Box-Cox con parámetro λ consigue estabilizar la varianza. Un situación muy usual es aquélla en que σ t = kµ t. En este caso λ = 0 y la aplicación del logaritmo neperiano estabiliza la varianza.

: Obtención de un valor apropiado para λ Partiendo de la igualdad se obtiene que donde a = log(k) y b = 1 λ. σ t = kµ 1 λ t, log(σ t ) = a + b log(µ t ), Por tanto, si disponemos de estimaciones ˆµ t y ˆσ t y ajustamos un modelo lineal a {(log(ˆµ t ), log(ˆσ t ))}, obtendremos una estimación para el valor de λ: ˆλ = 1 ˆb

Para estimar la media y la desviación típica utilizamos las 12 observaciones de cada año. : Regresión lineal: ˆλ = 0.269 Intuitiva: ˆλ = 0 (log)

: : Identificación De manera esquemática, las etapas a seguir para identificar un modelo como posible generador de una serie de tiempo son: 1 Si la serie presenta heterocedasticidad, eliminarla a través de una transformación de Box-Cox. 2 Si la serie (quizás transformada en la etapa 1) presenta tendencia, eliminarla a través de la diferenciación regular. 3 Si la serie (quizás transformada en las etapas 1 y/o 2) presenta componente estacional, eliminarla a través de la diferenciación estacional. 4 Identificar un modelo ARMA para la serie (quizás transformada en las etapas 1, 2 y/o 3).

: Proc. : Estim., diag. y selec. del modelo Como consecuencia de la estrecha relación que existe entre los procesos y los procesos ARMA (diferenciando los primeros se obtienen los segundos), se tiene que la aplicación práctica de los está totalmente basada en la correspondiente a los Estimación: Se ajusta un ARMA (regular, estacional o estacional multiplicativo) a la serie diferenciada (regular y/o estacionalmente). Diagnosis: Se chequean los residuos procedentes del ajuste ARMA anterior. modelo: Se selecciona, para la serie diferenciada, el modelo ARMA cuyos órdenes (p, q, P y/o Q) minimicen uno de los criterios AIC, AICC o BIC.

: : Predicción Del mismo modo, la de valores futuros de procesos se basa en la de procesos ARMA. Los pasos a seguir son: 1 Diferenciar (regular y/o estacionalmente) la serie procedente del hasta obtener una serie procedente de un ARMA (regular, estacional o estacional multiplic.). 2 Predecir los valores futuros del proceso ARMA. 3 Deshacer la diferenciación en las predicciones del ARMA, obteniendo entonces las predicciones del proceso original. En cuanto a los intervalos de, su construcción es análoga a lo ya hecho para procesos ARMA.

: Presentamos a continuación un ejemplo con en el que se hace uso de gran parte de lo expuesto en este capítulo. Para ello: Dividiremos en 2 trozos la serie del consumo de electricidad (introducida en el primer capítulo): 1 Consumo entre los meses de enero 1972 y diciembre 2003 (T = 384). 2 Consumo durante los próximos 12 meses. El primer trozo será utilizado para seleccionar y ajustar un modelo. En base a dicho modelo, realizaremos predicciones para el consumo correspondiente a los próximos 12 meses, que serán comparadas con los consumos reales (2 o trozo).

: 1: Identificación del modelo (fas y fap muestrales) Enero 1972 - Diciembre 2003 El gráfico de la izquierda muestra presencia de heterocedasticidad, tendencia y componente estacional. Comenzamos transformando la serie para tratar de estabilizar la variabilidad. Puesto que ésta aumenta con el nivel de la serie (quizás la desviación típica sea lineal en la media), le aplicamos al consumo la función logaritmo neperiano.

: Consumo transformado (ln) El gráfico de la izquierda muestra que: La varianza del consumo se ha estabilizado al aplicarle la función logaritmo neperiano. La serie transformada tiene tendencia y componente estacional. La diferenciación regular podría eliminar la tendencia.

: Dif. reg. del ln del consumo El gráfico de la izquierda muestra que: La tendencia ha sido eliminada al aplicarle una diferencia regular. La componente estacional se mantiene (s = 12). La diferenciación estacional podría eliminar la componente estacional.

: Dif. reg. y estac. del ln del consumo (s=12) A la espera de realizar el análisis de residuos, el gráfico de la izquierda sugiere que: La serie transformada proviene de un proceso estacionario; concretamente, de un ARMA(0,2) (0,1) 12. El logaritmo neperiano del consumo eléctrico ha sido generado por un proceso (0,1,2) (0,1,1) 12.

El modelo identificado ((0,1,2) (0,1,1) 12 ) se puede expresar como : (1 B) ( 1 B 12) Y t = c + ( 1 + θ 1 B + θ 2 B 2) ( 1 + Θ 1 B 12) a t, siendo Y t = ln (X t ) y X t el consumo eléctrico del mes t. Una representación equivalente es Y t = Y t 1 + Y t 12 Y t 13 +c + a t + θ 1 a t 1 + θ 2 a t 2 +Θ 1 a t 12 + θ 1 Θ 1 a t 13 + θ 2 Θ 1 a t 14. Nota: Obsérvese que, puesto que el proceso diferenciado no tiene parte AR, la constante c coincide con su media µ.

: 2: Estimación del modelo identificado (0,1,2) (0,1,1) 12 Estimando los parámetros por máxima verosimilitud resulta: θ 1 = 0.3371 (0.0440), θ 2 = 0.5503 (0.0452), Θ 1 = 0.7116 (0.0377), µ = 0e + 00 (1e-04) y σ 2 a = 0.0006759. Puesto que la media µ del proceso diferenciado no es significativamente distinta de cero, estimaremos un (0,1,2) (0,1,1) 12 con µ = 0 o, lo que es lo mismo, con c = 0.

: Bajo la restricción µ = 0, se obtienen las estimaciones: θ 1 = 0.3365 (0.0439), θ 2 = 0.5496 (0.0451), Θ 1 = 0.7111 (0.0377) y σ 2 a = 0.0006762, resultando todos los parámetros significativamente distintos de cero. Por tanto, el (0,1,2) (0,1,1) 12 estimado es: Y t = Y t 1 + Y t 12 Y t 13 +a t 0.3365a t 1 0.5496a t 2 0.7111a t 12 + 0.2393a t 13 + 0.3908a t 14, siendo 0.0006762 la varianza del ruido blanco.

3: Diagnosis del modelo (0,1,2) (0,1,1) 12 : Residuos: gráficos secuencial y Q-Q normal Contrastes de independencia

: Conclusiones: El contraste de Ljung-Box rechaza la independencia de los residuos. Un modelo (0,1,2) (0,1,1) 12 no resulta adecuado como posible generador de la serie del consumo eléctrico (transformada a través del logaritmo neperiano). Puesto que no tenemos independencia en los residuos, los contrastes propuestos de media cero y normalidad no tienen validez.

: 4: Identificación del modelo (criterio BIC) Hemos calculado los valores del criterio BIC para distintos procesos (p,1,q) (P,1,Q) 12 (p, q {0, 1, 2, 3} y P, Q {0, 1, 2}). El modelo (1,1,2) (0,1,1) 12 resultó ser el de menor BIC (BIC= 1625.907, siendo la constante del modelo nula). De entre los modelos evaluados, sólo uno (el (2,1,1) (0,1,1) 12 ) tuvo un valor BIC que no distase más de 2 unidades del óptimo.

: 5: Estimación del modelo (1,1,2) (0,1,1) 12 El modelo (1,1,2) (0,1,1) 12 se puede expresar como (1 φ 1 B) (1 B) ( 1 B 12) Y t = ( 1 + θ1 B + θ 2 B 2) ( 1 + Θ 1 B 12) a t. Las estimaciones de sus parámetros por máxima verosimilitud han resultado: φ 1 = 0.3214 (0.0901), θ 1 = 0.5804 (0.0898), θ 2 = 0.3762 (0.0784), Θ 1 = 0.7135 (0.0391), y σ 2 a = 0.0006543.

6: Diagnosis del modelo (1,1,2) (0,1,1) 12 : Residuos: gráficos secuencial y Q-Q normal Contrastes de independencia

: Contrastes de media cero y normalidad µ a = 0: p valor = 0.2012 Normalidad: Jarque-Bera: p valor = 0.7272 Shapiro-Wilk: p valor = 0.7198 Conclusión: Un modelo (1,1,2) (0,1,1) 12 sin constante y con innovaciones gaussianas resulta adecuado como generador de la serie del consumo de electricidad (transformada a través de la función logaritmo neperiano).

: 7: Predicción en base al modelo (1,1,2) (0,1,1) 12 Para finalizar el estudio, el (1,1,2) (0,1,1) 12 que hemos seleccionado, estimado y chequeado fue utilizado para realizar predicciones con origen en T = 384 y horizontes de k = 1,..., 12. Éstas se pueden observar en el gráfico de la derecha (azul), junto con los valores reales (verde) y los intervalos de al 95% (rojo). Predicciones,...

: Valores numéricos Mes Consumo Predicción Intervalo de Predicción (95%) enero 229.922 233.2989 (221.8904, 245.2940) febr. 207.913 202.7579 (190.4922, 215.8133) mar. 195.917 197.3801 (185.1477, 210.4206) abril 180.561 182.2473 (170.8927, 194.3562) mayo 193.574 190.7098 (178.8020, 203.4107) junio 222.073 216.9540 (203.3874, 231.4254) julio 247.093 253.2536 (237.3969, 270.1693) agos. 243.509 258.9025 (242.6725, 276.2180) sept. 224.615 229.9236 (215.4930, 245.3205) oct. 198.691 200.5321 (187.9313, 213.9777) nov. 187.896 188.6941 (176.8231, 201.3619) dic. 216.703 213.4435 (199.9998, 227.7909)

: Resumen: Construcción del modelo generador de la serie Etapas a seguir para identificar un (p,d,q) (P,D,Q) s como posible generador de la serie de tiempo a analizar: Etapa 1: Representar gráficamente la serie frente al tiempo, y su fas muestral frente al retardo. 1 Si el gráfico de la serie sugiere presencia de variabilidad no constante, transformar (Box-Cox) la serie para estabilizar la varianza. 2 Si el gráfico de la serie (quizás transformada en el paso anterior) y/o el gráfico de su fas muestral sugiere/n presencia de tendencia, aplicar diferencias regulares (d) hasta eliminarla. 3 Si el gráfico de la serie (posiblemente transformada en alguno de los 2 pasos anteriores) y/o el gráfico de su fas muestral sugiere/n presencia de componente estacional (s), aplicar diferencias (D) hasta eliminarla.

: Resumen: Construcción del modelo generador de la serie Etapa 2: Representar gráficamente la serie (posiblemente transformada en la etapa 1) frente al tiempo, y sus fas y fap muestrales frente al retardo (en caso necesario, constuir también la tabla relativa a la fase muestral). Dichos gráficos debieran sugerir la procedencia de la serie (posiblemente transformada en la etapa 1) de un proceso estacionario (ARMA, quizás multiplicativo), pues en caso contrario no deberíamos haber pasado a esta etapa 2. 1 Tratar de identificar sus órdenes p, q, P y Q a través del estudio de su fas y fap muestrales (quizás sea necesaria, además, la fase muestral). 2 Identificar sus órdenes p, q, P y Q a través del estudio de las funciones AIC, AICC y/o BIC.

: Resumen: Construcción del modelo generador de la serie Una vez que uno o varios modelos han sido identificados, la siguiente etapa es su estimación. A continuación, el/los modelo/s estimado/s debe/n ser chequeado/s (es necesario comprobar que verifica/n las hipótesis básicas que se han supuesto en su construcción). Principalmente, comprobaremos la hipótesis de que las innovaciones son ruido blanco (preferiblemente gaussiano). Si disponemos de varios modelos que han superado el análisis de residuos (), seleccionaremos aquél que, teniendo un AIC, AICC y/o BIC pequeño (diferencias de hasta 2 unidades no se consideran relevantes), resulte más simple. En base a dicho modelo, realizaremos las predicciones.

: Recapitulación A lo largo de este tema: Se ha construido la clase de modelos Box-Jenkins. Se han propuesto métodos para identificar sus órdenes: Basados en el estudio de sus fas, fap y fase muestrales. Basados en el estudio de las funciones AIC, AICC y BIC. Se han propuesto estimadores de sus parámetros y se han mostrado algunas de sus propiedades asintóticas. Se han propuesto técnicas para chequear el modelo ajustado. Se han propuesto métodos para predecir sus valores futuros, y se han construido intervalos de.