CAPÍTULO 4 DESARROLLO DE LA INVESTIGACIÓN. En este capítulo se aplicarán los métodos seleccionados a la información. Primero se

Documentos relacionados
Curso de nivelación Estadística y Matemática

Curso de Predicción Económica y Empresarial Edición 2004

Pronóstico. Pronósticos. Factores Controlables. Porqué? Objetivo. Factores Incontrolables

ANÁLISIS DE REGRESIÓN

Pronósticos Automáticos

Análisis de Series de Tiempo

Tema 5: Planteamiento de los modelos de series temporales. Coro Chasco Yrigoyen Universidad Autónoma de Madrid (UAM) Asignatura: Econometría II

Procesos autorregresivos

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad

MÉTODOS DE PRONÓSTICO TEMA 1: ANÁLISIS DE SERIES DE TIEMPO Y ELABORACIÓN DE PRONÓSTICOS

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

CAPÍTULO 3: METODOLOGÍA. Como ya se vio, existen varios tipos de pronósticos. Para el propósito de esta tesis se van a

Guía breve de análisis de series temporales unidimensionales con Gretl

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Ejemplos de estudios de series de tiempo

ANÁLISIS EN EL DOMINIO DEL TIEMPO

ADMINISTRACION DE OPERACIONES

1. La Distribución Normal

Econometría dinámica y financiera

Modelos Arma y método Box & Jenkins

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

METODOS ESTADÍSTICOS

DIRECCIÓN Y ADMINISTRACIÓN DE PEQUEÑAS EMPRESAS

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Tema 4. Regresión lineal simple

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Método de cuadrados mínimos

3 ANALISIS DESCRIPTIVO DE LOS DATOS

Máster en comunicaciones. Clase 2. Modelos predictores.

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

Regresión lineal. Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística

1.2 Medidas de variación: Rango, desviación estándar y coeficiente de variación

TRATAMIENTO DE DATOS CON MS EXCEL. Modulo 2

Estadística Industrial. Universidad Carlos III de Madrid Series temporales Práctica 5

Gráfico de Desgaste de Herramientas

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Análisis de Series de Tiempo. Universidad Nacional Autónoma de México. M. en C. César Almenara Martínez. 10 de Noviembre de 2010.

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño

Estadística Inferencial. Sesión No. 9 Regresión y correlación lineal

CAPÍTULO IV. DESARROLLO DE LA INVESTIGACIÓN. presente capítulo. A continuación se procederá a escribir la metodología y a describir el

Tema 10: Introducción a los problemas de Asociación y Correlación

3. RELACION ENTRE DOS CONJUNTOS DE DATOS.

UNIDAD 8 INECUACIONES. Objetivo general.

La econometría : una mirada de pájaro

Teorema Central del Límite (1)

Regresión ponderada y falta de ajuste

Capítulo 2 Modelos de Pronósticos

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

Econometria de Series Temporales

INDICE. Prólogo a la Segunda Edición

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

UNIDAD 3 PROMEDIOS MÓVILES Y SUAVIZACIÓN EXPONENCIAL TEMA 1: PROMEDIOS MÓVILES Y MÉTODOS DE ATENUACIÓN

Pronóstico con Modelos ARIMA para los casos del Índice de Precios y Cotizaciones (IPC) y la Acción de América Móvil (AM)

Medidas de variabilidad (dispersión)

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

Tema 8: Regresión y Correlación

4. Regresión Lineal Simple

El Movimiento Browniano en la modelización del par EUR/USD

Diplomado en Econometría Coordinadora académica: M.F. Esperanza Sainz López

Simulación. pseudoalealeatorios

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE

Series Temporales. Teresa Villagarcía

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

Eigenvalores y eigenvectores

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE

Econometria con Series Temporales

Definición Una hipótesis es una afirmación acerca de un parámetro.

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

Distribución Gaussiana o normal

Econometría Aplicada

ESTADISTICA PARA LA ADMINISTRACION

Introducción a las series temporales

INDICE. XV 1. Introducción a los pronósticos Actividad

PROCESOS ESTACIONARIOS UNIVARIADOS 1

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Universidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL

Actividad Presentaciones de proyectos de grado. Variables estadísticas

Estadística Descriptiva

Estadística para el análisis de los Mercados S3_A1.1_LECV1. Estadística Descriptiva Bivariada

Instituto Politécnico Nacional Escuela Superior de Cómputo Modelos de Pronóstico

Tema 2: Modelos probabilísticos de series

Cuáles son las características aleatorias de la nueva variable?

Tema 2. Regresión Lineal

Metodología del ajuste estacional

Análisis de Series de Tiempo

TEMA 3 REGRESIÓN Y CORRELACIÓN

DISTRIBUCIONES DE PROBABILIDAD

CORRELACIÓN LINEAL SIMPLE

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

ESTADÍSTICA. Tema 4 Regresión lineal simple

Tema 3: Análisis de datos bivariantes

Estimación de Parámetros.

ESTADÍSTICA APLICADA. Tema 4: Regresión lineal simple

Transcripción:

37 CAPÍTULO 4 DESARROLLO DE LA INVESTIGACIÓN En este capítulo se aplicarán los métodos seleccionados a la información. Primero se describirá la teoría necesaria para cada uno de los métodos y enseguida se citará cómo se adaptó cada uno de los mismos a los datos. El orden que se escogió para su aplicación es de acuerdo a la dificultad que presentan, empezando con el más fácil que es el de Suavización de Holt y terminando con el de Box-Jenins, que es el que presenta mayor dificultad. 4. Metodología de la Doble Suavización Exponencial Lineal o de Holt Este tipo de suavización considera una tendencia en los datos para hacer pronósticos. Sin embargo, no puede tratar la estacionalidad en aquellos, por lo tanto, si la serie de datos es estacional se deben desestacionalizar. El principio es el mismo que el del suavizamiento exponencial único, sólo que ahora las ecuaciones toman en cuenta las tendencias recientes y no recientes de la información. El primer paso es tener información que no presente la estacionalidad. La forma de eliminar la estacionalidad de los datos es la usada en el Método de Descomposición de Series de Tiempo. Los pasos están dados en el apéndice A. El método de Suavización Exponencial de Holt utiliza las dos siguientes fórmulas: T t = β(s t S t- ) + (-β)t t- (Fórmula de tendencia) En donde

38 S t = equivalente del valor suavizado exponencial lineal. β = coeficiente de suavizamiento, análogo a α. T t- = tendencia suavizada en la serie de datos. S t = αx t+ (-α)( S t- + T t- ) (Fórmula estándar de suavización) En primer lugar se calcula la fórmula estándar y enseguida la de la tendencia. La fórmula general de la suavización es F t+m = S t + T t Este método toma en cuenta una tendencia lineal, por lo que si una serie no tiene aleatoriedad el error del pronóstico es 0. En cambio, si hay aleatoriedad, será más difícil predecir los valores y los errores no serán 0. Para determinar los valores óptimos de α y β, se deben tratar todas las combinaciones de valores entre 0.0 y.0 para ambos parámetros, con el fin de que la ecuación general registre un error cuadrático mínimo. Se definen error, error absoluto y error cuadrático como sigue: e t = error = observación pronóstico e t = error absoluto = valor absoluto del error. e t = error cuadrático = valor absoluto al cuadrado.

39 4. Implementación del método a la serie de créditos ejercidos. Como primer paso, se desestacionalizan los datos. Se sigue el procedimiento del apéndice A en la hoja de cálculo Excel y el resultado se muestra a continuación: Periodo Observación no estacional X 75 9839 3 9383 4 037 5 596 6 9653 7 343 8 946 9 7050 0 6043 3994 6353 3 08 4 0507 5 877 6 498 7 56 8 655 9 877 0 84 486 30 3 8088 4 36050 5 4957 6 39350 7 39683 8 4550 9 4475 30 46989 3 499 3 36390 33 45374 34 439 35 354 36 3506 37 37958 38 0503 39 8473 40 5003 4 39670 4 4843 43 38855 44 35389 45 6398 46 5369 47 47486 48 488 49 454 50 4805 Luego, se establecen los valores iniciales para las ecuaciones. Sean S = X = 75 y T = X X = 587. Después fijamos valores arbitrarios entre 0.0 y.0 a los parámetros α y β y desarrollamos las tres fórmulas con sus valores respectivos. Enseguida, calculamos los

40 errores, errores absolutos y errores cuadráticos para cada pronóstico y se obtienen la suma y el promedio de cada uno. Se calculan los valores óptimos de los parámetros α y β que minimizan la suma de los errores cuadráticos. De acuerdo a estos valores iniciales y al método de optimización no lineal, los valores óptimos son α = 0.473766343 y β = 0.06648554. Sin embargo, estos valores sólo son ilustrativos, pues la hoja de cálculo Excel no es muy bueno para calcular con precisión los parámetros. Para lograr con mayor precisión este fin se utiliza el programa Minitab. Entonces, se introducen los valores desestacionalizados en este programa. Así, los valores de los parámetros son α = 0.63399 y β = 0.048. Cabe aclarar que aunque los valores de los parámetros obtenidos con Excel difieren de los obtenidos con Minitab, el pronóstico obtenido es muy similar. A partir de este punto es posible realizar pronósticos para los siguientes periodos. 4.3 Metodología Box-Jenins 4.3.. Introducción El enfoque de Box-Jenins fue creado desde los años 70 y fue dado a conocer por sus creadores, George Box y Gwilym Jenins. Sin embargo, no alcanzó gran popularidad debido a las dificultades que existían para ponerlo en práctica. Actualmente, con el desarrollo de las computadoras este enfoque ha alcanzado gran popularidad. El enfoque de Box-Jenins consiste en proponer un conjunto de procedimientos para escoger entre varios modelos, agrupados en tres clases distintas, que se ajusten a los datos de una serie de tiempo observada, para después pronosticar valores futuros de la misma. Estos modelos están basados en funciones lineales de las observaciones. El objetivo es

4 doble: encontrar el modelo más simple que proporcione la mejor descripción de los datos de la serie. Las tres clases de modelos son: Autorregresivos y de promedios móviles. Autorregresivos integrados de promedios móviles. Autorregresivos integrados de promedios móviles estacionales. La metodología Box-Jenins se resume en los siguientes pasos:. Selección de una clase y modelo apropiados para ajustarlo a la serie de tiempo observada.. Ajuste del modelo apropiado de la clase seleccionada a la serie de tiempo observada. 3. Empleo del modelo ajustado para hacer pronósticos de valores futuros de la serie de tiempo. Para la selección de la clase de modelos, el factor determinante es el análisis de la función de autocorrelación muestral y de la función de autocorrelación parcial muestral. Éstas son las herramientas fundamentales de este enfoque. Claro que primero se empieza por un análisis visual de la serie, para ver en la medida de lo posible el comportamiento de la media, la varianza y la estacionalidad. Una vez seleccionada la clase y el modelo a la que pertenece la serie de tiempo, se procede a encontrar el número de parámetros y su valor estimado. El modelo propuesto debe seguir

4 el principio de parsimonía. A continuación se procede a hacer pruebas de diagnóstico para comprobar que realmente se ha llegado al modelo óptimo. Finalmente se utiliza el modelo estimado para realizar pronósticos. En los apéndices D al K se proporcionan varias tablas que resumen las principales características de los modelos a tratar en la metodología Box- Jenins. 4.3.. Examinación visual de la serie de tiempo El primer paso que se debe realizar es examinar la gráfica de la serie de tiempo. Esto nos puede dar mucha información acerca del comportamiento de la misma. Sin embargo, no es posible analizar completamente una serie a partir de su gráfica. Para un análisis completo, se requiere examinar otras características de la serie, de las cuales se hablará en las siguientes secciones. Al examinar una gráfica de una serie, se pueden identificar la presencia o la ausencia de las siguientes características: tendencia, estacionalidad y cambio en la varianza. La tendencia es un cambio en la media y se manifiesta gráficamente cuando la serie presenta una patrón a la alza o a la baja. La estacionalidad es la repetición de valores altos o bajos en la serie en un periodo de tiempo determinado y se manifiesta gráficamente con picos o fondos en la serie. El cambio en la varianza significa que la magnitud en que la serie se acerca o se aleja de la media tiene un patrón que cambia constantemente. Cabe hacer notar que existe una cuarta característica, la presencia de outliers o intervenciones, que son valores de la serie completamente fuera del patrón que ésta presenta. Ocurren de forma esporádica e impredecible. Este fenómeno se trata con una

43 técnica llamada análisis de intervención. Una de las acciones que se toman con esta técnica es eliminar el outlier sustituyéndolo por el promedio de la serie, para hacer a ésta más estable. Sin embargo, por ser una técnica compleja, no se desarrollará en el presente trabajo. De la misma manera, los outliers no serán considerados aquí como una característica de las series de tiempo. Cuando una serie de tiempo presenta la ausencia de estas tres características, se dice que es una serie de tiempo estacionaria. La estacionariedad es la ausencia de tendencia, estacionalidad y cambio en la varianza de la serie a través del tiempo y se manifiesta gráficamente con un patrón horizontal. Esto no implica que no haya variaciones alrededor de la media, lo que implica es que estas variaciones tienen una magnitud constante. En el apéndice B se muestran algunas gráficas de series que presentan las características aquí citadas. La examinación visual de una serie de tiempo no es suficiente para determinar si es estacionaria o no. Una tendencia aparente a la alza o a la baja en los datos puede ser una fluctuación aleatoria lejos del promedio, asimismo algunos máximos o mínimos estacionales no se pueden distinguir de otras fluctuaciones y podemos suponer que hay variaciones marcadas en la serie cuando en realidad es más o menos constante. Aquí es donde entran en juego otras medidas para determinar. 4.3.3. Importancia de la media y la desviación estándar de una serie de tiempo Si una serie de tiempo es generada por una función matemática, entonces se pueden determinar perfectamente los valores futuros de aquélla. Se dice entonces que es generada

44 por un proceso determinístico. En cambio, si una serie de tiempo es generada por un proceso que nos permite conocer una variable aleatoria y su función de distribución, se dice que es generada por un proceso estocástico o aleatorio. Esto implica que se manejarán probabilidades en el comportamiento de la serie. Sean Z t las variables aleatorias del proceso en el tiempo t. Existen N variables en todo proceso y en toda serie, es decir, Z, Z, Z 3,, Z N, donde N es un número finito. Entonces z, z, z 3,, z N son las realizaciones o valores observados de Z, Z y Z 3,, Z N. Para cada variable aleatoria existe un número infinito de realizaciones. Una serie de tiempo es el conjunto de los valores observados de un grupo de N variables aleatorias y es sólo una de las infinitas realizaciones de las mismas. Cada una de las variables aleatorias Z t tiene su distribución de probabilidad y su función de probabilidad f(z t ). Asimismo, tiene una media µ t = E(Z t ) y una varianza σ = σ (Z t ). En general el proceso probabilístico va cambiando con el tiempo y por lo tanto las distribuciones de probabilidad, medias y varianzas también. Si asumimos que el proceso no varía con el tiempo, entonces todas las variables tendrán la misma media y misma varianza y se dice que el proceso estocástico es estacionario en media y varianza. Se pueden estimar la media, la varianza y la desviación estándar del proceso a través de la media, la varianza y la desviación estándar de la serie, las cuales se calculan con las siguientes ecuaciones respectivamente: N N µ z = z t σ z σz = ( zt z) N N t = t= σ σ = z z N ( zt z) N t= La importancia de tener series de tiempo estacionarias es que la metodología Box-Jenins proporciona modelos para procesos estocásticos estacionarios. Para revisar que el proceso

45 estocástico que generó la serie es estacionario en media y varianza se puede dividir la serie de tiempo en subgrupos y calcular la media y la desviación estándar de cada uno. Un número adecuado de observaciones en cada subgrupo es entre 4 y, de acuerdo a las observaciones de la serie (O'Donovan, 983, p. 6). Si el proceso es estacionario entonces todas las medias tienen aproximadamente el mismo valor y lo mismo sucede con las desviaciones estándar. La no estacionariedad en la media y en la varianza se ve a través de una tendencia a la baja o a la alza en las medias y desviaciones de los subgrupos, de forma individual o conjunta. Al graficar conjuntamente la media contra la desviación estándar, si ambas se incrementan proporcionalmente se observa que los puntos forman una línea con pendiente positiva. Entonces la serie es no estacionaria en varianza. La importancia de esta prueba radica en que ésta es la única forma de saber que la serie es o no estacionaria en varianza. Para que una serie que no es estacionaria en media, varianza o que presenta patrón estacional sea convierta a estacionaria, se requiere de algunas técnicas que se explican en las siguientes secciones. 4.3.4. Función de Autocorrelación Muestral Las variables en una serie de tiempo son dependientes entre sí. Es importante analizar cómo es esta dependencia para lograr hacer pronósticos de valores futuros. La medida para esta dependencia es la autocorrelación y no la covarianza, pues la primera no es sensible al cambio de unidad de medida (es una medida estándar) y la segunda sí. La autocorrelación en series de tiempo es la correlación entre dos variables del mismo proceso separadas por rezagos de tiempo. El coeficiente de correlación entre las variables Z t y Z t+ se define como

46 ( Z Z ), t t+ E = ( Z t Z t+ ) E( Z t ) E( Z t+ ) σ ( Z ) σ ( Z ) t t+ Un proceso estocástico se dice que es estacionario si además de que la media y la varianza no cambian a través del tiempo y no hay patrón estacional, los coeficientes de correlación entre dos valores dependen sólo de la distancia entre ellos y no del tiempo en sí mismo. En un proceso estacionario, la autocorrelación del rezago se denota como y su fórmula es E( Z t Z ) µ = σ t+ z pues E(Z t ) = E(Z t+ ) = µ y σ(z t ) = σ(z t+ ) = σ z La gráfica de las autocorrelaciones contra los rezagos =,,, N se denomina función de autocorrelación (FAC) teórica o correlograma teórico. La FAC teórica es la característica más importante del proceso estocástico subyacente. Es simétrica con respecto al origen = 0, ya que las diferencias de tiempo entre Z t y Z t+ y Z t y Z -t- son las mismas y por lo tanto = -. Cuando dos variables separadas por rezagos tienen un valor grande y similar, se esperaría encontrar un valor de cercano a +. En cambio, si una variable tiene un valor grande y la otra uno pequeño, se esperaría que el valor de sea cercano a -. Cuando existe poca relación entre ambas, se esperaría un valor de cercano a 0. Por lo anterior, en un proceso estacionario las autocorrelaciones son cercanas a 0 y lejanas a ±. La importancia de la FAC muestral radica en que con ella podemos determinar si el proceso subyacente es estacionario o no.

47 Las autocorrelaciones de la serie de tiempo observada se estiman mediante la siguiente fórmula: N t t= = N ( Z Z )( Z Z ) ( Z t Z ) t= t+ Se necesitan al menos 50 observaciones para obtener valores de autocorrelaciones muestrales válidas y se recomienda hacer a lo más N/4 autocorrelaciones (O'Donovan, 983, p.3) para observar el comportamiento de la función de autocorrelación. Se inferieren muchas de las propiedades del proceso estocástico a partir del estudio de la función de autocorrelación muestral, ya que aunque ésta es sólo una estimación de la FAC teórica, tiende a seguir los mismos patrones de la misma y por eso es imprescindible para la selección de un modelo. La estacionariedad o no estacionariedad de un proceso estocástico puede ser determinada por el análisis de la FAC muestral. La función de autocorrelación teórica de un proceso estacionario tiende a caer rápidamente a cero conforme el rezago crece o a cortarse después de un determinado rezago = q, es decir que después de cierto retraso las autocorrelaciones serán cero. En el caso en que la FAC teórica se corta, las autocorrelaciones de la función de autocorrelación muestral serán muy cercanas a cero. En el caso en que la FAC teórica sea decreciente, las autocorrelaciones muestrales también lo serán pero no de la misma forma. El decremento en la FAC de un proceso estacionario se debe a que solamente unas cuantas variables adyacentes están relacionadas linealmente.

48 Cuando el proceso estocástico no es estacionario en la media, es decir cuando hay tendencia creciente o decreciente, las autocorrelaciones muestrales caerán muy lentamente. Esto es porque las observaciones tenderán a estar del mismo lado de la media de la serie por muchos periodos y por lo tanto se producen autocorrelaciones muestrales grandes aún en retrasos lejanos. La estacionalidad se puede reconocer visualmente, aunque algunas veces es muy alta la variabilidad de los datos o existe una tendencia muy fuerte en ellos que no hace tan fácil reconocer este patrón. Para estos casos la FAC muestral facilita el reconocimiento de la estacionalidad ya que se presenta alta correlación positiva o negativa entre observaciones, por ejemplo, periodos aparte si el patrón es anual para datos mensuales. La autocorrelación muestral en el retraso sería muy alta, en el 4 también pero no tan alta como la del, y así. La función de autocorrelación muestral mostrará picos decrecientes en los retrasos, 4, 36, 48, etc. Con la FAC muestral se identifica la no estacionariedad debido a la tendencia en la media o a la estacionalidad, pero no la no estacionariedad debido a cambios en la varianza del proceso estocástico, que sólo se puede identificar por examinación visual de la serie o por la relación de la media con la desviación estándar. La FAC muestral se comporta distinto dependiendo del tipo de serie. La FAC muestral de una serie estacionaria puede tender rápidamente a cero por el lado positivo, por el lado negativo o alternando en ambos con distintos números de retrasos, lo que significa que las observaciones crecen y decrecen alrededor de la media. La FAC muestral de una serie con

49 tendencia decaerá extremadamente lento y la FAC muestral de una serie con patrón estacional presentará picos en los retrasos estacionales. La FAC de un proceso autorregresivo tiende a 0 después de un retraso = q y la FAC de un proceso de promedio móvil se corta después de un retraso = q. 4.3.5. Función de Autocorrelación Parcial Muestral La función de autocorrelación parcial (FACP) muestral nos sirve para identificar un modelo adecuado para una serie, mediante su comparación con la FACP teórica. La autocorrelación parcial teórica es la autocorrelación entre dos variables Z t y Z t+ separadas por un rezago de unidades de tiempo, no afectada por las variables Z t+, Z t+,, Z t+- que están entre ellas. Se define como = ( Z, Z Z,..., Z ) división de los determinantes de la fórmula Corr y se obtiene con la t t+ t+ t+- L L 3 = M M M 3 L L M M L 3 M M M 3 L M M Las autocorrelaciones parciales maestrales son calculadas reemplazando las autocorrelaciones teóricas por las muestrales.

50 Como la FAC muestral, la FACP muestral tiende a seguir el mismo patrón que la FACP teórica y es útil para identificar un modelo apropiado para el proceso estocástico subyacente de una serie. La FACP de un proceso autorregresivo se corta después de un retraso = q y la FACP de un proceso de promedio móvil tiende a 0 después de un retraso = q. Vale la pena mencionar que mientras más corta en observaciones es una serie, más difieren las autocorrelaciones muestrales y parciales maestrales de las autocorrelaciones teóricas. 4.3.6. Identificación de un modelo Para la identificación de un modelo, lo básico es la comparación de la FAC y FACP muestrales con la FAC y FACP teóricas de los modelos de la clase seleccionada. Las funciones muestrales no coincidirán con las funciones teóricas, especialmente es series cortas, ya que las autocorrelaciones y autocorrelaciones parciales muestrales son sólo estimaciones de las teóricas, pero se espera que exhiban los mismos patrones generales que las teóricas. Se deben tomar en cuenta las características más generales en las funciones muestrales y no dar importancia a cada detalle para evitar ambigüedades en la selección de un modelo. Asimismo, de acuerdo al principio de parsimonía de Box y Jenins, cuando se tiene que escoger entre dos modelos en el paso de identificación, es mejor seleccionar el modelo con menos parámetros. Lo anterior porque mientras más parámetros hay es más difícil estimarlos todos y porque mientras más complicado es un modelo es más probable que no se puedan detectar parámetros inútiles.

5 En los procesos se recurre a pruebas de significación de las autocorrelaciones muestrales para decidir si son igual a cero o no. Las autocorrelaciones muestrales aproximadamente se distribuyen normalmente con media 0 y varianza estimada: + q N La cual se obtiene se de la fórmula de Bartlett: s i K s K i s N Cov, + + = =, 0 q K K i N N Var Cov s Si La probabilidad de que una variable que se distribuye normalmente con media y varianza conocidas caiga entre los límites µ ± (.96)σ es 0.95. Entonces debe caer fuera de los límites / /.96 + ± q N para que sea significativamente distinta de 0. Si cae dentro, entonces la autocorrelación es igual a 0. Asimismo, la prueba de significación de las autocorrelaciones parciales maestrales es que caigan dentro o fuera de los límites definidos por /.96 ± N

5 Si caen dentro entonces no son distintas de 0 y si caen afuera entonces sí lo son. Finalmente debe tenerse en cuenta que si dos variables son independientes entonces = 0 pero lo contrario no es cierto. Cuando se ha comprobado que un proceso es estacionario, enseguida se comparan las autocorrelaciones parciales muestrales con las teóricas de los modelos ya existentes para determinar cuál de éstos es apropiado para la serie de tiempo.

53 4.3.7. Modelos para series de tiempo estacionarias Estos modelos son aplicables cuando la serie de datos es una serie estacionaria y se conocen de forma general como modelos autorregresivos y de promedios móviles (ARMA). Los modelos ARMA tienen casos especiales y son el modelo de ruido blanco, los modelos autorregresivos y los modelos de promedios móviles. Estos dos últimos tipos de modelos tienen distinto número de términos en su ecuación, lo cual determina un grado determinado en ellos. Los modelos más comunes y que se presentan con frecuencia en la práctica son aquellos de primer grado, pues los de mayor grado rara vez o nunca son encontrados en series reales. En esta sección se describen los modelos más usuales de casos particulares y los modelos generales, dando para cada uno de ellos la definición de su ecuación y estableciendo sólo sus características principales. Modelo de ruido blanco Este es el caso más simple de los modelos ARMA. Las variables Z t son independientes y tienen la la misma distribución de probabilidad: Z t ~ N(µ,σ z ). La ecuación del modelo es Z t = θ 0 + A t donde θ 0 = término constante de la ecuación A t ~ N(0,σ Α ) y es el error aleatorio en el tiempo t.

54 Las variables A t son errores aleatorios e independientes en el tiempo t y el parámetro θ 0 es el término constante del modelo. Como todas las variables son independientes, la FAC teórica y la FACP teórica son ambas cero. Modelos Autorregresivos En los modelos autorregresivos, el valor observado de la variable de la serie de tiempo está relacionado con sus propios valores pasados y el valor de un disturbio aleatorio, es decir, cada observación es función de anteriores observaciones. Se les denomina como modelos autorregresivos de orden p o como modelos AR(p). La ecuación general de los modelos AR(p) es Z t = θ 0 + φ Z t- + φ Z t- + + φ p Z t-p +A t donde θ 0 = término constante que es igual a µ(-φ - -φp) φ j = coeficiente autorregresivo de j-ésimo orden A t ~ N(0, σ A ) Esta ecuación también se escribe como Z t = φ Z t + φ Z t + L + φ Z p t p + Α t o como φ p (Β) Z t = Αt donde φ p (B)= (- φ B- - φ p B p )

55 Los modelos AR(p) tienen una FAC teórica que decae rápidamente hacia 0, pero con distintos patrones. La FACP teórica se corta después de un determinado rezago = p. En el modelo autorregresivo de primer orden AR(), la variable Z t depende de una sola observación, la variable Z t- que le precede. Entonces la variable Z t es una función lineal de la variable Z t- mas un shoc aleatorio y la ecuación del modelo es Z t = θ 0 + φ Z t- +A t donde θ 0 = término constante que es igual a µ(-φ ) φ = coeficiente autorregresivo de primer orden A t ~ N(0, σ A ) El error A t es independiente de la variable Z t-, por lo tanto de la ecuación del modelo se deduce que σ z = φ σ z + σ A y entonces σ z = σ A φ

56 Para que σ z sea finita y no negativa, se necesita que - < φ <, la cual es la condición de estacionariedad para un proceso AR(). Las covarianzas entre dos variables separadas por rezagos está dada por Cov (Z t, Z t- ) = φ σ Z En consecuencia, dado que las medias, varianzas y covarianzas son las mismas para todas la variables en cualquier periodo de tiempo, las autocorrelaciones para este modelo están dadas por = φ Lo cual implica que la función de autorrelación decae geométricamente hacia 0 conforme aumenta. Si φ es positivo, las autocorrelaciones decaerán por arriba. Si φ es negativo, entonces las autocorrelaciones serán positivas cuando sea par y negativas cuando sea impar, lo cual hará que la FAC teórica disminuya alternándose los valores positivos y negativos. Si φ es cercano a ±, las autocorrelaciones decaerán lentamente, pero si φ es cercano a 0 decaerán rápidamente. Las autocorrelaciones parciales teóricas son = φ, = 0 (>) Por lo tanto, se cortan después de =.

57 Modelos de Promedios Móviles En los modelos de promedio móvil, la variable de la serie de tiempo es una combinación lineal de errores aleatorios pasados. Se les denomina como modelos de promedio móvil de orden q o modelos MA(q). La ecuación general de estos modelos es Z t = θ 0 +A t -θ A t- - -θ q Α t-q donde θ 0 = término constante igual a la media del proceso µ. θ j = coeficiente de promedio móvil de j-ésimo orden A t ~ N(0, σ A ) Esta ecuación también se escribe como t = At θ At L θ q At q Z o como donde Z t =θ q (B)A t θ q (B)= (- θ B- - θ q B q ) Como q + θ + L + θ <, un proceso de promedio móvil finito siempre es estacionario. Los modelos MA(q) tienen una FAC teórica se corta después de un determinado rezago = p. La FACP teórica que decae rápidamente hacia 0, pero con distintos patrones.

58 En el modelo de promedios móviles de primer orden MA(), la variable Z t depende de un solo error previo, la variable A t- que le precede. Entonces la variable Z t es una función lineal del error actual y del error anterior y la ecuación del modelo es Z t = θ 0 +A t -θ A t- donde θ 0 = término constante que es igual a µ θ = coeficiente de promedio móvil de primer orden A t ~ N(0, σ A ) Las función de autocorrelación para este modelo es Por lo tanto, se corta después de =. θ, = = + θ, 0, > Las autocorrelaciones parciales teóricas están dadas por θ ( θ ) = φ =, ( + ) θ

59 Lo cual implica que la función de autorrelación parcial decae geométricamente hacia 0 conforme aumenta. Si θ es positivo, las autocorrelaciones decaerán por abajo. Si θ es negativo, entonces las autocorrelaciones serán positivas cuando sea impar y negativas cuando sea par, lo cual hará que la FACP teórica disminuya alternándose los valores positivos y negativos. Si θ es cercano a ±, las autocorrelaciones decaerán lentamente, pero si θ es cercano a 0, decaerán rápidamente. Modelos autorregresivos y de promedios móviles Existe una relación entre los procesos AR(p) Y MA(q) que es la siguiente: Un proceso AR estacionario de orden finito puede escribirse en la forma de un proceso MA de orden infinito y un proceso MA invertible de orden finito puede escribirse en la forma de un proceso AR de orden infinito. Esta relación entre los procesos también existe entre las funciones de autocorrelación y de autocorrelación parcial. También existen modelos que combinan ambos procesos y son llamados modelos autorregresivos y de promedios móviles de orden (p,q), o simplemente modelos ARMA(p,q). La ecuación general de estos modelos es la siguiente: Z t = θ 0 + φ Z t- + + φ p Z t-p +A t -θ A t- - -θ q Α t-q donde θ 0 = término constante relacionado con la media del proceso A t ~ N(0, σ A)

60 La ecuación es una combinación de las dos ecuaciones anteriores y tiene p términos autorregresivos y q términos de promedio móvil. Estos modelos son la forma general de los dos anteriores, por lo que los modelos AR(p) y MA(q), que también se escriben ARMA(p,0) y ARMA(0,q), son casos especiales de éste. La gran mayoría de las series que se presentan en práctica son modelos ARMA con p + q. En el modelo ARMA(,), la variable Z t depende de la observación Z t- que le precede y del error anterior A t-. En otras palabras, la variable Z t es una función lineal de estos dos más un shoc aleatorio y la ecuación del modelo es Z t = θ 0 + φ Z t- +A t -θ A t- donde θ 0 = término constante que es igual a µ(-φ ) φ = coeficiente autorregresivo de primer orden θ = coeficiente de promedio móvil de primer orden A t ~ N(0, σ A ) Cuando φ es igual a cero, el modelo ARMA(,) se reduce a un modelo MA(). Cuando θ es igual a cero, el modelo ARMA(,) se reduce a un modelo AR(). Para que el proceso sea estacionario, es necesario que φ <. Las funciones de autocorrelación y autocorrelación parcial tienen las características de los dos modelos antes citados.

6 Las autocorrelaciones para este modelo están dadas por = + θ φθ φ ( φ θ )( φ θ ) = 0, =, En el cálculo de interviene tanto el término autorregresivo como el de promedio móvil, pero las siguientes autocorrelaciones sólo contienen el término autorregresivo. La fórmula para determinar las autocorrelaciones parciales es muy complicada y no es necesaria. En general, tanto la FAC como la FACP decaen exponencialmente hacia 0, pero toman distintos patrones dependiendo de los signos y el valor de θ y φ.. 4.3.8. Modelos para series de tiempo no estacionarias en media y en varianza En la práctica, la mayoría de las series de tiempo son no estacionarias, especialmente las series de variables económicas. Como ya se mencionó, la no estacionariedad en una serie puede deberse a que no hay estabilidad en la varianza, a que no hay estabilidad en la media, a la presencia un patrón estacional o a alguna combinación de los tres. Este hecho dificulta la labor de los pronósticos, pero este obstáculo es superable. Las medidas que se toman para tratar estos problemas se llaman transformaciones y diferenciaciones. Caso : No estabilidad en la varianza Antes de trabajar con una serie, es necesario probar si ésta es estable en la varianza y en la media. La estabilidad en varianza siempre es muy difícil de determinar analizando la gráfica de la serie observada. En cambio, la estabilidad en la media es más fácil de observar

6 a simple vista. Sin embargo, para comprobar la presencia o ausencia de ambas, se realiza un método muy sencillo. Se divide la serie observada en grupos de 4 a datos, de cada uno de estos grupos se obtienen su media y su desviación estándar y se grafican estos valores. Entonces se puede ver si ambas siguen una tendencia o se mantienen más o menos estables. Asimismo, se grafican los datos de la media contra los de las varianza y se observa qué gráfica resulta. Si los datos presentan un patrón similar a una línea recta horizontal o una recta vertical, significa que una de las dos se mantiene más o menos constante, siendo estacionaria en ésta, mientras que la otra está creciendo conforme avanza el tiempo. Si los datos presentan un patrón similar a una línea recta creciente o decreciente, significa que tanto la media como la varianza están creciendo o disminuyendo conforme avanza el tiempo y la serie no es estacionaria en ninguna de las dos. Si los datos aparecen dispersos y no presentan ningún patrón, significa que la serie es estacionaria en varianza. Ésta es la única forma de comprobar la estacionariedad en varianza. En cambio, la estacionariedad en la media se comprueba también con la FAC muestral. Si se detecta no estacionariedad en varianza, se recurre a acciones denominadas transformaciones. Las transformaciones se realizan a través de una función llamada transformación de potencia cuya ecuación es Z λ ( λ ) Z = t t λ

63 donde λ es el parámetro de transformación. Esta función fue propuesta por Box y Cox (964) (Wei, 990, p.83). Dependiendo del valor que se le dé a λ es la transformación resultante. Los valores y transformaciones más comunes son Valores de λ Transformación Zt 0.5 Zt 0 ln( Zt ) 0.5 Zt Zt De estas transformaciones, la más común es la logarítmica, seguida por la aplicación de raíz cuadrada. Es necesario probar con cuál de estas transformaciones se alcanza una mejor estabilidad en la varianza. Caso : No estabilidad en la media Si se detecta no estacionariedad en la media, se recurre a acciones denominadas diferenciaciones regulares. Las diferenciaciones regulares (d) se aplican a la serie original y se obtiene una serie diferenciada regularmente. Pueden ser de varios grados, pero en la práctica usualmente sólo es necesaria la de primer grado (d = ). En una diferenciación regular de grado, se pierden términos de la serie original. La diferencia regular de primer grado se denota por

64 w, para t t = zt zt o también puede denotarse usando un operador de retraso B, que retrasa a una observación un periodo: Bz = z t-. Entonces la diferencia regular de primer grado también se denota por w t = ( - B)z t ya que ( - B)z t = z t - Bz t = z t - z t- La diferencia de segundo grado se denota por w t = z t -z t- + z t-, para t 3 o también puede denotarse usando un operador de retraso B, pero elevándolo al cuadrado para que retrase la observación en dos periodos: B z = z t-. Entonces la diferencia regular de segundo grado también se denota por w t = ( - B) z t ya que ( - B) z t = ( - B) ( - B)z t =( - B)( z t - z t- ) = z t -z t- + z t- Con esto llegamos a las siguientes relaciones: B z t = z t- y w t = ( - B) d z t La primer relación nos indica un retraso de periodos en las observaciones. La segunda define una nueva serie de valores observados w t resultante de d diferencias posibles

65 aplicadas a la serie original. Cabe hacer notar que cada vez que se aplica una diferenciación se debe revisar si se ha alcanzado estacionariedad en la media, pues la sobrediferenciación sólo complica la estimación del modelo. Al alcanzar estacionariedad en la media, se selecciona alguno de los modelos ARMA para la nueva serie estacionaria. Este nuevo modelo es llamado modelo autorregresivo integrado de promedios móviles de grado (p,d,q) o más sencillamente modelo ARIMA(p,d,q). Por ejemplo, si al realizar la primer diferencia el modelo que se ajusta a la serie diferenciada es un modelo AR() o equivalentemente un ARMA(,0), el modelo sería un ARIMA(,,0) con ecuación donde W t = Z t Z t-, lo cual resulta en W t = θ 0 + φ W t- + A t donde A t ~N(0,σ A) Z t = θ 0 + (+ φ )Z t- - φ Z t- + A t En los modelos ARIMA, existen p términos autorregresivos, d número de diferencias regulares aplicadas a la serie original y q términos de promedio móvil. De esto, se deduce que se pueden obtener diferentes modelos ARIMA a partir de los modelos ARMA. Las FAC s y las FACP s de algunos de los modelos ARIMA con primeras diferencias regulares se citan en una tabla al final de este capítulo.

66 4.3.9. Modelos para series de tiempo estacionales Las series de tiempo que presentan patrón estacional tienen un patrón que se repite después de un número de intervalos de tiempo. Este patrón puede verse en ocasiones en la gráfica de la serie observada, a menos que exista una tendencia muy fuerte o la varianza no sea estable. Asimismo, este patrón se presenta siempre de forma inconfundible en las autocorrelaciones de la serie, manifestándose en forma de picos en ciertos intervalos de tiempo. El caso más común de patrón estacional es cuando los datos están divididos por meses y existe un patrón cada meses. Entonces existen picos en los rezagos, 4, 36, etc. de la función de autocorrelación. A estos picos se les llama rezagos estacionales. Cabe mencionar que si estos rezagos son muy parecidos en valor y van decreciendo muy lentamente, entonces existe el patrón estacional. Si solamente el rezago o el y el 4 tienen valores altos y los siguientes rezagos estacionales se van rápidamente a 0, entonces hay estacionariedad en el patrón estacional. Por supuesto, existen muchos tipos de patrón estacional, como bimestral, trimestral, cuatrimestral, semestral o anual. La no estacionariedad en la serie debido a un patrón estacional puede ser eliminada a través de lo que denomina diferencia estacional (D) y se define como w t = z t z t-s, t s + donde s toma distintos valores dependiendo del patrón estacional. Por ejemplo, si el patrón es anual y los datos son mensuales, s toma el valor ; si el patrón es bimestral y los datos

67 son mensuales, s toma el valor de. En esta diferencia, la nueva serie tiene s términos menos que la original. La diferencia estacional también puede denotarse usando un operador de retraso B, que retrasa a una observación s periodos: B s z t = z t-s. Entonces se tiene que w t = ( - B s )z t = z t - z t-s, t s + En general, se pueden aplicar D diferencias estacionales como sean necesarias, quedando la siguiente relación: w t = ( - B s ) D z t Ésta define una nueva serie de valores observados w t resultante de D diferencias estacionales posibles aplicadas a la serie original. Cabe hacer notar que cada vez que se aplica una diferenciación estacional se debe revisar si se ha alcanzado estacionariedad en el patrón estacional, pues la sobrediferenciación sólo complica la estimación del modelo. Como ya se mencionó, la función de autocorrelación nos indica la presencia o ausencia de la tendencia y la estacionalidad. Si una serie presenta tendencia y patrón estacional combinados, el análisis de la FAC nos indica la presencia de ambas al mismo tiempo. En esta situación, se puede proceder de dos formas.

68 El primer caso es aplicar una diferencia regular para lograr estacionariedad en la media. Analizando la nueva FAC, si los rezagos estacionales continúan mostrando un patrón se procede a realizar una diferencia estacional. Entonces la nueva serie observada queda w t = w t w t- = (-B s ) (-B) z t = (-B s ) (z t z t- ) = z t z t- - z t-s + z t-(s+), t s + El segundo caso es aplicar una diferencia estacional para lograr estacionariedad en el patrón estacional. Analizando la nueva FAC, si las autocorrelaciones muestran un patrón de tendencia, se procede a realizar una diferencia regular. Entonces la nueva serie observada queda w t = w t w t- = (-B) (-B s ) z t = (-B) (z t z t-s ) = z t z t-s - z t- + z t-(s+), t s + Por lo tanto, en la aplicación de los dos tipos de diferencias es irrelevante el orden en que se realizan, pues la serie obtenida es la misma. Para el caso de estacionalidad en la serie, existen modelos para tratar estos patrones. Los modelos autorregresivos estacionales de grado P y periodo S son análogos a los modelos autorregresivos y están en función de p observaciones estacionales anteriores. Se denotan por modelos SAR(P) S. Los modelos de promedio móvil estacionales de grado Q y periodo S están en función de q disturbios estacionales anteriores. Se denotan por modelos SMA(Q) S. Los más comunes son los modelos de primer orden y periodo.

69 El modelo autorregresivo estacional de primer orden y periodo, también denotado por SAR(), es análogo a un autorregresivo de primer orden. Está en función de la observación estacional anterior. La ecuación del modelo es Z t = θ 0 + φ Z t- + A t donde φ = coeficiente autorregresivo estacional de periodo A t ~N(0,σ A) El coeficiente φ debe presentar la condición - < φ < para que el proceso alcance estacionariedad. Las autocorrelaciones están dadas por s s = φ, s = = 0, s con lo cual, sólo son distintas de cero en los periodos estacionales y se van rápidamente a cero. Las autocorrelaciones parciales están dadas por, = φ, ss = 0 para cualquier otro caso con lo cual, sólo el rezago es distinto de cero.

70 El modelo de promedio móvil estacional de primer orden y periodo, también denotado por SMA(), es análogo a uno de promedio móvil de primer orden. Está en función del disturbio estacional anterior. La ecuación del modelo es Z t = θ 0 + A t - θ A t- donde θ = coeficiente de promedio móvil estacional de periodo A t ~N(0,σ A) Las autocorrelaciones están dadas por θ = + θ = 0 para cualquier otro caso con lo cual, sólo el rezago es distinto de cero. Las autocorrelaciones parciales sólo son distintas de cero en los periodos estacionales y se van rápidamente a cero. El modelo que generaliza ambos casos se llama modelo autorregresivo y de promedio móvil estacional de orden (P,Q) y periodo s, también denotado por SARMA(P,Q) s, es análogo a uno ARMA(p,q). La ecuación del modelo es donde A t ~N(0,σ A) Z t = φ s Z t-s + +φ sp Z t-sp +A t - θ s A t-s - - θ sq A t-sq

7 Las autocorrelaciones y las autocorrelaciones parciales están definidas de acuerdo al caso que presente el modelo. El modelo que considera D diferencias estacionales para alcanzar estacionariedad en una serie con patrón estacional es el modelo autorregresivo y de promedio móvil estacional integrado de orden (P, D, Q) y periodo s, también denotado por SARIMA(P,D,Q) s, es análogo a uno ARIMA(p, d, q). La ecuación del modelo es donde A t ~N(0,σ A) Z t = φ s W t-s + +φ sp W t-sp +A t - θ s A t-s - - θ sq A t-sq W t = (-B s ) D Z t Las autocorrelaciones y las autocorrelaciones parciales están definidas de acuerdo al caso que presente el modelo. Finalmente, el modelo multiplicativo estacional de orden (p, d, q) x (P, D, Q) y periodo s es el que toma en cuenta la no estacionariedad tanto en media como en el patrón estacional. El modelo contiene operadores regulares de orden p o q y estacionales de orden P o Q. Las series observadas requieren de un operador regular, ya sea autorregresivo o de promedio móvil, pero no ambos. Asimismo, requieren de un operador estacional, ya sea autorregresivo o de promedio móvil, pero no ambos. Cabe notar que éste es el modelo general del enfoque Box-Jenins. La ecuación del modelo es (-φ B- -φ p B p )(-φ s B s - -φ sp B sp )W t = θ 0 + (-θ B- -θ q B q )(-θ s B s - -θ sq B sq )A t

7 donde W t = (- B) d (- B s ) D Z t θ 0 = (-φ - -φ p )( -φ s - -φ sp )µ (-φ B- -φ p B p ) operador autorregresivo regular de orden p (-φ s B s - -φ sp B sp ) operador autorregresivo estacional de orden P (-θ B- -θ q B q ) operador de promedios móviles regular de orden q (-θ s B s - -θ sq B sq ) operador de promedios móviles estacional de orden Q s = periodo estacional Los casos más comunes en la práctica son (, d, 0) x (, D, 0) (, d, 0) x (0, D, ) (0, d, ) x (, D, 0) (0, d, ) x (0, D, ) Para saber qué operadores se deben incluir en el modelo, se siguen los siguientes dos pasos al analizar la FAC y la FACP maestrales de la serie diferenciada. El primero es tomar en cuenta sólo las autocorrelaciones no estacionales y fijarnos en el patrón que presentan. Utilizando la FAC y la FACP de los modelos AR(p) y MA(q), si la FAC muestral tiende a 0 y la FACP se corta después del rezago p, entonces un operador autorregresivo regular de orden p debe incluirse en el modelo. Asimismo, si la FAC muestral se corta después del rezago q y la FACP tiende a 0, entonces un operador de promedio móvil regular de orden q debe incluirse en el modelo.

73 El segundo es tomar en cuenta sólo las autocorrelaciones estacionales y fijarnos en el patrón que presentan. Utilizando la FAC y la FACP de los modelos SAR(P)s y SMA(Q)s, si la FAC muestral tiende a 0 y la FACP se corta después del rezago sp, entonces un operador autorregresivo estacional de orden P debe incluirse en el modelo. Asimismo, si la FAC muestral se corta después del rezago sq y la FACP tiende a 0, entonces un operador de promedio móvil estacional de orden Q debe incluirse en el modelo. El término constante θ 0 en el modelo se deberá incluir sólo si la media muestral de la serie diferenciada es grande comparada con la desviación estándar muestral. 4.3.0. Principios del cálculo del pronóstico Para el cálculo del pronóstico, primero debemos conocer cuál es el modelo apropiado para la serie de tiempo observada y enseguida extrapolarlo hacia el futuro. El valor de la serie de tiempo l periodos en el futuro se denota por z t+l y es un valor aleatorio de la variable Z t+l. El pronóstico de z t+l basado en los valores observados z, z,, z t se denota por (l ), con origen en t y horizonte de tiempo l. z t Sea f cualquier pronóstico de z t+l. Se define como error de pronóstico a la expresión: (Z t+l f). El error cuadrado medio del pronóstico se define como la expresión: E(Z t+l f). El pronóstico de z t+l con el error cuadrado medio más pequeño condicionado a la información al origen t es: E(Z t+l Z = z, Z = z,..., Z t = z t ) o de forma más corta

74 E [ Zt + l t ] z t El error de pronóstico para el pronóstico (l), condicional a la información al origen t se denota por e t (l) = Z t+l - zt (l) cuya media es 0. La varianza del error del pronóstico condicional en información al origen t se denota por σ [ e t La varianza se incrementará conforme se incrementa el horizonte de tiempo l. Entonces conforme avanza el tiempo, la amplitud de los intervalos de predicción se incrementará también. Entre mayor sea el horizonte de tiempo del pronóstico, éste será menos exacto. En la practica, el error del pronóstico y la varianza del error del pronóstico dependerán de los parámetros desconocidos del modelo de series de tiempo y tendrán que ser estimados de los valores observados de la serie. ( l)] 4.3.. Estimación de los parámetros, significación y diagnóstico. Antes de comenzar la estimación de los parámetros, se debe tener muy presente que siempre se deben incluir el menor número de parámetros tal que nos den el pronóstico más adecuado. Éste es el principio de parsimonía. Su razón de ser es que mientras más parámetros hay en un modelo ajustado, más difícil es su estimación y menos acertados son los pronósticos. Teniendo este principio presente, se procede a la estimación de los parámetros.

75 Los valores estimados de los parámetros están en función de los valores observados en la serie y algunos se estiman con las autocorrelaciones. De acuerdo al principio de mínimos cuadrados, los parámetros deben tener valores que hagan que la suma de cuadrados de los errores o suma residual de cuadrados sea mínima: N N ( z t z t ()) = t = ( a t ) Los valores de los parámetros se estiman utilizando esta fórmula. Cuando se presentan problemas de valores iniciales, se solucionan dando estimadores adecuados de estos valores. El cálculo anterior es una estimación no lineal de mínimos cuadrados. Los parámetros de un modelo pueden ser calculados también por el método de momentos, el método de máxima verosimilitud o el método de mínimos cuadrados ordinarios. Ninguno de éstos se contempla en el presente trabajo. Una vez que se han estimado los parámetros, el modelo ajustado debe revisarse para ver que las estimaciones de los parámetros satisfagan las condiciones de estacionariedad e invertibilidad y que sean significativamente diferentes de cero. Para comprobar esto último, se recurre a la siguiente regla: Un parámetro es significativamente de cero si cae fuera de los límites ± l.96*(error estándar estimado). Los errores estándar estimados dependen del modelo ajustado. Si el parámetro estimado es significativo, entonces debe ser incluido en el modelo y si no lo es, no se debe incluir. Sin

76 embargo, si el hecho de no ser significativo se debe a pocas observaciones en la serie, entonces se debería dejar en el modelo. Si los parámetros son cercanos a, es mejor usar un modelo no estacionario para la serie. Pero las pruebas principales de adecuación de modelo se basan en un estudio de los residuales del modelo ajustado. Si el modelo que hemos ajustado es el modelo correcto, entonces los valores observados del error del pronóstico son () = z - z () =a t e t - t t- Como a t se calcula con las estimaciones de los parámetros se le llama residual. Si el modelo ajustado es de la forma correcta y si los estimadores de mínimos cuadrados son iguales o muy aproximados a los valores reales de los parámetros del modelo, los residuales a t deberían ser la realización de un proceso de ruido blanco. Lo anterior porque los disturbios aleatorios A t forman un proceso de ruido blanco si son independientes y se distribuyen normalmente con media cero y desviación estándar σ A. Entonces, al revisar la FAC y la FACP de los residuales, ambas deben ser cero. Pero si al revisar la FAC encontramos que la primera autocorrelación muestral es significativamente diferente de cero, entonces un término de promedios móviles debe ser incluido en el modelo. Si al revisar la FACP la primera autocorrelación parcial muestral fuera significativamente diferente de cero, entonces un término autorregresivo debe ser incluido en el modelo. Finalmente, si la FAC mostrara picos en los retrasos estacionales y las autocorrelaciones fueran significativas, entonces un modelo estacional debe ser utilizado. Esto es lo mismo que utilizar la FAC y la FACP con la serie original directamente.

77 Existe una prueba a través del estadístico Q para determinar si el modelo es adecuado o no. Sea r l ( a ) la autocorrelación del rezago l para los residuales y sea Q = N ( r l ( a)) l= donde N es el número de residuales de la serie de tiempo observada y el número de las autocorrelaciones r l ( a ). El estadístico Q tendrá una distribución de probabilidad jicuadrada con (-r) grados de libertad, donde r es el número de parámetros en el modelo. La regla es: Si Q es muy grande y excede el valor crítico cuya probabilidad de pasarlo es 0.05, entonces el modelo es inadecuado. Finalmente, el estadístico L-Jung Box, que es una modificación del estadístico Q, se utiliza en la mayoría de los paquetes de pronóstico actuales. 4.3.. Medición de la capacidad de ajuste y de predicción de un modelo Cuando se estiman parámetros y se prueban los modelos ajustados, es común que varios puedan ser adecuados para estimar una serie. Para tener una última forma de decisión al respecto, existen medidas que están basadas en el error del pronóstico. Se pueden utilizar este tipo de estadísticos que comparan la precisión entre dos modelos diferentes, es decir, miden su bondad de ajuste. Existen muchas medidas para decidir si un modelo es el óptimo. En las siguientes, M es el número de errores porcentuales utilizados en la sumatoria y n es el periodo origen del pronóstico.