Procesos de media móvil y ARMA

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Procesos de media móvil y ARMA"

Transcripción

1 Capítulo 5 Procesos de media móvil y ARMA Herman Wold ( ) Estadístico y económetra sueco. Desarrolló la representacion general de procesos estacionarios y la metodología econométrica estudiando los problemas de identificación y causalidad en econometría y las funciones de demanda. Es además el inventor de los mínimos cuadrados parciales (PLS), método de estimación muy utilizado en aplicaciones químicas y sociológicas. Fué profesor de estadística en la Universidad de Uppsala desde 1942 hasta 1970 y en la de Goteborg desde 1970 hasta Fue presidente de la Econometric Society. 5.1 Introducción En el capítulo anterior hemos estudiado una clase de procesos estacionarios lineales, los procesos autorregresivos, que se caracterizan por tener muchos coeficientes de autocorrelación distintos de cero y que decrecen con el retardo. Estos procesos AR son procesos con memoria relativamente larga, ya que el valor actual de una serie esta correlado con todos los anteriores, aunque con coeficientes decrecientes. Como vimos en el capítulo anterior esta propiedad se traduce en que podemos escribir un proceso AR como una función lineal de todas las innovaciones que le han generado, con pesos que tienden a cero con el retardo. Los procesos AR no pueden representar series de memoria muy corta, donde el valor actual de la serie sólo esta correlado con un número pequeño de valores anterios, de manera que la función de autocorrelación simple tenga sólo unas pocas autocorrelaciones distintas de cero. Una familia de procesos que tienen esta propiedad de memoria muy corta son los procesos de media móvil, o procesos MA de su nombre en inglés moving average, que estudiremos en este capítulo. Estos procesos MA son función de un número finito, y generalmente pequeño, de las innovaciones pasadas que han ocurrido en el proceso. Después, combinaremos las propiedades de los procesos AR y MA para definir los procesos ARMA, que dan lugar a una familia muy amplia y flexible de procesos estocásticos estacionrios útiles para representar muchas series temporales. Los procesos puros AR y MA aparecen entonces como casos particulares de esta representación general ARMA. 5.2 EL proceso de media móvil de orden uno (MA(l)) Se define el proceso de media móvil de orden uno, MA(l), añadiendo a un proceso de ruido blanco una dependencia del valor actual de la serie de la última innovación ocurrida. De esta manera el proceso será una combinación lineal de las dos últimas innovaciones, de acuerdo con la ecuación: ez t = a t θa t 1 (5.1) donde ez t = z t µ, siendo µ la media del proceso y a t es un proceso de ruido blanco con varianza σ 2. El proceso MA(1) puede escribirse con la notación de operadores: 1

2 2 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA ez t =(1 θb) a t. (5.2) Este proceso es la suma de los dos procesos estacionarios, a t y θa t 1 y, por tanto, siempre será estacionario, para cualquier valor del parámetro, a diferencia de los procesos AR. En las aplicaciones de este proceso supondremos que θ < 1, de manera que la innovación pasada tenga menos peso que la presente. Entonces, decimos que el proceso es invertible y tiene la propiedad de que el efecto de los valores pasados de la serie decrece con el tiempo. Para justificar esta propiedad, sustituyamos a t 1 en (5.1) como función de z t 1,elresultadoes: y repitiendo esta operación para a t 2 : ez t = a t θ (ez t 1 + θa t 2 )= θez t 1 θ 2 a t 2 + a t ez t = θez t 1 θ 2 (ez t 2 + θa t 3 )+a t = θez t 1 θ 2 ez t 2 θ 3 a t 3 + a t mediante sustituciones sucesivas de a t 3, a t 4..., etc, se obtiene: Xt 1 ez t = θ i ez t 1 θ t a 0 + a t (5.3) i=1 Se observa que si θ < 1, elefectodeez t k tiende hacia cero con k y el proceso se denomina invertible. Si θ 1 se daría la situación paradójica en que el efecto de las observaciones pasadas aumentaría con la distancia y, aunque el proceso seguiría siendo estacionario, parece poco adecuado para representar series reales. En adelante, supondremos que el proceso es invertible. Entonces, como θ < 1, existe el operador inverso (1 θb) 1 y podemos escribir la ecuación (5.2) como: 1+θB + θ 2 B ez t = a t (5.4) queequivalea: ez t = X θ i ez t 1 + a t i=1 que es equivalente a (5.3) suponiendo que el proceso comienza en el infinito pasado. Esta ecuación representa el proceso MA(l) con θ < 1 como un AR( ) concoeficientes que decrecen en progresión geométrica. La varianza del proceso se calcula a partir de (5.1). Elevando al cuadrado y tomando esperanzas se obtiene: E(ez t 2 )=E(a 2 t )+θ 2 E(a 2 t 1) 2θE(a t a t 1 ) ycomoe(a t a t 1 )=0por ser un proceso de ruido blanco y E(a 2 t )=E(a 2 t 1) =σ 2, tenemos que: σ 2 z = σ 2 1+θ 2. (5.5) Esta ecuación nos indica que la varianza marginal del proceso, σ 2 z, es siempre mayor que la varianza de las innovaciones, σ 2, y tanto mayor cuanto mayor sea θ Función de autocorrelación simple y parcial Para obtener la función de autocorrelación simple de un proceso MA(l) comenzaremos calculando las covarianzas. La de primer orden se calcula multiplicando la ecuación (5.1) por ez t 1 y tomando esperanzas: γ 1 = E(ez t ez t 1 )=E(a t ez t 1 ) θe(a t 1 ez t 1 ). En esta expresión el primer término E(a t ez t 1 ) es cero, ya que ez t 1 según (5.1) el valor en un instante de la serie depende de su innovación, a t 1, y de la innovación previa, a t 2, pero no de las innovaciones futuras, como a t. Para calcular el segundo, sustituyendo ez t 1 por su expresión según (5.1), resulta E(a t 1 ez t 1 )=E(a t 1 (a t 1 θa t 2 )) = σ 2

3 5.3. EL PROCESO MA(Q) 3 con lo que se obtiene: De la misma forma se calcula la autocovarianza de orden dos: γ 1 = θσ 2. (5.6) γ 2 = E(ez t ez t 2 )=E(a t ez t 2 ) θe(a t 1 ez t 2 )=0 ya que como los valores de la serie estan incorrelados con las innovaciones futuras los dos términos son nulos. El mismo resultado se obtiene para las covarianzas de orden superior a uno ya que si multiplicamos la ecuación (5.1) por ez t j, donde j>1, y tomamos esperanzas siempre aparecerán esperanzas del valor de la serie en un instante e innovaciones futuras, con lo que se obtiene: γ j =0, j > 1. (5.7) Dividiendo las autocovarianzas (5.6) y (5.7) por la expresión (5.5) de la varianza del proceso, obtenemos que los coeficientes de autocorrelación de un proceso MA(1) verifican: ρ 1 = θ 1+θ 2, ρ k =0 k>1, (5.8) ylafas tendrá únicamente un valor distinto de cero en el primer retardo. Como θ < 1 el valor del coeficiente de autocorrelación en un MA(1) invertible es siempre menor que 0.5. Este resultado demuestra que la función de autocorrelación simple (fas) deunprocesoma(l)tienelas mismas propiedades que la función de autocorrelación parcial (fap) de un proceso AR(l): existe un primer coeficiente distinto de cero y todos los demás son nulos. Esta dualidad entre el AR(1) y el MA(1) se presenta también en la función de autocorrelación parcial, fap. En efecto, según (5.4), al escribir un proceso MA(l) en forma autorregresiva hay un efecto directo de z t k sobre z t de magnitud θ k, cualquiera que sea k. Por tanto, la fap tendrá todos los coeficientes no nulos y que decrecen geométricamente con k. Estaeslaestructurade la fas de un AR(l) y, por tanto, concluimos que la fap de un MA(l) tiene la misma estrutura que la fas de un AR(l). Ejemplo 5.1 Los datos de la serie que vamos a estudiar estan en el fichero tempmundo.dat. Son datos mensuales entre los años y representan la desviación entre la temperatura promedio de un mes y la media de ese mes calculada promediando las temperaturas en los 25 años entre Esta serie se ha construido para estudiar el calentamiento de la tierra. El gráfico de esta serie se presenta en la figura 5.1. Vemos que esta serie, y t, tiene tendencia creciente, por lo que no se estacionaria. Sin embargo, z t = y t y t 1, que representa las variaciones de temperatura media en la tierra entre un mes y el siguiente es una serie estacionaria, como indica su gráfico que aparece en la figura 5.2. Se observa que la serie z t es estacionaria y parece mostrar correlación negativa. La figura 5.3 muestra su función de autocorrelación, donde se observa un sólo coeficiente diferente de cero. El gráfico 5.4 muestra la fap, donde se observa un decrecimiento geométrico. Ambos gráficos sugieren un modelo MA(1) para la serie de diferencias entre meses, z t. 5.3 El Proceso MA(q) Generalizando la idea de un MA(1), podemos escribir procesos cuyo valor actual dependa no sólo de la última innovación sino de las q últimas innovaciones. Se obtiene entonces el proceso MA(q), con representación general: ez t = a t θ 1 a t 1 θ 2 a t 2... θ q a t q, o, introduciendo la notación de operadores: ez t = 1 θ 1 B θ 2 B 2... θ q B q a t (5.9)

4 4 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Figura 5.1: Temperaturas de la tierra en desviaciones a la media del mes entre 1881 y 2002 que puede escribirse de forma más compacta como: ez t = θ q (B) a t. (5.10) Un proceso MA(q) es siempre estacionario, por ser la suma de procesos estacionarios. Diremos que el proceso es invertible si las raíces del operador θ q (B) =0son, en módulo, mayores que la unidad. Las propiedades de este proceso se obtienen con el mismo método utilizado para el MA(1). Multiplicando (5.9) por ez t k para k 0 y tomando esperanzas se obtienen las autocovarianzas: γ 0 = 1+θ θ 2 q σ 2 γ k = ( θ k + θ 1 θ k θ q k θ q ) σ 2 k =1,..., q γ k = 0 k>q resultando que un proceso MA(q) tiene exactamente los q primeros coeficientes de la función de autocovarianzas distintos de cero. Dividiendo las covarianzas por γ 0 y utilizando una notación más compacta, la función de autocorrelación será. P i=q i=0 ρ k = θ iθ k+i P i=q, k =1,..., q i=0 θ2 i ρ k = 0, k > q. donde θ 0 = 1, y θ k =0para k q +1. Para calcular la función de autocorrelación parcial de un MA(q) expresaremos el proceso como un AR( ): y llamando θ 1 q (B) =π (B), donde: θ 1 q (B) ez t = a t π (B) =1 π 1 B... π k B k...

5 5.3. EL PROCESO MA(Q) 5 Figura 5.2: Variaciones mensuales sobre las medias de los meses de las temperaturas en la tierra en el periodo yloscoeficientes de π (B) se obtienen imponiendo que π (B) θ q (B) =1. Suponer que el proceso es invertible implica que las raíces de θ q (B) =0están fuera del círculo unidad, y la serie π (B) será convergente. Igualando las potencias de B a cero, se obtiene que los coeficientes π i verifican la relación siguiente: π k = θ 1 π k θ q π k q donde π 0 = 1 y π j =0para j<0. La solución de esta ecuación en diferencias será de la forma P A i G k i, donde ahora los G 1 i son las raices del operador de media móvil. Obtenidos los coeficientes π i de la representación AR( ), podemos escribir el proceso MA como: X ez t = π i ez t i + a t i=1 Esta expresión permite concluir que la fap de un MA será no nula para todo retardo, ya que existe un efecto directo de ez t i sobre ez t para todo i. Lafap de un proceso MA tendrá pues la misma estructura que la fas de un proceso AR del mismo orden. Concluimos que existe una dualidad entre procesos AR y MA, de manera que la fap de un MA(q) tiene la estructura de la fas de un AR(q) ylafas de un MA(q) tiene la estructura de la fap de un AR(q). La figura 5.5 presenta esta funciones para procesos MA(1) y MA(2).

6 6 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Figura 5.3: Funcion de autocorelación para la serie de desviaciones de la temperatura de la tierra Figura 5.4: Funcion de autocorelación parcial para la serie de desviaciones de la temperatura de la tierra

7 5.4. PROCESOS MA( ). LA DESCOMPOSICIÓN DE WOLD Procesos MA( ). La descomposición de Wold Los procesos autorregresivos y de media móvil estudiados en las secciones anteriores son casos particulares de una representación general de procesos estacionarios obtenida por Wold (1938). Este autor demostró que todo proceso estocástico débilmente estacionario, z t,demediafinita, µ, que no contenga componentes deterministas, puede escribirse como una función lineal de variables aleatorias incorreladas, a t, como: z t = µ + a t + ψ 1 a t 1 + ψ 2 a t = µ + X ψ i a t i (ψ 0 =1) (5.11) donde E(z t )=µ, y E [a t ]=0; Var(a t )=σ 2 ; E [a t a t k ]=0,k>1. Llamando ez t = z t µ, yutilizandoel operador de retardo, podemos escribir: i=0 ez t = ψ(b)a t (5.12) siendo ψ(b) =1+ψ 1 B + ψ 2 B un polinomio indefinido en el operador de retardo B. Llamaremos a (5.12) la representación lineal general de un proceso estacionario no determinista. Las propiedades del proceso se obtienen como en los caso de un modelo MA. La varianza de z t en (5.11) será: Var(z t )=γ 0 = σ 2 X i=0 ψ 2 i (5.13) y para que el proceso tenga varianza finita la serie ψ 2 i ª debe ser convergente. Observemos que si los coeficientes ψ i se anulan a partir de un retardo q el modelo general se reduce a un MA(q) y la fórmula (5.13) coincide con la obtenida en el apartado anterior. Las covarianzas se obtienen con γ k = E(ez t ez t k )=σ 2 X i=0 ψ i ψ i+k que proporcionan como caso particular para k =0la fórmula (5.13) para la varianza. De nuevo si los coeficientes ψ i se anulan a partir de un retardo q esta expresión para las autocovarianzas coincide con las de un proceso MA(q). Los coeficientes de autocorrelacion vendrán dados por: ρ k = P i=0 ψ iψ i+k P i=0 ψ2 i Esta representación es importante porque nos garantiza que cualquier proceso estacionario admite una representación lineal. En general, las variables a t forman un proceso de ruido blanco, es decir están incorreladas con media cero y varianza constante, pero si, como ocurre para ciertos procesos, tienen una distribución normal, entonces el proceso {a t } es de variables independientes y la variable ez t tiene una distribución normal. Entonces la estacionaridad débil coincide con la estricta. La figura 5.6 presenta una interpretación física del teorema de Wold. La serie ez t, puede considerarse el resultado de pasar un proceso de impulsos {a t } de variables incorreladas a través del filtro lineal ψ (B) que determina la ponderación de cada «impulso» en la respuesta

8 8 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Figura 5.6: La descomposición de Wold como un filtro lineal. Una consecuencia de este teorema es que todo proceso estacionario admite también una representación autorregresiva, que puede ser de orden infinito. Esta representación es la inversa de la de Wold, y escribiremos ez t = π 1 ez t 1 + π 2 ez t a t, queennotacióndeoperadoressereducea π(b)ez t = a t. La representacion AR( ) es la dual de la MA( ) yseverifica π(b)ψ(b) =1, con lo que igualando las potencias de B a cero podemos obtener los coeficientes de una representación a partir de los de la otra Los Procesos AR y MA y el proceso general Es inmediato comprobar que un proceso MA es un caso particular de la representación de Wold. También lo son los procesos AR. Por ejemplo, el proceso AR(l) (1 φb) ez t = a t (5.14) puede escribirse, como vimos en el capítulo 4, multiplicando por el operador inverso (1 φb) 1 ez t = 1+φB + φ 2 B a t querepresentaalprocesoar(1) comouncasoparticulardelaformama( ) del proceso lineal general, con coeficientes ψ i que decaen en progresión geométrica. La condición de estacionaridad y varianza finita, serie de coeficientes ψ 2 i convergente, equivale ahora a que φ < 1. Para procesos AR de orden más alto resulta más cómodo obtener los coeficientes de la representación MA( ) imponiendo la condición de que esta representación es el resultado de invertir un proceso AR, con lo que el producto de ambos operadores debe ser la unidad. Por ejemplo, para un AR(2) la condición será: 1 φ1 B φ 2 B 2 1+ψ 1 B + ψ 2 B =1 e imponiendo la anulación de las potencias de B se obtienen los coeficientes: ψ 1 = φ 1 ψ 2 = φ 1 ψ 1 + φ 2 ψ i = φ 1 ψ i 1 + φ 2 ψ i 2, i 2 donde ψ 0 =1. Análogamente, para un AR(p) los coeficientes ψ i de la representación general se calculan mediante:

9 5.5. EL PROCESO ARMA(1, 1) 9 yparai p deben verificar la condición: 1 φ1 B... φ p B p 1+ψ 1 B + ψ 2 B =1 ψ i = φ 1 ψ i φ p ψ i p, i p La condición de estacionaridad implica que las raíces de la ecuación característica del proceso AR(p), φ p (B) =0, deben estar fuera del círculo unidad. Escribiendo el operador φ p (B) como: donde G 1 i φ p (B) = py (1 G i B) i=1 son las raíces de φ p (B) =0,severifica que, desarrollando en fracciones parciales: φ 1 p (B) = X k i (1 G i B) será convergente si G i < 1. En resumen, los procesos AR pueden considerarse casos particulares de la representación del proceso lineal general que se caracterizan porque: (1) todos los ψ i son distintos de cero; (2) existen restricciones sobre las ψ i, que dependen del orden del proceso. En general verifican la secuencia ψ i = φ 1 ψ i φ p ψ i p, con condiciones iniciales que dependen del orden del proceso. Esta relación entre los coeficientes ψ i y los del proceso permiten concluir que los coeficientes ψ i tienen la misma estructura que los coeficientes de autocorrelación simple. En efecto, para un AR(p) hemos visto que satisfacen la ecuación de un proceso, como ocurría con las autocorrelaciones, y para un MA el número de coeficientes no nulos de ambos tipos es el orden del proceso. 5.5 ElprocesoARMA(1,1) Una conclusión de la sección anterior es que los procesos AR y MA aproximan un proceso lineal general MA ( ) desde puntos de vista complementarios: los AR permiten estructura MA ( ), pero imponen restricciones sobre las pautas de decrecimiento de los coeficientes ψ i ; los MA exigen un número de términos finito, pero a cambio no imponen restricciones sobre sus valores. Desde el punto de vista de la estructura de autocorrelación, los AR permiten muchos coeficientes distintos de cero, pero con una pauta de decrecimiento fija,mientras que los MA permiten unos pocos coeficientes distintos de cero con valores arbitrarios. Los procesos ARMA intentan combinar estas propiedades y permiten representar de forma escueta (utilizando pocos parámetros) procesos cuyos primeros q coeficientes son cualesquiera mientras que los siguientes decrecen según leyes simples. Matemáticamente, los procesos ARMA resultan de añadir estructura MA a un proceso AR o viceversa. El proceso más simple es el ARMA(1, l), que se escribe: o, con notación de operadores: ez t = φ 1 ez t 1 + a t θ 1 a t 1 (1 φ 1 B) ez t =(1 θ 1 B) a t (5.15) donde φ 1 < 1 para que el proceso sea estacionario, y θ 1 < 1 para que sea invertible. Además supondremos que φ 1 6= θ 1. Si ambos parámetros fuesen idénticos tendríamos que, multiplicando ambos miembros por el operador (1 φ 1 B) 1, resulta que ez t = a t, y el proceso sería ruido blanco. En la formulación de los modelos ARMA supondremos siempre que no hay raices comunes en los operadores AR y MA. Para obtener la función de autocorrelación de un ARMA(1,1), multiplicando (5.15) por ez t k y tomando esperanzas, se obtiene: γ k = φ 1 γ k 1 + E (a t ez t k ) θ 1 E (a t 1 ez t k ) (5.16)

10 10 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA Para k>1, elruidoa t esta incorrelado con la historia de la serie. Para comprobarlo basta expresar el proceso como un MA( ) invirtiendo la parte AR ez t =(1 φ 1 B) 1 (1 θ 1 B) a t = a t +(φ 1 θ 1 )a t 1 + φ 1 (φ 1 θ 1 )a t yalsera t ruido blanco estará incorrelado con los valores a t i y, por tanto, con ez t i. En consecuencia: Para k =0, E[a t ez t ]=σ 2 y γ k = φ 1 γ k 1 k>1 (5.17) E [a t 1 ez t ]=E [a t 1 (φ 1 ez t 1 + a t θ 1 a t 1 )] = σ 2 (φ 1 θ 1 ) sustituyendo estos resultados en (5.16), para k =0 γ 0 = φγ 1 + σ 2 θ 1 σ 2 (φ 1 θ 1 ). (5.18) Tomando en (5.16) k =1,resultaqueE[a t ez t 1 ]=0,E[a t 1 ez t 1 ]=σ 2 y se obtiene: y resolviendo (5.18) y (5.19) se obtiene: γ 1 = φ 1 γ 0 θ 1 σ 2 (5.19) γ 0 = σ 2 1 2φ 1θ 1 + θ φ 2 1 Para obtener los coeficientes de autocorrelación, dividiendo (5.19) por esta expresión: ρ 1 = (φ 1 θ 1 )(1 φ 1 θ 1 ) 1 2φ 1 θ 1 + θ 2 1 (5.20) Observemos que si φ 1 = θ 1, esta autocorrelación es cero, porque, como indicamos antes, los operadores (1 φ 1 B) y (1 θ 1 B) se cancelan y resultará un proceso de ruido blanco. En el caso frecuente en que ambos coeficientes son positivos y φ 1 > θ 1 es fácil comprobar que la correlación aumenta con (φ 1 θ 1 ). El resto de los coeficiente de autocorrelación se obtienen dividiendo (5.17) por γ 0, que resulta en: ρ k = φ 1 ρ k 1 k>1 que indica que a partir del primer coeficiente la fas de un ARMA(1, 1) tiene un decrecimiento exponencial determinado por el parámetro φ 1 de la parte AR. La diferencia con un AR(l) es que este decrecimiento comienza a partir de ρ 1, y no de ρ 0 =1, y este primer valor de la autocorrelación de primer orden depende de la diferencia relativa entre φ 1 y θ 1. Observemos que si φ 1 w 1 y φ 1 θ 1 = ε, pequeño, podemos tener muchos coeficientes distintos de cero pero todos de pequeño tamaño. Para calcular la fap escribiremos el ARMA(1, 1) en la forma AR( ) (1 θ 1 B) 1 (1 φ 1 B) ez t = a t y utilizando que (1 θ 1 B) 1 =1+θ 1 B + θ 2 1B , y operando, se obtiene: ez t =(φ 1 θ 1 ) ez t 1 + θ 1 (φ 1 θ 1 ) ez t 2 + θ 2 1 (φ 1 θ 1 ) ez t a t El efecto directo de ez t k sobre ez t decrece geométricamente con θ k 1 y, por tanto, la fap tendrá un decrecimiento geométrico a partir de un valor inicial. En conclusión, en un proceso ARMA(1,1) la fas y la fap tienen una estructura similar: un valor inicial, cuya magnitud depende de φ 1 θ 1, y después decrecimiento geométrico. La tasa de decrecimiento en la fas depende de φ 1, mientras que en la fap depende de θ 1.Lafigura 5.7 presenta las funciones de autocorrelación simple y parcial para distintos procesos ARMA (1,1).

11 5.6. PROCESOS ARMA(P,Q) 11 Figura 5.7: Funciones de autocorrelación simple y parcial para procesos ARMA(1,1) 5.6 Procesos ARMA(p,q) El proceso ARMA(p, q) será: 1 φ1 B... φ p B p ez t =(1 θ 1 B... θ q B q ) a t (5.21) o, en notación compacta, φ p (B) ez t = θ q (B) a t El proceso será estacionario si las raíces de φ p (B) =0esta fuera del círculo unidad, e invertible si lo están las de θ q (B) =0. Supondremos, además, que no hay raíces comunes que pueden cancelarse entre los operadores AR y MA. Para obtener los coeficientes ψ i de la representación general MA( ) escribiremos: ez t = φ p (B) 1 θ q (B) a t = ψ (B) a t e igualaremos las potencias de B en ψ (B) φ p (B) alasdeθ q (B). Análogamente, podemos representar un ARMA(p, q) como un AR( ) haciendo: θ 1 q (B) φ p (B) ez t = π (B) ez t = a t

12 12 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA yloscoeficientes π i resultarán de φ p (B) =θ q (B) π (B). Para calcular las autocovarianzas, multiplicando (5.21) por ez t k y tomando esperanzas, γ k φ 1 γ k 1... φ p γ k p = E [a t ez t k ] θ 1 E [a t 1 ez t k ]... θ q E [a t q ez t k ] para k>qtodos los términos de la derecha se anulan, y dividiendo por γ 0 : es decir: ρ k φ 1 ρ k 1... φ p ρ k p =0 φ p (B) ρ k =0 k>q (5.22) y concluimos que los coeficientes de autocorrelación para k > q seguirán un decrecimiento determinado únicamente por la parte autorregresiva. Los primeros q coeficientes dependen de los parámetros MA y AR y de ellos p proporcionarán los valores iniciales para el decrecimiento posterior (para k > q) según (5.22). Por tanto, si p>qtoda la fas mostrará un decrecimiento dictado por (5.22). En resumen, la fas: 1. tendrá q p +1valores iniciales con una estructura que depende de los parámetros AR y MA; 2. decrecerá a partir del coeficiente q p como una mezcla de exponenciales y sinusoides, determinada exclusivamente por la parte autorregresiva. Puede comprobarse que la fap tendrá una estructura similar. Conclusión La fas y fap de los procesos ARMA es el resultado de la superposición de sus propiedades AR y MA: en la fas ciertos coeficientes iniciales que dependen del orden de la parte MA y después un decrecimiento dictado por la parte AR. En la fap valores iniciales dependientes del orden del AR y seguidos del decrecimiento debido a la parte MA. Esta estructura compleja hace que el orden de un proceso ARMA sea difícil de identificar en la práctica. La figura 5.8 resume estas características Figura 5.8: Resumen de la fas y fap de procesos ARMA

13 5.7. LOSPROCESOSARMAYLASUMADEPROCESOSESTACIONARIOS Los procesos ARMA y la suma de procesos estacionarios Una razón que explica porque los procesos ARMA son frecuentes en la práctica es que al sumar procesos AR resulta un proceso ARMA. Para ilustrar esta idea, consideremos el caso más simple donde sumamos a un proceso AR(1) un ruido blanco. Sea z t = y t + v t (5.23) donde y t = φy t 1 + a t sigue un proceso AR(1) de media cero y v t es un ruido blanco independiente de a t, yportantodey t. El proceso z t puede interpretarse como el resultado de observar un proceso AR(1) con cierto error de medida. La varianza de este proceso suma será: γ z (0) = E(z 2 t )=E (y 2 t + v 2 t +2y t v t ) = γ y (0) + σ 2 v, (5.24) ya que como los sumando son independientes la varianza es la suma de las varianzas de los componentes. Para calcular las autocovarianzas tendremos en cuenta que las autocovarianzas del proceso y t verifican γ y (k) =φ k γ y (0) y que las del proceso v t son nulas. Entonces: γ z (k) =E(z t z t k )=E [(y t + v t )(y t k + v t k )] = γ y (k) =φ k γ y (0), k 1 ya que por la independencia de los componentes E [y t v t k ]=0para cualquier k yalserv t ruido blanco E [v t v t k ]=0. En particular, sustituyendo en la ecuación anterior para k =1la varianza γ y (0) por su expresión (5.24), se obtiene: γ z (1) = φγ z (0) φσ 2 v (5.25) mientras que para k 2 γ z (k) =φγ z (k 1) (5.26) Si comparemos la ecuación (5.25) con la (5.19) y la (5.26) con la (5.17) concluimos que el proceso z t sigue un modelo ARMA(1,1) con parámetro AR igual a φ. El parámetro θ y la varianza de las innovaciones del proceso ARMA(1,1) dependen de la relación entre las varianzas de los sumandos. En efecto, llamando λ = σ 2 v/γ y (0) al cociente de varianzas entre los dos sumandos, según la ecuación (5.25) la primera autocorrelación es: ρ z (1) = φ φ λ 1+λ mientras que por (5.26) las restantes verifican, para k 2, ρ z (k) =φρ z (k 1). Si λ es muy pequeño, lo que implica que la varianza del ruido adicional o error de medida e pequeño, el proceso será muy próximo a un AR(1), y el parámetro θ será muy pequeño. Si λ no es muy pequeño, tendremos el ARMA(1,1) y el valor de θ depende de λ ydeφ. Si λ, de manera que el ruido blanco sea dominante, el parámetro θ será igual al valor de φ y tendremos un proceso de ruido blanco. Los resultados anteriores se generalizan para cualquier proceso AR(p). Puede comprobarse (véase Granger y Morris, 1976) que se verifica: AR(p)+AR(0) = ARMA(p, p), y que, además: AR(p)+ AR(q) = ARM A(p + q,max(p, q)) Por ejemplo, si sumamos dos procesos AR(1) independientes se obtiene un nuevo proceso ARMA(2,1). La suma de procesos MA es simple, y es fácil comprobar que si sumamos procesos MA independientes obtenemos nuevos procesos MA. Supongamos z t = x t + y t donde los dos procesos x t,y t tienen media cero y siguen procesos MA(1) independientes con covarianzas γ x (k), γ y (k), que son cero para k>1. La varianza del proceso suma será: γ z (0) = γ x (0) + γ y (0), (5.27)

14 14 CAPÍTULO 5. PROCESOS DE MEDIA MÓVIL Y ARMA y la autocovarianza de orden k E(z t z t k )=γ z (k) =E [(x t + y t )(x t k + y t k )] = γ x (k)+γ y (k) Por tanto, todas las covarianzas γ z (k) de orden mayor que uno serán cero, ya que los son γ x (k) y γ y (k). Dividiendo esta ecuación por γ z (0) y utilizando (5.27), se obtiene que las autocorrelaciones verificarán: ρ z (k) =ρ x (k)λ + ρ y (k)(1 λ) donde: γ λ = x (0) γ x (0) + γ y (0) es la varianza relativa del primer sumando. En el caso particular en que uno de los dos procesos sea ruido blanco se obtendrá un modelo MA(1) con autocorrelación menor que para el proceso original. De la misma forma es fácil demostrar que MA(q 1 )+MA(q 2 )=MA(max(q 1,q 2 )). Para procesos ARMA se demuestra también que: donde ARMA(p 1,q 1 )+ARMA(p 2,q 2 )=ARMA(a, b) a p 1 + p 2, b max(p 1 + q 1,p 2 + q 2 ) Estos resultados sugieren que siempre que observemos procesos que sean suma de otros, y alguno de ellos tenga estructura AR, es esperable observar procesos ARMA. Este resultado es a primera vista sorprendente, porque la mayoría de las series reales pueden considerarse como suma de ciertos componentes, lo que supondría que todos los procesos reales deberían ser ARMA. Sin embargo, en la práctica muchas series reales se aproximan bien mediante series AR o MA. La explicación de esta paradoja es que un proceso ARMA(p+h, p) con p raices similares en la parte AR y MA puede en la práctica aproximarse bien por un AR(h), por la casi cancelación de raices similares en ambos miembros. Ejercicios Dado el proceso de media cero z t =(1.7B)a t : (a) calcular la función de autocorrelación; (b) escribirlo como un proceso AR( ). 5.2 Demostrar que los procesos MA(1) z t = a t 0.5a t 1 y z t = a t 2a t 1 tienen la misma estructura de autocorrelación pero uno es invertible y otro no. 5.3 Demostrar que los dos procesos z t = a t +0.5a t 1 y z t =0.5a t + a t 1 son indistinguibles ya que tienen lamismavarianzaylamismaestructuradeautocorrelación. 5.4 Dado el proceso MA(2) z t = a t 1.2a t a t 2 : (a) comprobar si es invertible; (b) calcular su estructura de autocorrelación; (c) escribirlo como un proceso AR( ). 5.5 Dado el modelo z t =5+0.9z t 1 + a t +0.4a t 1 : (a) calcular su estructura de autocorrelación;(b) escribirle en la forma MA( ); (c) escribirle en el forma AR( ). 5.6 Dado el proceso (1 B +0.21B 2 )z t = a t 0.3a t 1 :(a) comprobar si es estacionario e invertible; (b) obtener la función de autocorrelación simple; (c) obtener su representación AR( ); (d) obtener su representación MA( ). 5.7 Demostrar que si sumamos dos procesos MA(1) se obtiene un nuevo proceso MA(1) con parámetro MA que es una combinación lineal de los parámetros MAde los dos procesos, con pesos proporcionales a los cocientes entre las varianzas de las innovaciones de los sumando con relación a la varianza de la innovación del proceso suma.

Procesos autorregresivos

Procesos autorregresivos Capítulo 3 Procesos autorregresivos Los procesos autorregresivos deben su nombre a la regresión y son los primeros procesos estacionarios que se estudiaron. Proceso autorregresivo: Un proceso autorregresivo

Más detalles

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como complemento a los apuntes de una asignatura del Departamento

Más detalles

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1, Capítulo 5 Procesos Integrados Un proceso no estacionario puede no ser estable en la media, en la varianza o en las autocorrelaciones. Por ejemplo, las series 3, 5-13, 19, 29-31, 35-37, y 39 del Capítulo

Más detalles

Procesos autorregresivos

Procesos autorregresivos Capítulo 4 Procesos autorregresivos George Udny Yule (1871-1951) Estadístico escocés. Se graduó en ingeniería en University College y estudió despues física en Bonn con Hertz. A su vuelta al Reino Unido

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos ARMA Definición: Ruido blanco. Se dice que el proceso {ɛ t } es ruido blanco ( white noise ) si: E(ɛ t ) = 0 Var(ɛ t ) = E(ɛ 2 t ) = σ 2 Para todo

Más detalles

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013 Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 19 de marzo del 2013 Promedios moviles Definición Diremos que {X t } t2t es un proceso de media movil de orden q, y lo denotaremos como MA(q),

Más detalles

Procesos de Media Móvil y ARMA

Procesos de Media Móvil y ARMA Capítulo 4 Procesos de Media Móvil y ARMA Los procesos AR no pueden representar series de memoria muy corta, donde el valor actual de la serie sólo está correlado con un número pequeño de valores anteriores

Más detalles

Predicción con modelos ARIMA

Predicción con modelos ARIMA Capítulo 7 Predicción con modelos ARIMA 7.1. INTRODUCCIÓN Información disponible: Observamos una realización y n = (y 1,...,y n ) de tamaño n de un proceso ARIMA(p, d, q). Objetivo: Predicción de valores

Más detalles

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA: Part III Modelos Box-Jenkins Bibliografía Bibliografía Brockwell, P.J. y Davis, R.A. (2002). Introduction to Time Series and Forecasting. 2 a edición. Springer. Cowpertwait, P.S.P. y Metcalfe, A.V. (2009).

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Procesos autorregresivos Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es un resumen/modificación de la documentación

Más detalles

LADE y DER-LADE. Primer evaluación parcial

LADE y DER-LADE. Primer evaluación parcial ECONOMETRÍA II CURSO 2007 LADE y DER-LADE Primer evaluación parcial 1. Considere la variable y t para el proceso y t = c + φ y t 1 + a t, donde a t es un ruido blanco. Suponga para φ los valores φ = 0.3

Más detalles

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013 Estadística Miguel Ángel Chong R miguel@sigmaiimasunammx de abril del 03 Autorregresivos Diremos que un proceso {X t } tt es un autorregresivo de orden p, y lo denotaremos como AR(p), si para p unenteroy,,

Más detalles

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Técnicas en Predicción Administración y Dirección de Empresas Departamento de Estadísitica

Más detalles

Econometria con Series Temporales

Econometria con Series Temporales May 24, 2009 Porque series temporales? Inhabilidad de la economia de producir experimentos controlados para estudiar relaciones causales entre variables. Una alternativa consiste en estudiar estas relaciones

Más detalles

Tema 2: Modelos probabilísticos de series

Tema 2: Modelos probabilísticos de series Tema 2: Modelos probabilísticos de Tema 2: Modelos probabilísticos de 1 2 3 4 5 6 Definición Un proceso estocástico con conjunto de índices T es una colección de variables aleatorias {X t } t T sobre (Ω,

Más detalles

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Series de tiempo Introducción Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Una característica intrínseca muy importante de las series de tiempo,

Más detalles

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1 . Diseño Óptimo en Función de Transferencia. Diseño Óptimo en Función de Transferencia.. Planteo del Problema.. Criterio de Optimización 3.. Predicción Óptima 4... Forma intuitiva 5... Caso General 5..3.

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe

Más detalles

1. Control de Mínima Varianza

1. Control de Mínima Varianza . Control de Mínima Varianza. CONTROL DE MÍNIMA VARIANZA..... PLANTEO DEL PROBLEMA..... CRITERIO DE OPTIMIZACIÓN...5.3. PREDICCIÓN ÓPTIMA...8.3.. Forma intuitiva...8... Caso General...0.3.. Cálculo del

Más detalles

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1

Series temporales. 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1 Series temporales 1. Introducción. 2. Análisis de la serie. 3. Modelos ARMA y ARIMA. 4. Predicción. Est.Ind. 08/09 - fjnm 1 Introducción Introducción Serie temporal: Conjunto de observaciones z t, cada

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades: CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse

Más detalles

Análisis de series temporales

Análisis de series temporales CAPíTULO 8 Análisis de series temporales Los datos estadísticos y, en particular, los datos económicos se recopilan a menudo en forma de series temporales. Una serie temporal es un conjunto ordenado de

Más detalles

Tópicos en Series de Tiempo

Tópicos en Series de Tiempo Tópicos en Series de Tiempo Autor: Grisel M. Britos Directora: Dra. Silvia María Ojeda Córdoba, Diciembre de 2012 Agradecimientos A mi familia por la paciencia, la comprensión y tanto que me han dado

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Enero 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe que los

Más detalles

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros. MODELOS DE SERIES DE TIEMPO 1 Introducción Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros. Originalmente tuvieron como objetivo hacer predicciones. Descomposición

Más detalles

ANÁLISIS EN EL DOMINIO DEL TIEMPO

ANÁLISIS EN EL DOMINIO DEL TIEMPO Matemáticas y Estadística aplicada POLITÉCNICA ANÁLISIS EN EL DOMINIO DEL TIEMPO Indice de contenidos: INTRODUCCIÓN MODELOS DE SERIES TEMPORALES (Box-Jenkins, 1973): De Procesos estacionarios De Procesos

Más detalles

Problemas de Espacios Vectoriales

Problemas de Espacios Vectoriales Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos econométricos dinámicos uniecuacionales Introducción: Hemos estudiado modelos de tipo: y t = φ 0 + p i=1 φ iy t i + q j=0 θ jɛ t j y t = β x t +

Más detalles

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S. Tema 2 1 M O D E L O S U N I V A R I A N T E S L I N E A L E S. Estructura del tema 1) Procesos estocásticos estacionarios. Modelos univariantes: la función de autocorrelación y el correlograma. 2) El

Más detalles

Tema 2 MODELOS UNIVARIANTES LINEALES.

Tema 2 MODELOS UNIVARIANTES LINEALES. Tema 2 MODELOS UNIVARIANTES LINEALES. 1 Estructura del tema 1) Procesos estocásticos estacionarios. Modelos univariantes: la función de autocorrelación y el correlograma. 2) El proceso ruido blanco. 3)

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

Técnicas de Predicción Solución Examen Final

Técnicas de Predicción Solución Examen Final Técnicas de Predicción Solución Examen Final Administración y Dirección de Empresas 23 de Junio, 2008 Prof. Antoni Espasa Secciones 3h Nota: Todas las respuestas deben ser adecuadamente razonadas. Respuestas

Más detalles

Tema 4. El Modelo de Regresión Lineal con Series Temporales.

Tema 4. El Modelo de Regresión Lineal con Series Temporales. Tema 4. El Modelo de Regresión Lineal con Series Temporales. En este tema, estudiaremos en detalle la estimación e inferencia del modelo de regresión con datos de series temporales. Dadas las diferencias

Más detalles

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales. Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede

Más detalles

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA Modelización Económica II Referencias: Mills y Markellos (2008) "The Econometric Modelling of Financial Time Series", Cambridge University Press.

Más detalles

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores Capítulo 4 Procesos ARMA 4.1. Modelos Autoregresivos La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores previos: X t 1,..., X t p. Definición 4.1 Un modelo autoregresivo

Más detalles

UNIDAD. Logaritmos ÍNDICE DE CONTENIDOS

UNIDAD. Logaritmos ÍNDICE DE CONTENIDOS UNIDAD 2 Sucesiones y número e. Logaritmos ÍNDICE DE CONTENIDOS 1. Sucesiones de números reales............................... 35 1.1. Progresiones aritméticas y geométricas....................... 36 1.2.

Más detalles

Macroeconometría ( ) Examen final

Macroeconometría ( ) Examen final Macroeconometría (2004 2005) Examen final Nikolas Müller-Plantenberg * 15 de junio de 2005 Nombre: Apellido: NIF: Instrucciones Por favor, no leer las preguntas antes de que la profesora lo indique. Hay

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará

Más detalles

Series de tiempo con aplicaciones: Enfoque temporal

Series de tiempo con aplicaciones: Enfoque temporal Series de tiempo con aplicaciones: Enfoque temporal Gladys E. Salcedo E. 25o Simposio Internacional de Estadística Agosto 6,7 de 2015 Armenia, Quindío Datos 1: Series igualmente espaciadas Turbiedad 20

Más detalles

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES Departamento de Matemática Aplicada a las T.I.C. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EAMEN FINAL Otoño 25-6 FECHA: 5 de Enero de 26 Fecha publicación notas: 22 de Enero de 26 Fecha revisión

Más detalles

CURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García

CURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García INGENIEROS INDUSTRIALES Y DE TELECOMUNICACIONES CURSO CERO DE MATEMATICAS Apuntes elaborados por Domingo Pestana Galván y José Manuel Rodríguez García UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica

Más detalles

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con

Más detalles

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 2015 Contenido Procesos estacionarios y débilmente estacionarios Algunos procesos estocásticos útiles: Procesos puramente aleatorios (ruido

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

Espacios vectoriales

Espacios vectoriales CAPíTULO 2 Espacios vectoriales 1. Definición de espacio vectorial Es frecuente representar ciertas magnitudes físicas (velocidad, fuerza,...) mediante segmentos orientados o vectores. Dados dos de tales

Más detalles

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( ) MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una

Más detalles

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares). Capítulo 6 Espacios Vectoriales 6.1 Definiciones Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares). Definición 6.1.1 Se dice que

Más detalles

Procesos Estocásticos Estacionarios

Procesos Estocásticos Estacionarios Capítulo 2 Procesos Estocásticos Estacionarios Las series temporales se pueden clasificar en dos tipos: Series con valores estables alrededor de un nivel constante (capítulos 2-4). Series con tendencias,

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat

MACROECONOMETRÍA. Tema 2: Series temporales. Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M. Profesor: Genaro Sucarrat MACROECONOMETRÍA Tema 2: Series temporales Segundo Cuatrimestre (curso 2006/07), Depto. de Economía, UC3M Profesor: Genaro Sucarrat (Coordinador: Juan J. Dolado) Conceptos fundamentales: Esperanzas condicionales

Más detalles

Anuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales.

Anuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales. Anuladores Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales. Requisitos. Espacio dual, espacio bidual, base dual.. Definición (anulador de un subconjunto de un espacio

Más detalles

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos

Más detalles

Modelos Arma y método Box & Jenkins

Modelos Arma y método Box & Jenkins Modelos Arma y método Box & Jenkins Alumno: Aldo Fournies Pallavicini. Profesor: Humberto Villalobos. 17/07/2013 Índice. Introducción... 3 Conceptos Básicos... 4 Modelos de autoregresión.... 5 Modelo AR(p)...

Más detalles

Diagonalización de matrices

Diagonalización de matrices 7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,

Más detalles

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina

Más Allá del Modelo de Regresión Lineal. Dante A. Urbina Más Allá del Modelo de Regresión Lineal Dante A. Urbina CONTENIDOS 1. Modelos de Regresión No Lineales 2. Modelos de Respuesta Cualitativa 3. Datos de Panel 4. Modelos Autorregresivos y de Rezagos 5. Modelos

Más detalles

UNIDAD 1 NUMEROS COMPLEJOS

UNIDAD 1 NUMEROS COMPLEJOS UNIDAD 1 NUMEROS COMPLEJOS El conjunto de los números complejos fue creado para poder resolver algunos problemas matemáticos que no tienen solución dentro del conjunto de los números reales. Por ejemplo

Más detalles

Predicción. Capítulo Predictores lineales

Predicción. Capítulo Predictores lineales Capítulo 6 Predicción 6.1. Predictores lineales Consideramos ahora el problema de predecir los valores X n+h, h > 0 de una serie de tiempo estacionaria con media µ función de autocovarianza γ conocidas,

Más detalles

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas PROPUESTA A 1A a) Calcula el valor de a R, a > 0, para que la función sea continua en x = 0. b) Calcula el límite 2A. Calcula las siguientes integrales (1 25 puntos por cada integral) Observación: El cambio

Más detalles

Econometría 2. Modelos no estacionarios y contrastes de raíz unitaria = 0 8. (0 4) 1 +, (0 2 ), y valores críticos

Econometría 2. Modelos no estacionarios y contrastes de raíz unitaria = 0 8. (0 4) 1 +, (0 2 ), y valores críticos Econometría 2 Modelos no estacionarios y contrastes de raíz unitaria 1. Cuál de las siguientes afirmaciones es verdadera? (a) Un proceso I(1) es un camino aleatorio; (b) Un camino aleatorio es un ruido

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales 1 Definiciones Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de expresiones de la forma: a 11 x 1 + a 12 x 2 + + a 1n x n = a 21 x 1 + a 22 x 2 + +

Más detalles

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo.

SERIES DE TIEMPO. Definición 2 : Es una sucesión de observaciones generadas por un proceso estocástico indizado con relación al tiempo. SERIES DE TIEMPO 1 Serie de Tiempo En los capítulos anteriores mostramos que el análisis de regresión con datos de series de tiempo viola el supuestos de exogeneidad estricta. En este capítulo pretendemos

Más detalles

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Ejercicio Determinar las funciones enteras f para las que Solución f( + w) = f()f(w), w C. En primer lugar, f(0) = f(0 + 0) = f(0)f(0) = f(0) 2,

Más detalles

2. El conjunto de los números complejos

2. El conjunto de los números complejos Números complejos 1 Introducción El nacimiento de los números complejos se debió a la necesidad de dar solución a un problema: no todas las ecuaciones polinómicas poseen una solución real El ejemplo más

Más detalles

Econometría II - examen (SOLUCION)

Econometría II - examen (SOLUCION) Econometría II - examen (SOLUCION) 4 de septiembre de 2006 Nombre y Apellidos: ID: Grupo: Lea cuidadosamente cada pregunta Responda muy claramente dentro del espacio asignado El valor de cada pregunta

Más detalles

ECUACIONES POLINÓMICAS CON UNA INCÓGNITA

ECUACIONES POLINÓMICAS CON UNA INCÓGNITA Unidad didáctica. Ecuaciones, inecuaciones y sistemas de ecuaciones e inecuaciones ECUACIONES POLINÓMICAS CON UNA INCÓGNITA Las ecuaciones polinómicas son aquellas equivalentes a una ecuación cuyo primer

Más detalles

TEMA 8 REGRESIÓN Y CORRELACIÓN

TEMA 8 REGRESIÓN Y CORRELACIÓN /7 TEMA 8 REGRESIÓN Y CORRELACIÓN Dada una variable aleatoria bidimensional (, ) supongamos que las variables no sean independientes, es decir, que eista cierta relación entre ellas. Nos planteamos entonces

Más detalles

Continuidad y monotonía

Continuidad y monotonía Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados

Más detalles

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2. Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané

Más detalles

La transformada de Laplace

La transformada de Laplace Capítulo 5 La transformada de Laplace 5.. Funciones continuas a trozos. Función de Heaviside Definición 5. Dados R, con. Diremos que :[ ] C es una función continuaatrozos Existe una partición del intervalo

Más detalles

Formas canónicas de Jordan

Formas canónicas de Jordan Capítulo 6 Formas canónicas de Jordan 61 Subespacios propios generalizados Introducción En el capítulo anterior se han estudiado los endomorfismos diagonalizables y se han dado condiciones necesarias y

Más detalles

1. Matrices. Operaciones con matrices

1. Matrices. Operaciones con matrices REPASO MUY BÁSICO DE MATRICES. Matrices. Operaciones con matrices.. Introducción Las matrices aparecieron por primera vez hacia el año 850, introducidas por el inglés J. J. Sylvester. Su desarrollo se

Más detalles

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1 Espacios Vectoriales 201 6Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Espacios Vectoriales... 4 1.1 Definición de espacio vectorial... 4 1.2 Definición de subespacio vectorial...

Más detalles

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1 Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta B 1. a) Despeja la matriz X en la siguiente ecuación

Más detalles

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 2011 2012) 2. Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí.

Más detalles

2. Hallar las soluciones enteras de la ecuación. x 4 + y 4 = 3x 3 y.

2. Hallar las soluciones enteras de la ecuación. x 4 + y 4 = 3x 3 y. Sesión 1. Se considera un polígono regular de 90 vértices, numerados del 1 al 90 de manera aleatoria. Probar que siempre podemos encontrar dos vértices consecutivos cuyo producto es mayor o igual que 014.

Más detalles

CAPITULO 8. LA TRANSFORMADA DE LAPLACE La transformada de Laplace

CAPITULO 8. LA TRANSFORMADA DE LAPLACE La transformada de Laplace CAPITULO 8. LA TRANSFORMADA DE LAPLACE 8.1. La transformada de Laplace Definición 1.Sea f (t) una función definida para t 0. Se define la transformada de Laplace de f (t) de la forma, - s es un parámetro

Más detalles

Funciones convexas Definición de función convexa. Tema 7

Funciones convexas Definición de función convexa. Tema 7 Tema 7 Funciones convexas Los resultados obtenidos en el desarrollo del cálculo diferencial nos permiten estudiar con facilidad una importante familia de funciones definidas en intervalos, las funciones

Más detalles

Series Temporales. Teresa Villagarcía

Series Temporales. Teresa Villagarcía Series Temporales Teresa Villagarcía 1 1. Introducción. El estudio de series temporales tiene por objeto analizar la evolución de una variable a través del tiempo. La diferencia esencial entre las series

Más detalles

Econometria de Series Temporales

Econometria de Series Temporales Econometria de Series Temporales Walter Sosa Escudero wsosa@udesa.edu.ar Universidad de San Andr es 1 Introduccion >Porque series temporales? ² Inhabilidad de la economia de producir experimentos controlados

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

ECUACIONES Y SISTEMAS EN DIFERENCIAS

ECUACIONES Y SISTEMAS EN DIFERENCIAS Tema 9 ECUACIONES Y SISTEMAS EN DIFERENCIAS 9.1. Introducción En ocasiones, al construir un modelo matemático interesa elegir una variable que tome valores discretos. Así ocurre, por ejemplo, con el tiempo,

Más detalles

electromagnética. tica. Ondas electromagnéticas ticas Física Avanzada Universidad de Vigo. Departamento de Física Aplicada

electromagnética. tica. Ondas electromagnéticas ticas Física Avanzada Universidad de Vigo. Departamento de Física Aplicada 2. Leyes básicas b de la teoría electromagnética. tica. Ondas electromagnéticas ticas 1 2. Leyes básicas de la teoría electromagnética. Ondas electromagnéticas. 2 Las ecuaciones de Maxwell en el espacio

Más detalles

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial

Más detalles

Reglas de derivación Sumas, productos y cocientes. Tema 4

Reglas de derivación Sumas, productos y cocientes. Tema 4 Tema 4 Reglas de derivación Aclarado el concepto de derivada, su significado analítico y sus interpretaciones geométrica y física, pasamos a desarrollar las reglas básicas para el cálculo de derivadas

Más detalles

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de: Procesos Estocásticos Procesos Estocásticos Referencias: Capítulo 8 de Introducción a los Sistemas de Comunicación. Stremler, C.G. (993 Estadísticos de un proceso estocástico Apuntes de la Universidad

Más detalles

ÁLGEBRA II (LSI PI) UNIDAD Nº 2 GEOMETRÍA ANALÍTICA. Facultad de Ciencias Exactas y Tecnologías UNIVERSIDAD NACIONAL DE SANTIAGO DEL ESTERO

ÁLGEBRA II (LSI PI) UNIDAD Nº 2 GEOMETRÍA ANALÍTICA. Facultad de Ciencias Exactas y Tecnologías UNIVERSIDAD NACIONAL DE SANTIAGO DEL ESTERO 17 ÁLGEBRA II (LSI PI) UNIDAD Nº GEOMETRÍA ANALÍTICA Facultad de Ciencias Exactas y Tecnologías aa Error! No hay texto con el estilo especificado en el documento. 1 UNIVERSIDAD NACIONAL DE SANTIAGO DEL

Más detalles

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. Tema 1: Matrices El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. 1. Terminología Comenzamos con la definición de matriz

Más detalles