Modelos ARMA. Francisco J. González Serrano. Universidad Carlos III de Madrid

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Modelos ARMA. Francisco J. González Serrano. Universidad Carlos III de Madrid"

Transcripción

1 PREDICCIÓN DE SEÑALES Modelos ARMA Francisco J. González Serrano Universidad Carlos III de Madrid

2 Modelos ARMA En este capítulo nos centramos en la familia de los procesos estacionarios ARMA (AutoRegressive Moving Average). La importancia de estas técnicas paramétricas radica en su flexibilidad. Existe un gran número de funciones de autocovarianza γ( ) que pueden aproximarse por la de procesos ARMA. Procesos ARMA(p, q) Definición: {X t } es un proceso ARMA(p, q) si {X t } es estacionario y si para cada t X t φ 1 X t 1 φ p X t p = Z t + θ 1 Z t θ q Z t q, (1) {Z t } WN(0, σ 2 ). {X t } es un proceso ARMA(p, q) con media µ si {X t µ} es un proceso ARMA(p, q). Notación (más compacta) para describir estos procesos: φ(b)x t = θ(b)z t (2) φ( ) y θ( ) son dos polinomios de órdenes p y q. B es el operador desplazamiento. F. González 1

3 Propiedades procesos ARMA(p, q) Existencia y unicidad: Para que exista una solución estacionaria {X t } que satisfaga φ(b)x t = θ(b)z t, (3) φ(z) = 1 φ 1 z φ 2 z 2 φ p z p 0, z = 1. Causalidad Un proceso es causal si existen constantes {ψ j } tal que X t = ψ j Z t j, t. (4) j=0 y j=0 ψ j < (estabilidad). La propiedad de causalidad es equivalente a la condición φ(z) = 1 φ 1 z φ 2 z 2 φ p z p 0, z 1, F. González 2

4 La secuencia {ψ j } está determinada por la relación ψ(z) = j=0 ψ jz j = θ(z) φ(z) (1 φ 1 z φ p z p )(ψ 0 + ψ 1 z + ) = 1 + θ 1 z + + θ q z q Si se relacionan los coeficientes asociados a las potencias z j, se puede escribir que p ψ j φ k ψ j k = θ j, j = 0, 1,... (5) verificándose que θ 0 = 1, θ j = 0 para j > q y ψ j = 0 para j < 0. k=1 F. González 3

5 Función de autocorrelación de procesos ARMA Proceso causal ARMA(p, q) definido por: φ(b)x t = θ(b)z t, con {Z t } WN(0, σ 2 ). (6) Método 1. La condición de causalidad X t = implica que el cociente θ(z)/φ(z), se puede desarrollar como θ(z) φ(z) = ψ j Z t j, para z 1. obteniéndose finalmente que j=0 ψ j Z t j, t. (7) j=0 γ(h) = E(X t+h X t ) = σ 2 j=0 ψ j ψ j+ h. (8) F. González 4

6 ACVF. Ejemplo Consideremos el proceso y φ < 1. Su ACVF viene dada por y X t φx t 1 = Z t + θz t 1, con {Z t } WN(0, σ 2 ) (9) γ(0) = σ 2 γ(1) = σ 2 j=0 = σ 2 [ 1 + j=0 ψj 2 = σ (θ + φ) 2 ] (θ + φ)2 1 φ 2 ψ j+1 ψ j = σ 2 [ θ + φ +, ] (θ + φ)2 1 φ 2 γ(h) = φ h 1 γ(1), h 2., φ 2j j=0 F. González 5

7 Función de autocovarianza Método 2. A partir de X t φ 1 X t 1 φ p X t p = Z t + θ 1 Z t θ q Z t q, (10) puede deducirse que los procesos {Z t } y {X t k } guardan relaciones de dependencia estadística únicamente cuando k < p. Si se expresa X t = n=0 ψ nz t n, entonces, E [Z t X t k ] = ψ n E [Z t Z t k n ] k < p. Como el proceso {Z t } es WN(0, σ 2 ), E [Z t Z t k n ] = σ 2 δ n+k n=0 E [Z t X t k ] = σ 2 n=0 ψ n δ n+k = σ 2 ψ k. (11) Si se multiplican los dos extremos de φ(b)x t = θ(b)z t por X t k, k = 0, 1,... y se calcula F. González 6

8 la esperanza matemática, γ(k) φ 1 γ(k 1)... φ p γ(k p) = σ 2 j=0 θ k+j ψ j, 0 k < m γ(k) φ 1 γ(k 1)... φ p γ(k p) = 0, k m, donde m = máx(p, q + 1), ψ j = 0 para j < 0, θ 0 = 1 y θ j = 0 para j {0,..., q} (12a) (12b) F. González 7

9 Función de autocovarianza. Ejemplo Consideremos el proceso ARMA(1, 1) X t φx t 1 = Z t + θz t 1, con {Z t } WN(0, σ 2 ) (13) y φ < 1. La Ecuación γ(k) φ 1 γ(k 1)... φ p γ(k p) = σ 2 se puede plantear como j=0 θ k+j ψ j, 0 k < m (14) γ(0) φγ( 1) = γ(0) φγ(1) = σ 2 (1 + θ(θ + φ)) (15a) y γ(1) φγ(0) = σ 2 θ. (15b) La resolución del par de ecuaciones anterior proporciona los valores γ(0) y γ(1). Finalmente, la Ecuación (homogénea) γ(k) φ 1 γ(k 1)... φ p γ(k p) = 0, k m, (16) F. González 8

10 responde a la expresión cuya solución es γ(k) φγ(k 1) = 0, k 2 (17) γ(h) = φ h 1 γ(1), h 1 F. González 9

11 La función de autocorrelación (parcial) Recordemos que la función de autocorrelación (AutoCorrelation Function, ACF), ρ( ), de un proceso ARMA se define como ρ(h) = γ(h) γ(0) y que su versión muestral, es decir, aquella obtenida a partir de un conjunto finito de observaciones {x 1,..., x n } se representa por ˆρ(h) = ˆγ(h) ˆγ(0) La función de autocorrelación parcial (Partial AutoCorrelation Function, PACF), α( ), de un proceso ARMA {X t } se define por α(0) = 1 y α(h) = φ hh, h 1 F. González 10

12 donde φ hh es la última componente de con φ h = Γ 1 h γ h, (18) Γ h = [γ(i j)] h i,j=1 y γ h = [γ(1), γ(2),..., γ(h)] T. F. González 11

13 PACF de un proceso AR(p) La PACF de un proceso AR(p) es cero para h > p. Demo: El mejor predictor lineal del proceso causal AR(p) X t φ 1 X t 1 φ p X t p = Z t, {Z t } WN(0, σ 2 ), en función de X 1,..., X h, siendo h p, es ˆX h+1 = φ 1 X h + φ 2 X h φ p X h+1 p. Cuando h = p, φ hh (X 1 ) es φ p y cuando h > p, φ hh = 0. Por tanto, y α(p) = φ p α(h) = 0 para h > p Para los valores h < p, el cálculo de los valores α(h) se obtiene de φ h = Γ 1 h γ h, (19) F. González 12

14 PACF de un proceso MA(q) Proceso MA(q) X t = Z t + θ 1 Z t θ q Z t q, con {Z t } WN(0, σ 2 ) (20) La función de autocovarianza (ACVF) responde a la expresión: { σ γ(h) = 2 q h j=0 θ jθ j+ h, si h q, 0, si h > q donde se ha supuesto que θ 0 = 1. La ACVF de los procesos MA(q) se desvanece a partir del instante q. Supongamos ahora que q = 1 y γ(0) = σ ( ) θ1 2 γ(1) = σ 2 θ 1 A partir de φ h = Γ 1 h γ h, (22) se pueden calcular la PACF sin más que hacer α(h) = φ h (h). F. González 13 (21)

15 Para h = 0, α(0) = 1. Para h = 1, Para h = 2 resulta, γ(0)φ 1 (1) = γ(1). (23) α(1) = φ 1 (1) = γ(1) γ(0) = θ θ 2 1 [ γ(0) γ(1) γ(1) γ(0) ] [ φ2 (1) φ 2 (2) ] = [ γ(1) 0. (24) ], (25) donde se ha tenido en cuenta que γ(h) = 0 para h > 1 (proceso MA(1)). Por tanto, En general, la PACF en la muestra h vale γ 2 (1) α(2) = γ 2 (0) γ 2 (1) = θ θ1 2 + θ4 1. (26) α(h) = φ h (h) = ( θ 1 ) h 1 + θ θ2h 1 (27) F. González 14

16 La PACF muestral Si {X t } es una serie AR(p). La PACF obtenida a partir de los valores observados {x 1,..., x n } tiene que reflejar las propiedades intrísecas de la PACF. En particular, si la PACF muestral presenta valores significativamente diferentes de cero para el intervalo 0 h p y despreciables para h > p, el modelo AR(p) resulta adecuado. F. González 15

17 Ejemplos. Gasolinera Descuadres diarios en la medida de la capacidad de un tanque de una gasolinera de Colorado Galones Días Si la cantidad de combustible almacenado en el tanque al final del día t es y t, si a t representa la diferencia entre la cantidad dispensada y la medida reflejada en el surtidor, F. González 16

18 entonces, el descuadre x t se define como x t = y t y t 1 + a t. En ausencia de errores en la medida de la capacidad y de fugas, x t = 0. En la práctica, estos errores de medida permiten considerar a las cantidades anteriores como variables aleatorias: Y t, A t, X t, con t = 1,..., 57. Función de autocorrelación (ACF) ACF Muestra Se ha supuesto un modelo MA(1) para dibujar los límites ±1,96n 1/2 (1 + 2ˆρ 2 (1)) 1/2 (n = 57). ˆρ(h) permanece dentro de los límites anteriores para h > 1, lo cual es compatible con el F. González 17

19 modelo X t = µ + Z t + θz t 1, {Z t } WN(0, σ 2 ). (28) Para estimar la media del descuadre utilizamos el promedio temporal x 57 = 4,035. Para los parámetros θ, σ 2 utilizaremos la versión muestral de la función de autocovarianza (ACVF): (1 + θ 2 )σ 2 = ˆγ(0) = 3415,72 θσ 2 = ˆγ(1) = 1719,95 La solución (aproximada) del sistema anterior es θ = 1 y σ 2 = 1708, con lo cual resulta el modelo MA(1): X t = 4,035 + Z t Z t 1, {Z t } WN(0, 1708). F. González 18

20 Manchas solares Serie correspondientes al número de manchas solares S 1,..., S 100 aparecidas en el periodo Numero de manchas solares Años Función de autocorrelación parcial (PACF) muestral. Se representan los límites ±1,96/ 100. Como α(h) ±1,96/ 100, h > 2, aplicamos modelo AR(2): X t φ 1 X t 1 φ 2 X t 2 = Z t, {Z t } WN(0, σ 2 ). (29) donde X t = S t 46,93 F. González 19

21 PACF Muestra Una forma sencilla de ajustar este modelo a los datos consiste en hacer que coincidan los valores de la autocovarianza muestral en las muestras 0, 1 y 2 con los del modelo AR(2). Multiplicando cada lado de la ecuación X t φ 1 X t 1 φ p X t p = Z t por X t k y tomando la esperanza matemática, se obtienen las ecuaciones de Yule-Walker Γ p φ = γ p (30) y σ 2 = γ(0) φ T γ p (31) F. González 20

22 donde Γ p es la matriz de autocovarianza [γ(i j)] p i,j=1 y γ p = (γ(1),..., γ(p)) T. Para el caso p = 2 resulta γ(0) = γ(1)φ 1 + γ(2)φ 2 + σ 2 γ(0)φ 1 + γ(1)φ 2 = γ(1) γ(1)φ 1 + γ(0)φ 2 = γ(2) sustituyendo γ(k) por ˆγ(k), donde ˆγ(0) = 1382,2, ˆγ(1) = 1114,4 ˆγ(2) = 591,73, resulta: 1382,2 = 1114,4φ ,73φ 2 + σ ,2φ ,4φ 2 = 1114,4 1114,4φ ,2φ 2 = 591,73 Finalmente, el modelo AR(2) responde a la expresión X t 1,3175X t 1 + 0,6342X t 2 = Z t, con {Z t } WN(0, 289,179). (32) F. González 21

23 Predicción de procesos ARMA Algoritmo de innovaciones: permite predecir procesos de segundo orden (y media 0) sin que éstos tengan que ser necesariamente estacionarios. Simplificación cuando se aplica a procesos ARMA(p, q) causales φ(d)x t = θ(d)z t, con {Z t } WN(0, σ 2 ). Idea: aplicar el procedimiento sobre el proceso transformado W t = 1 σ X t, t = 1,..., m W t = 1 σ φ(d)x t, t > m (33) donde m = máx(p, q) (34) {W t } es un proceso MA para t > m. Función de autocovarianza de longitud finita. Simplificación algoritmo de innovaciones. Se ha expresado cada X n, n 1, como una combinación lineal de W j, con 1 j n, y viceversa. F. González 22

24 Si se conoce la función de autocovarianza de {X t }, las covarianzas κ(i, j) = E(W i, W j ) son: γ X (i j)/σ 2, 1 i, j m 1 κ(i, j) = σ [γ X(i j) p 2 r=1 φ rγ X (r i j )], mín(i, j) m, m < máx(i, j) 2m q r=0 θ rθ r+ i j, mín(i, j) > m 0, en otro caso. (35) F. González 23

25 Aplicando el algoritmo de innovaciones a {W t } resulta Ŵ n+1 = n j=1 ϑ nj Ŵ n+1 = q j=1 ϑ nj ϑ nj = 0, para n m y para j > q ɛ n = E(W n+1 Ŵn+1) 2 ( ) W n+1 j Ŵn+1 j, 1 n < m ( ) W n+1 j Ŵn+1 j, n m Propiedad: el mejor predictor lineal de una variable aleatoria Y, P n Y, en función de {X 1,, X n, 1}, es el mismo que si expresamos Y en función de {W 1,, W n, 1}. (36) Ŵ n+1 = P n W n+1, ˆX n+1 = P n X n+1 Como P n es un operador lineal, y como W t = 1 σ X t, t = 1,..., m W t = 1 σ φ(d)x t, t > m es una combinación lineal de X t, resulta que Ŵ t = 1 σ ˆX t, 1 t m Ŵ t = 1 [ ] ˆXt φ 1 X t 1 φ p X t p, t > m σ (37) (38) F. González 24

26 Teniendo en cuenta que se obtiene y X t ˆX t = σ [ ] W t Ŵt t 1 (39) n j=1 ˆX n+1 = ϑ nj (X n+1 j ˆX ) n+1 j, 1 n < m φ 1 X n + + φ p X n+1 p + q j=1 ϑ nj (X n+1 j ˆX ) n+1 j, n m E(X n+1 ˆX n+1 ) 2 = σ 2 E(W n+1 Ŵn+1) 2 = σ 2 ɛ n (41) (40) F. González 25

27 Predicción de procesos ARMA. Ejemplo Consideremos el proceso ARMA(1,1) donde φ < 1. X t φx t 1 = Z t + θz t 1, con {Z t } WN(0, σ 2 ). (42) En este caso, ˆXn+1 = φx n + θ n1 ( X n ˆX n ), n 1. F. González 26

28 Para calcular θ n1 es necesario obtener previamente la ACVF y γ(0) = σ 2 ψj 2 j=0 = σ (θ + φ) 2 γ(1) = σ 2 = σ 2 [ 1 + j=0 (θ + φ)2 1 φ 2 ψ j+1 ψ j = σ 2 [ θ + φ + φ 2j j=0 ] [ ] 1 + 2θφ + θ = σ 2 2 ] (θ + φ)2 1 φ 2 γ(h) = φ h 1 γ(1), h 2., 1 φ 2, F. González 27

29 Introduciendo estas expresiones en la ecuación resulta γ X (i j)/σ 2, 1 i, j m 1 κ(i, j) = σ [γ X(i j) p 2 r=1 φ rγ X (r i j )], mín(i, j) m m < máx(i, j) 2m q r=0 θ rθ r+ i j, mín(i, j) > m 0, en otro caso. κ(i, j) = 1 + 2θφ + θ 2, i = j = 1 1 φ θ 2, i = j 2 θ, i j = 1, i 1 0, en otro caso. Con estos valores, el algoritmo de innovaciones se reduce a (43) (44) 1 + 2θφ + θ2 ɛ 0 = (45a) 1 φ 2 θ n1 = θ (, ɛ n = 1 + θ ) (45b) ɛ n 1 ɛ n 1 A partir de las ecuaciones anteriores se puede observar que ɛ n 1 y, como consecuencia, que θ n1 θ F. González 28

30 Ilustración: predicción del proceso ARMA(1,1): X t 0,5X t 1 = Z t + 0,2Z t 1, con {Z t } WN(0, σ 2 ). (46) La matriz de covarianzas [κ(i, j)] viene dada por: κ = 1,6533 0, ,2000 1,0400 0, ,2000 1,0400 0, ,2000 1,0400 0, ,2000 1,0400 0,2000 Algoritmo de innovaciones proporciona los valores.. n X n+1 ɛ n θ n1 ˆXn (47) F. González 29

31 Estimación de parámetros del modelo ARMA Analizaremos cuatro técnicas que permiten hacer una estimación preliminar de los parámetros φ = (φ 1,..., φ p ) T, θ = (θ 1,..., θ q ) T y σ 2 a partir de las observaciones x 1,..., x n de un proceso ARMA(p, q) causal definido por 1. Estimación de Yule-Walker: AR. 2. Algoritmo de Burg: AR. 3. Algoritmo de innovaciones: ARMA. 4. Algoritmo Hannan-Rissanen: ARMA. φ(d)x t = θ(d)z t, con {Z t } WN(0, σ 2 ). (48) F. González 30

32 Estimación de Yule-Walker Se utiliza para ajustar modelos autorregresivos puros. Puede adaptarse a modelos con q > 0, aunque sus prestaciones son peores que las alcanzadas cuando q = 0. La condición de causalidad permite expresar el proceso X t en la forma X t = ψ j Z t j (49) donde ψ j Ψ(z) = 1 Φ(z). Multiplicando cada lado de la igualdad por X t j y calculando la esperanza matemática se obtienen las conocidas ecuaciones de Yule-Walker: j=0 Γ p φ = γ p y σ 2 = γ(0) φ T γ p donde Γ p = [γ(i j)] p i,j=1 y γp = (γ(1),..., γ(p)) T. (50a) (50b) F. González 31

33 La versión muestral de las ecuaciones anteriores es y donde ˆφ = ˆσ 2 = ˆγ(0) ˆR 1 p ˆρ p (51a) [ 1 ˆρ T p ] 1 ˆR p ˆρ p ˆρ p = (ˆρ(1),..., ˆρ(p)) T = 1 ˆγ(0) ˆγ p (51b) (51c) F. González 32

34 Estimación de Yule-Walker AR(p) La distribución de los estimadores de Yule-Walker: ˆφ N(φ, 1 n σ2 Γ 1 p ). (52) [ ] ˆɛjj Por tanto φ pj ˆφ pj ± Φ 1 α/2, donde ˆɛ jj es el elemento j-ésimo de la diagonal de ˆɛ p ˆΓp, n con probabilidad (1 α). Selección del orden 1. Supongamos que φ(d)x t = Z t con {Z t } IID(0, σ 2 ). Si ajustamos un modelo AR(m) (m > p), ˆφ m = un modelo N(0, 1 n ). Elegir p como el valor entero m más pequeño para el que ˆφ kk < ±1,96/ n ˆR 1 m ˆρ m, entonces ˆφ mm (PACF) sigue F. González 33

35 2. Elegir p y φ p que minimizan el estadístico AICC AICC = 2 log ( L(φ p, S(φ p )/n) ) + donde L es la función de verosimilitud gaussiana L(φ, σ 2 ) = 1 (2πσ2 ) n ɛ 0 ɛ n 1 exp { 1 2σ 2 2(p + 1)n n p 2 n (X j ˆX } j (φ)) 2 j=1 ɛ j 1 (53), (54) y AICC = n log(2πσ 2 ) + n 1 j=0 S(φ) = σ 2 = 1 S(φ) (55) n n (X j ˆX j (φ)) 2 j=1 log(ɛ j ) + 1 nσ 2 n j=1 ɛ j 1 (56) (X j ˆX j (φ)) 2 ɛ j 1 + 2(p + 1) (57) (n p 2) F. González 34

36 Estimación de Yule-Walker AR(p). Ejemplo Índice Dow-Jones de industriales entre el 28 de agosto y el 18 de diciembre de Índice Dow Jones ACF Días (a) Muestra (b) Función de autocorrelación muestral: caída muy lenta. Sugerencia: aplicar una operación de diferenciado. La nueva serie Y t = (1 D)D t ya no presenta desviaciones apreciables del comportamiento estacionario. Valores muestrales de la función de autocovarianza: ˆγ(0) = 0,17992, ˆγ(1) = 0,0759, ˆγ(2) = 0,04885, etc. F. González 35

37 Índice Dow Jones diferenciado ACVF Días (a) Muestra (b) Aplicando estos valores al algoritmo de Levinson-Durbin resulta ˆφ 11 = ˆρ(1) = ˆγ(1) ˆγ(0) = 0,4219 ˆɛ 1 = ˆγ(0) [ 1 ˆρ 2 (1) ] = 0,1479 [ ˆφ 22 = ˆγ(2) ˆφ ] 11ˆγ(1) /ˆɛ 1 = 0,1138 ˆφ 22 = ˆφ 11 ˆφ 11 ˆφ22 = 0,3739 ˆɛ 2 = ˆɛ 1 [1 ˆφ ] 2 22 = 0,1460. Función de autocovarianza parcial (PACF) de la serie {Y t }. F. González 36

38 PACF Retardo Límites ±1,96/ 77 sugieren modelo AR(1). Corrección de la media: X t = (Y t 0,1336) Modelo para {X t } X t 0,4219X t 1 = Z t, con {Z t } WN(0, 0,1479). (58) Modelo para {Y t }: (Y t 0,1336) 0,4219 (Y t 1 0,1336) = Z t, con {Z t } WN(0, 0,1479). (59) F. González 37

39 Si suponemos que los datos realmente proceden de un modelo AR con p = 1, los intervalos de confianza del 95 % para el coeficiente autorrecurrente ˆφ 11 = 0,4219 es ɛ1 ˆφ 11 ± 1,96 (60) ˆγ(0)n 0,1479 0,4219 ± 1,96 = (0,2194, 0,6244) (61) (0,17992)77 F. González 38

40 Algoritmo de Burg El algoritmo de Yule-Walker calcula los coeficientes ˆφ p1,..., ˆφ pp con los que se construye el mejor predictor lineal de X p+1 en función de {X p,..., X 1 }; para ello ha de suponerse que los valores (verdaderos) de la función de autocorrelación de {X t } coinciden en la muestras 1,..., p con los de la muestral. El algoritmo de Burg estima los coeficientes de la PACF {φ 11, φ 22,...} minimizando sucesivamente las sumas de los errores de predicción de orden 1 hacia adelante y hacia atrás respecto de los coeficientes φ ii. A continuación se aclara el algoritmo. A partir de la observaciones {x 1,..., x n } de un proceso estacionario de media 0, X t, definimos: Error de predicción hacia adelante. e F i (t), t = i + 1,..., n y 0 i < n, es la diferencia entre x t y la mejor estima lineal de x t en función de los i términos precedentes. e F i (t) = x t ˆx F t = x t l (x t 1,..., x t i ) (62) Error de predicción hacia atrás. e B i (t), t = i + 1,..., n y 0 i < n, es la diferencia entre x t i y la mejor estima lineal de x t i en función de los i términos siguientes. e B i (t) = x t i ˆx B t i = x t i l (x t i+1,..., x t ) (63) F. González 39

41 Es fácil demostrar que estas secuencias de error satisfacen las recursiones e B 0 (t) = e F 0 (t) = x t (64a) e B i (t) = e B i 1(t 1) φ ii e F i 1(t) e F i (t) = e F i 1(t) φ ii e B i 1(t 1) (64b) (64c) Las estima de Burg ˆφ 11 se halla minimizando σ1 2 1 n [ = (e B 2(n 1) 1 (t)) 2 + (e F 1 (t)) 2] (65) t=2 respecto de φ 11. Es fácil demostrar que φ 11 satisface φ 11 = 2 n e F 0 (t)e B 0 (t 1), (66) d(1) donde d(1) = t=2 n ( n ( x 2 i + xi 1) 2 = (e F 0 (t)) 2 + (e B 0 (t 1)) 2). (67) i=2 Una vez calculado el valor ˆφ 11, se obtienen los valores numéricos de e B 1 (t), e F 1 (t) y σ 2 1. Sustituyéndolos en las expresiones (64) es posible obtener los errores para i = 2. Ahora, la i=2 F. González 40

42 minimización de conduce hacia el valor donde σ 2 2 = d(2) = 1 2(n 2) ˆφ 22 = 2 d(2) n [ (e B 2 (t)) 2 + (e F 2 (t)) 2] (68) t=3 n e F 1 (t)e B 1 (t 1), (69) t=3 ( 1 ˆφ ) 2 11 d(1) (e F 1 (2)) 2 (e B 1 (n)) 2. (70) El proceso anterior puede repetirse sucesivamente hasta obtener la estima P p X p+1 = φ p1 X p + + φ pp X 1 (71) donde los coeficientes φ pj se obtienen aplicando el algoritmo de Levinson-Durbin: φ p1 φ p 1,1 φ p 1,p 1. =. φ pp. (72) φ p,p 1 φ p 1,p 1 φ p 1,1 La distribución (para un número elevado de muestras) de los coeficientes proporcionados por el F. González 41

43 algoritmo de Burg es idéntica a la correspondiente a la estimación de Yule-Walker: ˆφ p N(φ, 1 n σ2 Γ p ) (73) Para concluir, a continuación se resume el algoritmo de Burg. n ( ) d(1) = x 2 i + x 2 i 1, (74) i=2 ˆφ ii = 2 n e F d(i) i 1(t)e B i 1(t 1), (75) t=i+1 ( d(i + 1) = 1 ˆφ ) 2 ii d(i) (e F i (i + 1)) 2 (e B i (n)) 2, (76) σi 2 1 [( = 1 2(n i) ˆφ ) ] 2 ii d(i) (77) F. González 42

44 Algoritmo de Burg: Ejemplo Ejemplo 0.1 Volvemos a considerar el índice (diferenciado y corregido en media) de Dow-Jones de industriales, aunque esta vez aplicaremos el algoritmo de Burg. El resultado es el modelo X t 0,4371X t 1 = Z t WN(0, 0,1423) (78) Nótese la pequeña diferencia respecto del modelo obtenido con el algoritmo de Yule-Walker. Como veremos más adelante, el modelo obtenido con el método de Burg tiene una mayor verosimilitud, lo cual quiere decir que minimiza el estadístico AICC. Los límites de confianza para el coeficiente φ son: 0,4371 ± 0,4371 = (0,2354, 0,6388). 2,1668 F. González 43

45 Algoritmo de Burg: Ejemplo Ejemplo 0.2 En este ejemplo consideramos el problema de ajustar un modelo a la serie correspondiente al nivel del lago Hurón sin haber eliminado previamente la tendencia; esta serie vuelve a mostrarse en la Figura Figura 1: Nivel del lago Hurón. F. González 44

46 Su función de autocorrelación (ACF) y la función de autocorrelación parcial (PACF) se muestran en las Figura 2. La PACF muestral indica que el modelo AR(2) se puede ajustar ACF 0.4 PACF Muestra (a) retardo (b) Figura 2: (a) Función de autocorrelación muestral. (b) Función de autocorrelación parcial. bien a los datos corregidos en media, X t = Y t 9,0041. Si se utiliza el algoritmo de Burg se obtiene el modelo X t 1,0449X t 1 + 0,2456X t 2 = Z t {Z t } WN(0, 0,4706) (79) F. González 45

47 siendo los límites del 95 % de confianza φ 1 : 1,0449 ± 1,0449 = (0,8559, 1,2339) 5,5295 φ 2 : 0,2456 ± 0,2456 = ( 0,4346, 0,0566). 1,2997 (80) Si hubiésemos utilizado el algoritmo de Yule-Walker, el resultado hubiera sido X t 1,0538X t 1 + 0,2668X t 2 = Z t {Z t } WN(0, 0,4920) (81) siendo los límites del 95 % de confianza φ 1 : 1,0538 ± 1,0538 = (0,8630, 1,2446) 5,5227 φ 2 : 0,2668 ± 0,2668 = ( 0,4576, 0,0760). 1,3980 (82) Al igual que en el ejemplo anterior, el modelo de Burg proporciona una varianza de ruido menor y una verosimilitud gaussiana mayor. F. González 46

48 Algoritmo de Innovaciones Lo mismo que se han utilizado modelos autorregresivos, también podemos utilizar el modelo de promedio móvil X t = Z t + ˆθ m1 Z t ˆθ mm Z t m {Z t } WN(0, ˆɛ m ) (83) cuyos parámetros θ mj y ɛ m se calculan con el algoritmo de innovaciones. Los límites de confianza de los parámetros ˆθ q = (ˆθm1,..., ˆθ mq ) T vienen determinados por ( j 1 ˆθ mj ± 1,96n 1/2 Para la selección del orden pueden seguirse las siguientes técnicas. i=0 θ 2 mi) 1/2. (84) Conocemos que para procesos MA(q), la función de autocorrelación ρ(m) es cero para m > q. Es más, conocemos por la fórmula de Bartlett que la función de autocorrelación muestral ˆρ(m), para m > q tiene una distibución normal de media ρ(m) = 0 y varianza n 1 [ 1 + 2ρ 2 (1) + + 2ρ 2 (q) ] F. González 47

49 Por tanto, y como receta práctica, consideraremos que los valores de la función de autocorrelación muestral son distintos de cero cuando sus valores absolutos superan el límite 1,96/ n. Para modelos AR, ressulta más sistemático encontrar el orden q y el vector de parámetros ˆθ q = (ˆθm1,..., ˆθ mq ) T que minimizan el estadístico AICC AICC = 2 log {L(θ q, S(θ q )/n)} + 2(q + 1)n/(n q 2), (85) donde L es la función de verosimilitud gaussiana. F. González 48

50 Algoritmo de Innovaciones cuando p, q > 0 La condición de causalidad asegura que se cumple X t = ψ j Z t j (86) donde los coeficientes ψ j satisfacen ψ j = θ j + mín(j,p) i=1 j=0 φ i ψ j i, j = 0, 1,... (87) y θ 0 = 1, θ j = 0 para j > q. Para estimar ψ 1,..., ψ p+q se pueden utilizar las estimas proporcionadas por el algoritmo de innovaciones, ˆθ m1,..., ˆθ m,p+q. Así, si se sustituye ψ j por ˆθ mj, se obtiene ˆθ mj = θ j + mín(j,p) i=1 φ iˆθm,j i, j = 1,..., p + q. (88) F. González 49

51 El vector de coeficiente ˆφ se obtiene a partir de la resolución de las últimas q ecuaciones anteriores: ˆθ m,q+1 ˆθ m,q ˆθm,q 1 ˆθm,q+1 p φ 1 ˆθ m,q+1. = ˆθ m,q+1 ˆθm,q ˆθm,q+2 p φ (89) ˆθ m,q+p ˆθ m,q+p 1 ˆθm,q+p 2 ˆθm,q φ p Una vez que se obtiene el vector ˆφ se procede a la estima de ˆθ: ˆθ j = ˆθ mj + mín(j,p) ˆφ iˆθm,j i, j = 1,..., q. (90) i=1 Para finalizar, la varianza del ruido se obtiene a partir de la ecuación ˆσ 2 = 1 n (X t ˆX ) 2 t (91) n ɛ t 1 t=1 F. González 50

52 Algoritmo Hannan-Rissanen La derivación del vector de coeficientes óptimo (en el sentido de minimización del error cuadrático medio) φ = (φ 1,..., φ p ) T en un modelo AR(p) es un problema lineal. Sin embargo, cuando q > 0, la estimación se vuelve no lineal. En efecto, para un modelo ARMA(p, q), no solo se realiza la regresión de X t sobre X t 1,..., X t p sino también sobre las cantidades (no observadas) Z t 1,..., Z t q. Para resolver este inconveniente, se propuso el algoritmo de Hannan-Risanen. 1. Elegir un modelo AR(m) con m > máx(p, q) y ajustarlo a los datos siguiendo el método de Yule-Walker. Definir los residuos estimados como con t = m + 1,..., n. Ẑ t = X t ˆφ m1 X t 1 ˆφ mm X t m (92) F. González 51

53 2. Estimar el vector de parámetros β = (φ T, θ T ) T a partir de la regresión lineal de X t sobre el vector (X t 1,..., X t p, Ẑt 1,..., Ẑt q). Este vector de parámetros, por tanto, debe minimizar n ( ) 2 S(β) = X t φ 1 X t 1 φ p X t p θ 1 Ẑ t 1 θ q Ẑ t q. (93) t=m+1 Este procedimiento proporciona el estimador de Hannan-Rissanen ˆβ = ( Z T Z ) 1 Z T X n (94) donde X n = (X m+1,..., X n ) T y X m X m 1 X m p+1 Ẑ m Ẑ m 1 Ẑ m q+1 X Z = m+1 X m X m p+2 Ẑ m+1 Ẑ m Ẑ m q X n 1 X n 2 X n p Ẑ n 1 Ẑ n 2 Ẑ n q La estima de la varianza del ruido blanco proporcionada por este método es ˆσ 2 HR = S(ˆβ) n m 3. (opcional) Utilizar la estima del vector de parámetros ˆβ = ( ˆφ 1,..., ˆφ p, ˆθ 1,..., ˆθ 1 ) T. (95) (96) F. González 52

54 para definir { 0, si t máx(p, q) Z t = X t p ˆφ j=1 j X t j q ˆθ j=1 j Zt j, si t > máx(p, q). A partir de esta nueva secuencia definimos las secuencias V t y W t como { 0, si t máx(p, q) Ṽ t = p ˆφ j=1 j V t j + Z t, si t > máx(p, q). (97) (98) W t = { 0, si t máx(p, q) q ˆθ j=1 j W t j + Z t, si t > máx(p, q). (Nótese que V t y W t satisfacen las recursiones AR ˆφ(D)V t = Z t y ˆθ(D)W t = Z t ). Si se realiza la regresión lineal de Z t sobre (V t 1,..., V t p, W t 1,..., W t p ) T (99) y el vector de parámetros que minimiza n S (β) = Zt p β j V t j q β k+p W t k 2 (100) t=max(p,q)+1 j=1 k=1 es ˆβ, la nueva estima del vector de parámetros β es ˆβ + ˆβ. F. González 53

55 Ejemplo 0.3 Si utilizamos un modelo ARMA(1,1) para ajustar la serie, corregida en media, correspondiente al nivel del lago Hurón, se obtiene el modelo X t 0,7234X t 1 = Z t + 0,3596Z t 1, con {Z t } WN(0, 0,4757) (101) Los intervalos de confianza para estos parámetros son φ : 0,7234 ± 0,7234 3,2064 θ : 0,3596 ± 0,3596 1,8513 = (0,4978, 0,9490) = (0,1654, 0,5538). (102) F. González 54

Predicción. Capítulo Predictores lineales

Predicción. Capítulo Predictores lineales Capítulo 6 Predicción 6.1. Predictores lineales Consideramos ahora el problema de predecir los valores X n+h, h > 0 de una serie de tiempo estacionaria con media µ función de autocovarianza γ conocidas,

Más detalles

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores

La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores Capítulo 4 Procesos ARMA 4.1. Modelos Autoregresivos La idea de estos modelos es que los valores actuales de la serie X t dependen de los p valores previos: X t 1,..., X t p. Definición 4.1 Un modelo autoregresivo

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

Procesos autorregresivos

Procesos autorregresivos Capítulo 3 Procesos autorregresivos Los procesos autorregresivos deben su nombre a la regresión y son los primeros procesos estacionarios que se estudiaron. Proceso autorregresivo: Un proceso autorregresivo

Más detalles

Tema 2: Modelos probabilísticos de series

Tema 2: Modelos probabilísticos de series Tema 2: Modelos probabilísticos de Tema 2: Modelos probabilísticos de 1 2 3 4 5 6 Definición Un proceso estocástico con conjunto de índices T es una colección de variables aleatorias {X t } t T sobre (Ω,

Más detalles

Regresión con errores autocorrelacionados

Regresión con errores autocorrelacionados Series de tiempo Gerardo Ortega Miguel Pluma Luis Osorio Johnatan García 09 de diciembre de 2013 Contenido 1 Introducción Idea intuitiva 2 Algoritmo 3 Propiedades de los estimadores 4 Estadístico de Durbin-Watson

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos ARMA Definición: Ruido blanco. Se dice que el proceso {ɛ t } es ruido blanco ( white noise ) si: E(ɛ t ) = 0 Var(ɛ t ) = E(ɛ 2 t ) = σ 2 Para todo

Más detalles

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA: Part III Modelos Box-Jenkins Bibliografía Bibliografía Brockwell, P.J. y Davis, R.A. (2002). Introduction to Time Series and Forecasting. 2 a edición. Springer. Cowpertwait, P.S.P. y Metcalfe, A.V. (2009).

Más detalles

Tema1. Modelo Lineal General.

Tema1. Modelo Lineal General. Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La

Más detalles

Predicción con modelos ARIMA

Predicción con modelos ARIMA Capítulo 7 Predicción con modelos ARIMA 7.1. INTRODUCCIÓN Información disponible: Observamos una realización y n = (y 1,...,y n ) de tamaño n de un proceso ARIMA(p, d, q). Objetivo: Predicción de valores

Más detalles

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1, Capítulo 5 Procesos Integrados Un proceso no estacionario puede no ser estable en la media, en la varianza o en las autocorrelaciones. Por ejemplo, las series 3, 5-13, 19, 29-31, 35-37, y 39 del Capítulo

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Procesos autorregresivos Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es un resumen/modificación de la documentación

Más detalles

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013 Estadística Miguel Ángel Chong R miguel@sigmaiimasunammx de abril del 03 Autorregresivos Diremos que un proceso {X t } tt es un autorregresivo de orden p, y lo denotaremos como AR(p), si para p unenteroy,,

Más detalles

Estadística Diplomado

Estadística Diplomado Diplomado HRB UNAM 1 / 25 1 Estimación Puntual Momentos Máxima Verosimiltud Propiedades 2 / 25 1 Estimación Puntual Momentos Máxima Verosimiltud Propiedades 2 Estimación por Intervalos Cantidades Pivotales

Más detalles

4.5 Algoritmo RLS (Recursive Least Squares)

4.5 Algoritmo RLS (Recursive Least Squares) 4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de

Más detalles

Conceptos básicos sobre Series de Tiempo

Conceptos básicos sobre Series de Tiempo Conceptos básicos sobre Series de Tiempo Jorge Hans Alayo Gamarra 27 de junio de 2014 En el presente reporte se presentan los conceptos básicos sobre series de tiempo. 1. Enfoque para modelar series de

Más detalles

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo.

Series de tiempo. Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Series de tiempo Introducción Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Una característica intrínseca muy importante de las series de tiempo,

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Septiembre 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe

Más detalles

Métodos Estadísticos para Economía y Gestión IN 540 Clase 7

Métodos Estadísticos para Economía y Gestión IN 540 Clase 7 Métodos Estadísticos para Economía y Gestión IN 540 Clase 7 Perturbaciones no Esféricas 17 de junio de 2010 1 Preliminares Matriz de Varianzas y Covarianzas cuando ɛ t es un AR(1) Naturaleza y causas de

Más detalles

Regresión Lineal Múltiple

Regresión Lineal Múltiple Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta

Más detalles

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

Regresión múltiple. Demostraciones. Elisa Mª Molanes López Regresión múltiple Demostraciones Elisa Mª Molanes López El modelo de regresión múltiple El modelo que se plantea en regresión múltiple es el siguiente: y i = β 0 + β 1 x 1i + β 2 x 2i +...+ β k x ki +

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre

Más detalles

Análisis de series temporales

Análisis de series temporales CAPíTULO 8 Análisis de series temporales Los datos estadísticos y, en particular, los datos económicos se recopilan a menudo en forma de series temporales. Una serie temporal es un conjunto ordenado de

Más detalles

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general

Más detalles

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES Departamento de Matemática Aplicada a las T.I.C. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EAMEN FINAL Otoño 25-6 FECHA: 5 de Enero de 26 Fecha publicación notas: 22 de Enero de 26 Fecha revisión

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Enero 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe que los

Más detalles

Tema 6. Análisis Factorial.

Tema 6. Análisis Factorial. Tema 6 Análisis Factorial El modelo Sea Y = (Y,, Y p ) t un vector aleatorio con vector de medias µ y matriz de covarianzas Σ Supondremos que existe un número entero m < p, una matriz L de orden p m de

Más detalles

Estadística para la Economía y la Gestión IN 3401

Estadística para la Economía y la Gestión IN 3401 Estadística para la Economía y la Gestión IN 3401 3 de junio de 2010 1 Modelo de Regresión con 2 Variables Método de Mínimos Cuadrados Ordinarios Supuestos detrás del método MCO Errores estándar de los

Más detalles

UNIVERSIDAD DE ATACAMA

UNIVERSIDAD DE ATACAMA UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA ESTADÍSTICA Y PROBABILIDAD GUÍA DE TRABAJO 3 Profesor: Hugo S. Salinas. Primer Semestre 2010 1. Sea X 1,..., X n una muestra aleatoria

Más detalles

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013

Series de tiempo. Miguel Ángel Chong R. 19 de marzo del 2013 Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 19 de marzo del 2013 Promedios moviles Definición Diremos que {X t } t2t es un proceso de media movil de orden q, y lo denotaremos como MA(q),

Más detalles

Herramientas para el Estudio de Mercado. Técnicas de Predicción.

Herramientas para el Estudio de Mercado. Técnicas de Predicción. Herramientas para el Estudio de Mercado Proyecciones Económicas Técnicas de Predicción. Profesor: Exaú Navarro Pérez Técnicas de Predicción. Introducción. Técnicas Elementales de Predicción. Modelo Econométrico.

Más detalles

ANALISIS FACTORIAL. Jorge Galbiati R.

ANALISIS FACTORIAL. Jorge Galbiati R. ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores

Más detalles

Procesos de media móvil y ARMA

Procesos de media móvil y ARMA Capítulo 5 Procesos de media móvil y ARMA Herman Wold (1908-1992) Estadístico y económetra sueco. Desarrolló la representacion general de procesos estacionarios y la metodología econométrica estudiando

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el

Más detalles

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contents 1 Mínimos Cuadrados en 2 Etapas 2 Mínimos Cuadrados en 2 Etapas El método de Mínimos Cuadrados

Más detalles

Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u

Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u CAPíTULO 6 Multicolinealidad 6.1. Introducción Uno de los supuestos básicos del modelo lineal general y = Xβ + u establece que las variables explicativas son linealmente independientes, es decir, la igualdad

Más detalles

Procesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid

Procesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid PREDICCIÓN DE SEÑALES Procesos Estacionarios Francisco J. González Serrano Universidad Carlos III de Madrid Procesos Estacionarios A la hora de hacer predicciones parece obvio suponer que algo debe permanecer

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Metodología Box-Jenkins Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es un resumen/modificación de la documentación elaborada

Más detalles

ANÁLISIS EN EL DOMINIO DEL TIEMPO

ANÁLISIS EN EL DOMINIO DEL TIEMPO Matemáticas y Estadística aplicada POLITÉCNICA ANÁLISIS EN EL DOMINIO DEL TIEMPO Indice de contenidos: INTRODUCCIÓN MODELOS DE SERIES TEMPORALES (Box-Jenkins, 1973): De Procesos estacionarios De Procesos

Más detalles

Macroeconometría ( ) Examen final

Macroeconometría ( ) Examen final Macroeconometría (2004 2005) Examen final Nikolas Müller-Plantenberg * 15 de junio de 2005 Nombre: Apellido: NIF: Instrucciones Por favor, no leer las preguntas antes de que la profesora lo indique. Hay

Más detalles

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud

Más detalles

Tema 10: Introducción a los problemas de Asociación y Correlación

Tema 10: Introducción a los problemas de Asociación y Correlación Tema 10: Introducción a los problemas de Asociación y Correlación Estadística 4 o Curso Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 10: Asociación y Correlación

Más detalles

Estadística I Tema 5: Introducción a la inferencia estadística

Estadística I Tema 5: Introducción a la inferencia estadística Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución

Más detalles

Modelos ARCH y GARCH

Modelos ARCH y GARCH Modelos y Roberto Cruz Oropesa Francisco Javier Rivera Miguel Ángel Sánchez Adán Uribe Bravo Diciembre 9, 2013 Series de Tiempo y Series Finacieras Series Financieras Hechos estilizados. Sea p t el precio

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

Econometría dinámica y financiera

Econometría dinámica y financiera Econometría dinámica y financiera Introducción a la econometría financiera. Modelos ARCH Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Introducción Los modelos que hemos visto son lineales

Más detalles

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA

MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA MODELOS DE SERIES TEMPORALES EN FINANZAS (I): MODELOS ARIMA Modelización Económica II Referencias: Mills y Markellos (2008) "The Econometric Modelling of Financial Time Series", Cambridge University Press.

Más detalles

Estimación Máxima Verosimilitud

Estimación Máxima Verosimilitud Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay

Más detalles

Modelos Box-Jenkins. Presentamos a continuación un ejemplo con datos reales en el que se hace uso de gran parte de lo expuesto hasta este momento.

Modelos Box-Jenkins. Presentamos a continuación un ejemplo con datos reales en el que se hace uso de gran parte de lo expuesto hasta este momento. : Presentamos a continuación un ejemplo con en el que se hace uso de gran parte de lo expuesto hasta este momento. La serie de tiempo que analizaremos se corresponde con la producción anual de tabaco en

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Tema 8: Regresión y Correlación

Tema 8: Regresión y Correlación Tema 8: Regresión y Correlación Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 8: Regresión y Correlación Curso 2008-2009 1 / 12 Índice

Más detalles

1. Mínimos Cuadrados. 05-Mínimos Cuadrados.doc 1

1. Mínimos Cuadrados. 05-Mínimos Cuadrados.doc 1 . Mínimos Cuadrados. Mínimos Cuadrados.. Introducción 2.2. Método de Mínimos Cuadrados 2... Forma Recursiva: 4..2. Inclusión del Factor de Olvido. 5.3. Características Estadísticas de la Estimación 8..3.

Más detalles

UNIVERSIDAD DE COSTA RICA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA

UNIVERSIDAD DE COSTA RICA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA UNIVERSIDAD DE COSTA RICA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA Tesis para optar al grado académico de Licenciatura en Ciencias Actuariales APLICACIÓN DE SERIES DE TIEMPO EN LA EVALUACIÓN DE REGÍMENES

Más detalles

Técnicas de Predicción Solución Examen Final

Técnicas de Predicción Solución Examen Final Técnicas de Predicción Solución Examen Final Administración y Dirección de Empresas 23 de Junio, 2008 Prof. Antoni Espasa Secciones 3h Nota: Todas las respuestas deben ser adecuadamente razonadas. Respuestas

Más detalles

Econometría II - examen (SOLUCION)

Econometría II - examen (SOLUCION) Econometría II - examen (SOLUCION) 4 de septiembre de 2006 Nombre y Apellidos: ID: Grupo: Lea cuidadosamente cada pregunta Responda muy claramente dentro del espacio asignado El valor de cada pregunta

Más detalles

Índice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero

Índice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero Clase 1 Introducción a la Econometría Profesor: Felipe Avilés Lucero 26 de mayo de 2010 1 Introducción 2 Economía y Estadística 3 Análisis de Regresión Función de Regresión Poblacional Función de Regresión

Más detalles

Estimación de Máxima Verosimilitud Utilizando la Función optim en R

Estimación de Máxima Verosimilitud Utilizando la Función optim en R Estimación de Máxima Verosimilitud Utilizando la Función optim en R Juan F. Olivares-Pacheco * 15 de diciembre de 2006 Resumen En este trabajo se muestra el método de verosimilitud para la estimación de

Más detalles

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA

Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Análisis Univariante mediante la metodología Box-Jenkins Análisis de la incertidumbre asociada a los modelos ARMA Técnicas en Predicción Administración y Dirección de Empresas Departamento de Estadísitica

Más detalles

Procesos autorregresivos

Procesos autorregresivos Capítulo 4 Procesos autorregresivos George Udny Yule (1871-1951) Estadístico escocés. Se graduó en ingeniería en University College y estudió despues física en Bonn con Hertz. A su vuelta al Reino Unido

Más detalles

Algoritmos Genéticos para la Construcción de Modelos Autorregresivos para Series de Tiempo y Funciones de Transferencia Discretas.

Algoritmos Genéticos para la Construcción de Modelos Autorregresivos para Series de Tiempo y Funciones de Transferencia Discretas. Algoritmos Genéticos para la Construcción de Modelos Autorregresivos para Series de Tiempo y Funciones de Transferencia Discretas. Dr. Pedro Flores Pérez EMNO 2013 Orígen del problema Entradas Salidas

Más detalles

Series económicas: Precios de divisas, tasas, índice de precios. Series Físicas: Meteorológica, temperatura, energia solar

Series económicas: Precios de divisas, tasas, índice de precios. Series Físicas: Meteorológica, temperatura, energia solar Introducción Una primera denición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas secuencialmente en el tiempo. Estas observaciones serán denotadas por {x t1, x t2,...,

Más detalles

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2 2015 Contenido Procesos estacionarios y débilmente estacionarios Algunos procesos estocásticos útiles: Procesos puramente aleatorios (ruido

Más detalles

Variables aleatorias. Utilizando el resultado anterior, vemos que

Variables aleatorias. Utilizando el resultado anterior, vemos que Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un

Más detalles

Econometria de Series Temporales

Econometria de Series Temporales Econometria de Series Temporales Walter Sosa Escudero wsosa@udesa.edu.ar Universidad de San Andr es 1 Introduccion >Porque series temporales? ² Inhabilidad de la economia de producir experimentos controlados

Más detalles

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1 . Diseño Óptimo en Función de Transferencia. Diseño Óptimo en Función de Transferencia.. Planteo del Problema.. Criterio de Optimización 3.. Predicción Óptima 4... Forma intuitiva 5... Caso General 5..3.

Más detalles

Seguimiento de los parámetros del modelo del tracto vocal

Seguimiento de los parámetros del modelo del tracto vocal Algoritmos para el seguimiento de los parámetros del modelo de tracto vocal Monografía de Tratamiento Estadístico de Señales parias@fing.edu.uy Instituto de Ingeniería Eléctrica Facultad de Ingeniería

Más detalles

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.

Más detalles

Regresión lineal simple

Regresión lineal simple Regresión lineal simple Unidad 1 Javier Santibáñez IIMAS, UNAM jsantibanez@sigma.iimas.unam.mx Semestre 2018-2 Javier Santibáñez (IIMAS, UNAM) Regresión simple Semestre 2018-2 1 / 62 Contenido 1 Planteamiento

Más detalles

Relación 3 de problemas

Relación 3 de problemas ESTADÍSTICA II Curso 2016/2017 Grado en Matemáticas Relación 3 de problemas 1. La Comunidad de Madrid evalúa anualmente a los alumnos de sexto de primaria de todos los colegios sobre varias materias. Con

Más detalles

Overfit, cross validation y bootstrap

Overfit, cross validation y bootstrap Universisad de San Andrés y CONICET Cueestiones preliminares Sea z n una sucesion de variables aleatorias escalares. Consideremos la siguiente sucesion z n = n i=1 z i n Ley de grandes numeros (Kolmogorov):

Más detalles

Tema 4. El Modelo de Regresión Lineal con Series Temporales.

Tema 4. El Modelo de Regresión Lineal con Series Temporales. Tema 4. El Modelo de Regresión Lineal con Series Temporales. En este tema, estudiaremos en detalle la estimación e inferencia del modelo de regresión con datos de series temporales. Dadas las diferencias

Más detalles

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos

Más detalles

Procesos Estocásticos Estacionarios

Procesos Estocásticos Estacionarios Capítulo 2 Procesos Estocásticos Estacionarios Las series temporales se pueden clasificar en dos tipos: Series con valores estables alrededor de un nivel constante (capítulos 2-4). Series con tendencias,

Más detalles

El Movimiento Browniano en la modelización del par EUR/USD

El Movimiento Browniano en la modelización del par EUR/USD MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés

Más detalles

Estadística II. Laura M. Castro Souto

Estadística II. Laura M. Castro Souto Estadística II Laura M. Castro Souto Segundo Cuatrimestre Curso 2000/2001 Modelos de Regresión Diferencias con el Diseño de Experimentos Los modelos de regresión estudian relaciones numéricas entre variables

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Econometría de series de tiempo aplicada a macroeconomía y finanzas Econometría de series de tiempo aplicada a macroeconomía y finanzas Series de Tiempo Estacionarias (Multivariadas) Carlos Capistrán Carmona ITAM 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación

Más detalles

Regresión Lineal. El modelo de regresión caracteriza la relación entre una variable respuesta que depende de k variables independientes o regresoras.

Regresión Lineal. El modelo de regresión caracteriza la relación entre una variable respuesta que depende de k variables independientes o regresoras. Regresión Lineal Los factores envueltos en la experimentación pueden ser de tipo cuantitativos o cualitativos Un factor cuantitativo es aquel que sus niveles pueden ser asociados con puntos dentro de una

Más detalles

Análisis Multivariante de Datos

Análisis Multivariante de Datos Análisis Multivariante de Datos Curso 2016-2017 Por qué es importante realizar inferencia sobre los parámetros de la normal? La estimación máximo-verosímil (MV) de la distribución Normal son la media y

Más detalles

Guía breve de análisis de series temporales unidimensionales con Gretl

Guía breve de análisis de series temporales unidimensionales con Gretl Guía breve de análisis de series temporales unidimensionales con Gretl 1. Pasos a seguir 1. Representación de la serie temporal (Variable Gráfico de series temporales). 2. Serie temporal no estacionaria

Más detalles

Estimación MCO, MCI en Modelos de Ecuaciones Simultáneas

Estimación MCO, MCI en Modelos de Ecuaciones Simultáneas Estimación MCO, MCI en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contents 1 Estimación MCO de la Forma Estructural 2 3 4 Estimador MCO de la FE Consideremos la -ésima ecuación

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos econométricos dinámicos uniecuacionales Introducción: Hemos estudiado modelos de tipo: y t = φ 0 + p i=1 φ iy t i + q j=0 θ jɛ t j y t = β x t +

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

MODELOS DE ECUACIONES SIMULTANEAS

MODELOS DE ECUACIONES SIMULTANEAS Universidad de Murcia Workshop Grupo de computación paralela 15 de Diciembre de 2010 1 Modelos de Ecuaciones Simultáneas. 2 3 4 Conceptos previos. La regresión lineal es un método matemático que modeliza

Más detalles

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como

Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como Nota: Las afirmaciones y los gráficos de este documento han sido extraídos de la obra cuya portada se reproduce abajo, para uso didáctico como complemento a los apuntes de una asignatura del Departamento

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

Capítulo 2. Métodos estadísticos Simulación estadística. Simulación univariante

Capítulo 2. Métodos estadísticos Simulación estadística. Simulación univariante Capítulo 2 Métodos estadísticos 21 Simulación estadística La simulación estadística consiste en generar realizaciones de variables aleatorias que siguen unas distribuciones concretas Si esas variables

Más detalles

Estimación por intervalos

Estimación por intervalos Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto

Más detalles

Part I. Descripción estadística de dos variables. Estadística I. Mario Francisco. Variable. bidimensional. Distribuciones de frecuencias

Part I. Descripción estadística de dos variables. Estadística I. Mario Francisco. Variable. bidimensional. Distribuciones de frecuencias Part I Descripción de dos variables Introducción Si para un mismo individuo observamos simultáneamente k obtendremos como resultado una variable k-dimensional. Nos ocuparemos del estudio de las variables

Más detalles

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos TEMA 10 (curso anterior): REGRESIÓN Y CORRELACIÓN 1 Conceptos de Regresión y Correlación 2 Variables aleatorias bidimensionales 3 Ajuste de una recta a una nube de puntos 4 El modelo de la correlación

Más detalles

Interpolación Numérica

Interpolación Numérica Interpolación Numérica Contenido Interpolación Numérica Polinomio Único de Interpolación Polinomio de Interpolación de Lagrange (Método de Ordenadas) Método de Newton (Interpolación Polinomial forma de

Más detalles

Series de tiempo I. Procesos univariados y estacionarios. Gabriel Montes-Rojas. Series temporales estacionarias Estacionariedad Predicción

Series de tiempo I. Procesos univariados y estacionarios. Gabriel Montes-Rojas. Series temporales estacionarias Estacionariedad Predicción Ruido blanco Procesos univariados y estacionarios Gabriel V. Montes-Rojas Ruido blanco La estructura de las series temporales Series temporales Información para diferentes periodos indexados por el tiempo

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10 Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

Estadística aplicada al medio ambiente

Estadística aplicada al medio ambiente Estadística aplicada al medio ambiente III. Regresión lineal 3 o de CC. AA. Departamento de Matemáticas Universidad Autónoma de Madrid 2011/12 Planteamiento Modelo Estimación de parámetros Intervalos de

Más detalles

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S.

Tema 2 M O D E L O S U N I V A R I A N T E S L I N E A L E S. Tema 2 1 M O D E L O S U N I V A R I A N T E S L I N E A L E S. Estructura del tema 1) Procesos estocásticos estacionarios. Modelos univariantes: la función de autocorrelación y el correlograma. 2) El

Más detalles

Tema 2 MODELOS UNIVARIANTES LINEALES.

Tema 2 MODELOS UNIVARIANTES LINEALES. Tema 2 MODELOS UNIVARIANTES LINEALES. 1 Estructura del tema 1) Procesos estocásticos estacionarios. Modelos univariantes: la función de autocorrelación y el correlograma. 2) El proceso ruido blanco. 3)

Más detalles