Análisis de procesos estocásticos en el dominio del tiempo
|
|
- Adrián Gómez Carrasco
- hace 8 años
- Vistas:
Transcripción
1 Análisis de procesos estocásticos en el dominio del tiempo F. Javier Cara ETSII-UPM Curso
2 Contenido Introducción Procesos estocásticos Variables aleatorias Una variable aleatoria Dos variables aleatorias Caracterización de procesos estocásticos Procesos estocásticos estacionarios Procesos estocásticos ergódicos Procesos estocásticos Gausianos Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco Procesos MA(q) Procesos AR(p) Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos estocásticos: Método general Estimación de parámetros de procesos estacionarios Estimación de parámetros de procesos ergódicos Estimación de parámetros de procesos AR(p) 2
3 Introducción Velocidad del viento (Puente del Tablate) v (m/s) v (m/s) v (m/s) v (m/s) v (m/s) v (m/s) Tiempo (seg) 3
4 Introducción Tenemos que: Se ha registrado un dato cada 0.25 segundos durante 10 minutos Señales discretas. Podemos organizar los datos en forma matricial v 1 (t) v 1 (t 1 ) v 1 (t 2 ) v 1 (t 3 ) v 1 (t 2400 ) v 2 (t) v 2 (t 1 ) v 2 (t 2 ) v 2 (t 3 ) v 2 (t 2400 ) v 3 (t) v 4 (t) = v 3 (t 1 ) v 3 (t 2 ) v 3 (t 3 ) v 3 (t 2400 ) v 4 (t 1 ) v 4 (t 2 ) v 4 (t 3 ) v 4 (t 2400 ) (1) v 5 (t) v 6 (t) v 5 (t 1 ) v 5 (t 2 ) v 5 (t 3 ) v 5 (t 2400 ) v n (t 1 ) v n (t 2 ) v n (t 3 ) v n (t 2400 ) El valor que estamos registrando en un instante de tiempo t i depende de la señal que observemos, v j (t i ) v k (t i ). Son variables aleatorias. El conjunto de los datos registrados (1) provienen de un proceso estocástico o aleatorio. 4
5 Procesos estocásticos Procesos estocásticos Un proceso estocástico es una secuencia de variables aleatorias. El término proceso estocástico puede hacer referencia tanto al proceso que genera la secuencia como a la secuencia misma. Se representa como {X(k) Ω, k K}. Ω es el espacio muestral, el conjunto de valores posibles que puede tomar {X(k)}. k es el indice que hace referencia a la posición dentro de la secuencia, y toma valores en K. La secuencia puede ser a lo largo del tiempo, o posiciones a lo largo de una linea, o en general, parametros que indican posición relativa. Nosotros vamos a estudiar procesos estocásticos en los que k indica tiempo, es decir, {X(k)} son valores registrados a lo largo del tiempo. Por esta razón también se les conoce como señales, y también como series temporales. Una realización del proceso son los valores que toman las variables aleatorias en un experimento determinado. 5
6 Procesos estocásticos En el caso del puente, tenemos una secuencia de variables aleatorias: v 1 (t) v 1 (t 1 ) v 1 (t 2 ) v 1 (t 3 ) v 1 (t 2400 ) v 2 (t) = v 2 (t 1 ) v 2 (t 2 ) v 2 (t 3 ) v 2 (t 2400 ) (2) v n (t) v 6 (t 1 ) v n (t 2 ) v n (t 3 ) v n (t 2400 ) {V(t)} = { V(t 1 ) V(t 2 ) V(t 3 ) V(t 2400 ) } (3) V(t j ) es la variable aleatoria velocidad registrada en el instante de tiempo t j. Una observación de los valores de las variables aleatorias se conoce como realización del proceso estocástico. Cada realización es única. Realización i v i (t) = [ v i (t 1 ) v i (t 2 ) v i (t j ) v i (t 2400 ) ] El proceso estocástico viento se representa como {V(t k ) R, k N}. 6
7 Variables aleatorias Una variable aleatoria Variables aleatorias Una variable aleatoria es una función que asigna un número real al resultado de un experimento aleatorio. Al lanzar dos monedas al aire, los resultados posibles son {CC, CX, XC, XX} Se puede definir la siguiente variable aleatoria: C: número de caras que se obtienen al lanzar dos monedas al aire.c {0, 1, 2} variable aleatoria discreta. La mayoría de las veces el resultado del experimento aleatorio ya es un número, por lo que la variable aleatoria es diréctamente el resultado: H: altura de una persona elegida al azar. H (0,+ ) variable aleatoria continua. En general, las variables donde el resultado se cuenta son v.a. discretas, y cuando el resultado se mide son v.a. continuas. Nosotros trabajamos con medidas de sensores v.a. continuas! 7
8 Variables aleatorias Una variable aleatoria Toda variable aleatoria X tiene asociada una función de densidad de probabilidad, f X (x), que cumple que: Función de densidad de probabilidad f X (x) 0 para todo x. + f X(x)dx = 1. P(a x b) = b a f X(x)dx. Se define la esperanza o media de una variable aleatoria X continua como Esperanza E(x) = + x f X (x)dx E(ax + b) = ae(x)+b 8
9 Variables aleatorias Una variable aleatoria Se denomina varianza de una variable aleatoria X Varianza Var(X) = E ( (X E(x)) 2) = + (x E(x)) 2 f X (x)dx Var(ax + b) = a 2 Var(x) Var(x) = E(x 2 ) (E(x)) 2 9
10 Variables aleatorias Una variable aleatoria Ejemplo Sea X una variabla aleatoria con función de densidad de probabilidad dada por la figura. Calcular la media y la varianza de X. Según la figura f X (x) = a 2 x Como + f X (x)dx = 1 + a 2 xdx = a xdx = 1 a = 1 10
11 11 Variables aleatorias Una variable aleatoria Por tanto f X (x) = 1 2 x E(x) = E(x 2 ) = + + x f X (x)dx = 2 x 2 f X (x)dx = Var(x) = E ( (x E(x)) 2) = = x 1 2 xdx = ( x 4 ) xdx = 2 9 x xdx 1 2 La varianza también se puede calcular mediante Var(x) = E(x 2 ) (E(x)) 2 = x 2 dx = 4 3 x 3 dx = 2 (x E(x)) 2 f X (x)dx ( ) 2 4 = 2 3 9
12 12 Variables aleatorias Dos variables aleatorias Distribuciones conjuntas Sean dos variables aleatorias continuas X, Y : Función de densidad de probabilidad conjunta f XY (x, y) 0 para todo x, y. + + f XY(x, y)dxdy = 1. P(a x b, c y d) = b a Funciones de densidad marginales d c f XY(x, y)dxdy. f X (x) = f Y (y) = + + f XY (x, y)dy f XY (x, y)dx
13 Variables aleatorias Dos variables aleatorias Las variables aleatorias X,Y son independientes si y sólo si f XY (x, y) = f X (x)f Y (y) Se define la covarianza de dos variables aleatorias X,Y Covarianza Cov(X, Y) = E ((X E(x))(Y E(y))) = + + (X E(x))(Y E(y))f XY (x, y)dxdy Var(aX + by) = a 2 Var(X)+b 2 Var(Y)+2abCov(X, Y) Cov(X, Y) = E(XY) E(X)E(Y) E(XY) se conoce como correlación de X e Y, y es muy importante en el estudio de los procesos estocásticos. 13
14 14 Variables aleatorias Dos variables aleatorias N variables aleatorias X 1 X = X 2,F. densidad prob.: f X(X 1, X 2,...,X n ) X n Se tiene que E(X 1 ) E(X) = E(X 2 ) E(X n ) Var(X 1 ) Cov(X 1, X 2 ) Cov(X 1, X n ) Var(X) = Cov(X 2, X 1 ) Var(X 2 ) Cov(X 1, X n ) Cov(X n, X 1 ) Cov(X n, X 2 ) Var(X n, X n )
15 15 Variables aleatorias Dos variables aleatorias Transformaciones lineales Y 1 Y 2 Y n Y = AX + b = a 11 a 12 a 1n = a 21 a 22 a 2n a n1 a n2 a nn X 1 X 2 X n + b 1 b 2 b n E(Y) = AE(X)+b = E(Y 1 ) a 11 a 12 a 1n E(X 1 ) b 1 E(Y 2 ) = a 21 a 22 a 2n E(X 2 ) + b 2 E(Y n ) a n1 a n2 a nn E(X n ) b n
16 16 Variables aleatorias Dos variables aleatorias Transformaciones lineales Var(Y) = AVar(X)A T = Var(Y 1 ) Cov(Y 1, Y 2 ) Cov(Y 1, Yn) Cov(Y 2, Y 1 ) Var(Y 2 ) Cov(Y 1, Yn) = Cov(Yn, Y 1 ) Cov(Yn, Y 2 ) Var(Yn, Yn) a 11 a 12 a 1n Var(X 1 ) Cov(X 1, X 2 ) Cov(X 1, Xn) a 11 a 21 a n1 = a 21 a 22 a 2n Cov(X 2, X 1 ) Var(X 2 ) Cov(X 1, Xn) a 12 a 22 a n2 a n1 a n2 ann Cov(Xn, X 1 ) Cov(Xn, X 2 ) Var(Xn, Xn) a 1n a 2n ann Independencia Las vaiables aleatorias X 1, X 2,, X n son independientes si y sólo si f X (X 1, X 2,...,X n ) = f(x 1 ) f(x 2 ) f(x n )
17 Caracterización de procesos estocásticos Procesos estocásticos (rep.) Un proceso estocástico es una secuencia de variables aleatorias. x 1 (t) x 1 (t 1 ) x 1 (t 2 ) x 1 (t 3 ) x 1 (t N ) x 2 (t) = x 2 (t 1 ) x 2 (t 2 ) x 2 (t 3 ) x 2 (t N ) x n (t) x n (t 1 ) x n (t 2 ) x n (t 3 ) x n (t N ) {X(t)} = { X(t 1 ) X(t 2 ) X(t 3 ) X(t N ) } En nuestro caso, X(t j ) es la variable aleatoria aceleración registrada en el instante de tiempo t j. Una observación de los valores de las variables aleatorias se conoce como realización del proceso estocástico. Cada realización es única. Realización i x i (t) = [ x i (t 1 ) x i (t 2 ) x i (t j ) x i (t N ) ] La colección de realizaciones se denota con {X(t)}. 17
18 Caracterización de procesos estocásticos Caracterización de procesos estocásticos En general, una única realización x i (t) no puede ser usada para representar un proceso estocástico. Para caracterizar completamente un proceso estocástico {X(t)} es necesario conocer la función de densidad de probabilidad conjunta: f X (X(t 1 ), X(t 2 ),, X(t N )) para todo t j. Cada X(t j ) es una variable aleatoria continua. Si el proceso está completamente caracterizado podríamos calcular (en términos de probabilidad!) que valor toma cada variable aleatoria. En el caso del puente, podríamos calcular cuál es la aceleración en el instante t = t j, con una probabilidad igual a p. Pero en la práctica es imposible calcular la función de densidad de probabilidad conjunta. 18
19 19 Caracterización de procesos estocásticos En su lugar se utilizan los siguientes parámetros estadísticos: Función de medias: µ X (t j ) = E (X(t j )) = 1 µ X (t j ) = lim n n + xf X(tj )(x)dx (4) n x i (t j ) (5) La Ecuación (4) se utiliza cuando se conoce la función de densidad de probabilidad de X(t j ) y la Ecuación (5) se utiliza cuando se conocen los valores que toma X(t j ) en infinitas realizaciones. Función de valor cuadrático medio (- RMS): ψ 2 X(t j ) = E ( X 2 (t j ) ) = ψx(t 2 1 j ) = lim n n i=1 + n i=1 x 2 f X(tj )(x)dx x 2 i (t j )
20 20 Caracterización de procesos estocásticos Función de varianzas (- desviación típica): σ 2 X (t j) = E ( (X(t j ) µ X (t j )) 2) = σx 2 (t 1 j) = lim n n Recordad que se cumple Función de autocorrelación: + (x µ X (t j )) 2 f X(tj )(x)dx n (x i (t j ) µ X (t j )) 2 i=1 σ 2 = E(x 2 ) (E(x)) 2 = ψ 2 µ 2 R XX (t j, t k ) = E (X(t j )X(t k )) = 1 R XX (t j, t k ) = lim n n + x j x k f X(tj )X(t k )(x j, x k )dx n x i (t j )x i (t k ) i=1
21 21 Caracterización de procesos estocásticos Función de autocovarianza: γ XX (t j, t k ) = cov (X(t j ), X(t k )) = E ((X(t j ) µ X (t j ))(X(t k ) µ X (t k ))) = = E (X(t j )X(t k )) µ X (t j )µ X (t k ) = = R XX (t j, t k ) µ X (t j )µ X (t k ) Por lo tanto, la función de autocovarianza y la función de autocorrelación están relacionadas por la ecuación anterior. Las ventajas de trabajar con la función de autocorrelación quedarán patentes al estudiar la señal en frecuencias. La función de varianza está contenida en la función de autocovarianza: ( γ XX (t j, t j ) = E (X(t j ) µ X (t j )) 2) = σx 2 (t j)
22 22 Caracterización de procesos estocásticos Procesos estocásticos estacionarios Procesos estocásticos estacionarios Formalmente, un proceso {X(t)} se denomina estríctamente estacionario si para cualquier τ: f X (X(t 1 ), X(t 2 ),, X(t N )) = f X (X(t 1 +τ), X(t 2 +τ),, X(t N +τ)) En otras palabras, los parámetros estadísticos en t j y en t k = t j +τ son iguales f X(tj ) = f X(tk ) µ X (t j ) = µ X (t k ) σx 2(t j) = σx 2(t k) R XX (t j, t k ) = R XX (τ), t j, t k Por otro lado, un proceso {X(t)} se denomina débilmente estacionario si µ X (t j ) = µ X (t k ) = cte σx 2 (t j) = σx 2(t k) = cte R XX (t j, t k ) = R XX (τ), t j, t k
23 23 Caracterización de procesos estocásticos Procesos estocásticos ergódicos Procesos estocásticos ergódicos Los procesos estocásticos más importantes en la práctica son 1. Ergódicos, con cualquier estructura de probabilidad. 2. Gausianos, ya sean ergódicos o no. Un proceso es ergódico si los parámetros estadísticos calculados en un conjunto de realizaciones (promedios de conjunto) son iguales que los parámetros estadísticos calculados en una única realización (promedios temporales). Un proceso es ergódico en la media si 1 n µ X (t j ) = lim x i (t j ) n n 1 = lim N N i=1 N x i (t j ) = µ xi j=1
24 24 Caracterización de procesos estocásticos Procesos estocásticos ergódicos Un proceso es ergódico en la varianza si σx 2 (t 1 j) = lim n n 1 = lim N N n (x i (t j ) µ X (t j )) 2 i=1 N (x i (t j ) µ xi ) 2 = σx 2 i Un proceso es ergódico en la función de autocorrelación si j=1 1 R XX (t j,τ) = lim n n 1 = lim N N n x i (t j )x i (t j +τ) i=1 N x i (t j )x i (t j +τ) j=1
25 25 Caracterización de procesos estocásticos Procesos estocásticos ergódicos Si se cumplen las tres condiciones anteriores, el proceso se conoce como débilmente ergódico. Si todos los parámetros estadísticos calculados a partir del conjunto de realizaciones se pueden calcular utilizando una única realización, se conoce como fuertemente ergódico. Para que un proceso sea ergódico primero tiene que ser estacionario. El recíproco no es cierto. En general nunca nos vamos a encontrar con un proceso estacionario real. Sin embargo, la hipótesis de estacionaridad proporciona resultados suficientemente exactos para nuestros propósitos. Lo mismo ocurre con la hipótesis de ergodicidad. A veces sólo se ha medido una realización de un proceso estocástico y tenemos que admitir ergodicidad para poder extraer conclusiones de nuestros datos.
26 26 Caracterización de procesos estocásticos Procesos estocásticos Gausianos Procesos estocásticos Gausianos Un proceso estocástico es Gausiano o normal si la función de densidad de probabilidad conjunta de {X(t 1 ), X(t 2 ),...,X(t n )} es normal multivariante. Si el proceso es Gausiano se tiene que: Los procesos Gausianos son muy comunes en problemas físicos. Un proceso estocástico Gaussiano está completamente determinado si se conocen la media y la función de autocorrelación. Si el proceso Gausiano es débilmente estacionario, entonces también es estríctamente estacionario. Además, si el proceso Gausiano es débilmente ergódico, también es fuertemente ergódico.
27 27 Caracterización de procesos estocásticos Ejemplo Sean Y 1, A 2,..., A 10 variables aleatorias independientes con distribución Y 1 N(0,σ 2 = 1), A i N(0,σ 2 = 0, 5). Sea el proceso estocástico definido por Y t = 2Y t 1 + A t, para t = 2,..., 10.. Calcular La función de medias del proceso E(Y t ) Las varianzas de Y 2, Y 3, Y 4. La correlación entre Y 3 e Y 4 Es estacionario el proceso? Solución E(Y 1 ) = 0; Y 2 = 2Y 1 + A 2 E(Y 2 ) = 2E(Y 1 )+E(A 1 ) = 0; En general, E(Y t ) = 0 t Y 2 = 2Y 1 + A 2 Var(Y 2 ) = 4Var(Y 1 )+Var(A 2 )+4Cov(Y 1, A 2 ) Cov(Y 1, A 2 ) = E(Y 1 A 2 ) E(Y 1 )E(A 2 ) indep. = E(Y 1 )E(A 2 ) 0 = 0 Var(Y 2 ) = 4+0, 5 = 4, 5
28 28 Caracterización de procesos estocásticos De igual manera se obtiene que Var(Y 3 ) = 4Var(Y 2 )+0, 5 = 18, 5 Var(Y 4 ) = 4Var(Y 3 )+0, 5 = 74, 5 Por tanto ya se puede concluir que el proceso no es estacionario. E(Y 3 Y 4 ) = E[Y 3 (2Y 3 + A 4 )] = 2E(Y 2 3 )+E(Y 3A 4 ) Se tiene que E(Y 3 A 4 ) = E[(2Y 2 + A 3 )A 4 ] = 2E(Y 2 A 4 )+E(A 3 A 4 ) = 2E[(2Y 1 + A 2 )A 4 ] = 2E(Y 1 A 4 )+E(A 2 A 4 ) = 0 Por otro lado Var(Y 3 ) = E(Y 2 3 ) [E(Y 3)] 2 = 18,5 E(Y 2 3 ) = 18,5 Por tanto E(Y 3 A 4 ) = 2E(Y 2 3 )+E(Y 3A 4 ) = 37 La covarianza entre Y 3 e Y 4 es inmediata Cov(Y 3, A 4 ) = E(Y 3 A 4 ) E(Y 3 )E(Y 4 ) = E(Y 3 A 4 ) = 37
29 29 Caracterización de procesos estocásticos Ejemplo Sea X una variable aleatoria con distribución uniforme ( 1, 1) e Y 1,..., Y 10 variables aleatorias independientes con distribución uniforme ( 1/10, 1/10). Sea el proceso estocástico definido por Z t = tx + Y t, para t = 1, 2,..., 10. Calcular: La función de medias del proceso E(Z t ) La función de momentos de segundo orden E(Z 1 Z 2 ). Coeficiente de correlación del proceso para Z 1 y Z 2. Es estacionario el proceso? Solución Las funciones de densidad de X e Y se pueden representar como
30 30 Caracterización de procesos estocásticos Para empezar E(X) = 1 1 x 1 2dx = 0; E(X 2 ) = 1 1 x2 1 2 E(Y t ) = 1/10 1/10 dx = 1/3; y5dy = 0; E(Y 2 t ) = 1/10 1/10 y2 5dy = 1/300 E(Z t ) = E(tX + Y t ) = te(x)+e(y t ) = 0 E(Z 1 Z 2 ) = E[(X + Y 1 )(2X + Y 2 )] = 2E(X 2 )+E(X)E(Y 2 )+2E(X)E(Y 1 )+E(Y 1 )E(Y 2 ) = 2E(X 2 ) = 2/3 Var(Z t ) = Var(tX + Y t ) = t 2 Var(X)+Var(Y t ) = t 2 /3+1/300 El proceso estocástico no es estacionario.
31 Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco Proceso estocástico ruido blanco, {W(t)} E(w t ) = 0, t Var(w t ) = σw, 2 t { σ 2 γ w (t, t + h) = E(w t w t+h ) = w si h = 0 0 si h 0 t, h Es frecuente usar la notación w t, en lugar de w(t). Como estamos trabajando con series discretas, w k = w(k t), donde t es el intervalo de tiempo entre dos medidas, t = constante. w s y w t están incorrelacionadas para s t ya que E(w s w t ) = E(w s )E(w t ) = 0. Si, además de independientes, las variables están idénticamente distribuidas, con media 0 y varianza σ 2 w, w t iid(0,σ 2 w). Por último, las variables aleatorias pueden ser variables aleatorias independientes y Gausianas σ 2 w. w t N(0,σ 2 w ). El ruido blanco es un proceso estocástico estacionario y ergódico. 31
32 Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco Ejemplo: media móvil 4 Ruido blanco, w t v t =1/3(w t 1 +w t +w t+1 ) La figura superior muestra una realización de 500 variables aleatorias de un proceso estocástico w t iidn(0, 1). En la figura inferior se ha reemplazado w t por la media de cada valor con su antecedente y su precedente media móvil v t = 1 3 (w t 1 + w t + w t+1 ) 32
33 33 Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco Función de medias: µ vt = E(v t ) = E( 1 3 (w t 1 + w t + w t+1 )) Función de autocovarianzas = 1 3 (E(w t 1)+E(w t )+E(w t+1 )) = 0 t γ v (s, t) = E((v s 0)(v t 0)) = 1 9 E((w s 1 + w s + w s+1 )(w t 1 + w t + w t+1 ) Es conveniente calcularla en función de la separación s t = h, h = 0,±1,±2 Para h = 0 γ v(t,t) = 1 E((wt 1 + wt + wt+1)(wt 1 + wt + wt+1) 9 = 1 9 (E(wt 1wt 1)+E(wtwt)+E(wt+1wt+1)) = 3 9
34 34 Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco Para h = 1 γ v(t + 1,t) = 1 E((wt + wt+1 + wt+2)(wt 1 + wt + wt+1) 9 = 1 9 (E(wtwt)+E(wt+1wt+1)) = 2 9 Para el resto de valores 3/9 si s = t 2/9 si s t = 1 γ v(s, t) = 1/9 si s t = 2 0 si s t 3 Luego este proceso es estacionario ya que E(v t ) = cte t 3/9 si h = 0 2/9 si h = ±1 γ w (t, t + h) = γ v (h) = 1/9 si h = ±2 0 si h 3
35 35 Ejemplos de modelos de procesos estocasticos Proceso estocástico ruido blanco En efecto, si trabajamos con la función de autocovarianza, un proceso es débilmente estacionario si { µ X (t j ) = µ X (t k ) = cte γ XX (t j, t k ) = γ XX (τ), τ = t j t k, t j, t k. La condición de que la varianza es constante ya está contenida en las condiciones anteriores: γ XX (t j, t j ) = R XX (t j, t j ) µ X (t j )µ X (t j ) estac = cte Por otro lado γ XX (t j, t j ) = σ X (t j ) 2
36 36 Ejemplos de modelos de procesos estocasticos Procesos MA(q) Definición Un proceso media móvil de orden q, o MA(q), se definide mediante x t = w t +θ 1 w t 1 +θ 2 w t 2 + +θ q w t q dónde hay q retardos en la media móvil y θ 1,θ 2,,θ q (θ q 0) son parámetros. Se asume que w t es ruido blanco Gausiano, w t N(0,σ 2 w ). Un proceso MA(q) siempre es estacionario y ergódico.
37 Ejemplos de modelos de procesos estocasticos Procesos AR(p) Definición Un proceso autoregresivo de orden p, o AR(p), se definide mediante x t = φ 1 x t 1 +φ 2 x t 2 + +φ p x t p + w t dónde hay p retardos y φ 1,φ 2,,φ p (φ p 0) son parámetros. Salvo indicación expresa, w t es ruido blanco Gausiano, w t N(0,σ 2 w ). Se ha asumido que la media de x t es cero. Si la media es µ 0 entonces donde x t µ = φ 1 (x t 1 µ)+φ 2 (x t 2 µ)+ +φ p (x t p µ)+w t x t = α+φ 1 x t 1 +φ 2 x t 2 + +φ p x t p + w t α = µ(1 φ 1 φ p ) Recordad que una regresión lineal tiene la forma x t = β 1 z t1 +β 2 z t2 + +β q z tq + w t (de ahí el nombre de autoregresivo) 37
38 Ejemplos de modelos de procesos estocasticos Procesos AR(p) Definición Se define el operador retardo por Bx t = x t 1 B 2 x t = B(Bx t ) = Bx t 1 = x t 2 B k x t = x t k Un proceso AR(p) se puede escribir como (1 φ 1 B φ 2 B 2 φ p B p )x t = w t o de forma más compacta como φ(b)x t = w t, φ(b) = (1 φ 1 B φ 2 B 2 φ p B p ), B C φ(b) = es el polinomio característico del proceso. Un proceso AR(p) es estacionario si las raices de φ(b) están fuera del círculo unidad. Si un proceso AR(p) es estacionario, es ergódico. 38
39 Estimación de los parámetros de un proceso estocástico Estimación de parámetros POBLACIÓN: µ, σ 2. MUESTRA ALEATORIA SIMPLE: {X 1, X 2,...,X n } Media y varianza muestral: x = 1 n n X i, s 2 = 1 n i=1 n (X i x) 2 i=1 Se selecciona una muestra aleatoria simple de una población. A partir de esta muestra obtenemos una estimación de los parámetros de la población. Existen dos métodos para hacer ésto: Método de los momentos: ˆµ = x, ˆσ 2 = s 2. Método de máxima verosimilitud: la estimacion del parámetro es aquel valor que hace que la probabilidad de seleccionar la muestra sea máxima. 39
40 40 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos estocásticos: Método general Método general Sean M realizaciones de un proceso estocástico, M 20: Media: ˆµ X (t j ) = x j, x j = 1 n Valor cuadrático medio: Varianza: ˆψ 2 X(t j ) = 1 n n i=1 n x i (t j ) = 1 n i=1 x 2 i (t j ) = 1 n ˆσ 2 X (t j) = s 2 X (t j), s 2 X (t j) = 1 n 1 Función de autocorrelación: ˆR XX (t j, t k ) = 1 n n i=1 x 2 ij n i=1 x ij n (x i (t j ) x j ) 2 i=1 n x i (t j )x i (t k ) i=1
41 41 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos estacionarios Estimación de parámetros de procesos estacionarios El método anterior es un método general, válido tanto para procesos estacionarios como para procesos no estacionarios. Cuando tenemos procesos débilmente estacionarios, la media y la varianza son constantes. Pero puede ocurrir que esto no se cumpla en la práctica, fundamentalmente debido a los errores en la estimación de cada x j. Para mejorar estas estimaciones se puede hacer: x = 1 N x j N s 2 X = 1 N j=1 N sx(t 2 j ) j=1
42 42 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos estacionarios Igual que ocurre con la media y la varianza, la estimación de la función de autocorrelación en procesos estacionarios puede mejorarse mediante promedios en el tiempo: ˆR XX (τ j ) = 1 N j ˆR XX (t k, t k +τ j ), 0 t k, τ j N t N j k=1 donde τ j = j t, j = 1, 2,..., N. La función de autocorrelación de un proceso estacionario es función solamente del retardo entre las variables aleatorias, τ j.
43 43 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos ergódicos Estimación de parámetros de procesos ergódicos En procesos estacionarios y ergódicos (M = 1), las ecuaciones anteriores se transforman en promedios temporales: x = 1 N N j=1 x j s 2 x = 1 N N (x j x) 2 j=1 ˆR XX (τ j ) = 1 N j x k x k+j N j Es evidente que esto sólo es razonable cuando la realización que se ha usado es representativa del resto de realizaciones del proceso estocástico. Cuando tengamos solo un registro tenemos que utilizar estas fórmulas! k=1
44 44 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos AR(p) Estimación de parámetros de procesos AR(p) Proceso autoregresivo de orden p, o AR(p), se definide mediante x t = φ 1 x t 1 +φ 2 x t 2 + +φ p x t p + w t Si colocamos los datos de esta manera x p+1 x p x p 1 x 1 x p+2 x p+1 x p x 2 φ 1 x p+3 x p+4 = x p+2 x p+1 x 3 φ 2 x p+3 x p+2 x 4 + φ p x N x N 1 x N 2 x N p X = MΦ+W donde el vector W ha de ser mínimo mínimos cuadrados W 2 = N+p i=p+1 w 2 i es mínimo w p+1 w p+2 w p+3 w p+4 w N
45 45 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos AR(p) Para que W 2 sea mínimo, W tiene que ser perpendicular al espacio vectorial generado por las columnas de M M T W = 0 Figura: Izq: Una descomposición cualquiera. Der: solución mínimos cuadrados. X = MˆΦ+W M T X = M T MˆΦ+M T W M T X = M T MˆΦ ˆΦ = (M T M) 1 M T X
46 46 Estimación de los parámetros de un proceso estocástico Estimación de parámetros de procesos AR(p) 0.5 x 1t Tablate MΦ (Ar(4)) W t (Ar(4)) t (s)
Vectores aleatorios. Estadística I curso 2008 2009
Vectores aleatorios Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 En numerosas ocasiones estudiamos más de una variable asociada a
Más detalles9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES
9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES Objetivo Introducir la idea de la distribución conjunta de dos variables discretas. Generalizar las ideas del tema 2. Introducir la distribución normal
Más detallesConceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas
Conceptos Fundamentales Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas Análisis de datos en física de partículas Experimento en física de partículas: Observación de n sucesos de un cierto tipo (colisiones
Más detallesTema 5: Vectores aleatorios bidimensionales.
Estadística 52 Tema 5: Vectores aleatorios bidimensionales. Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una característica aleatoria. En muchos casos,
Más detallesTema 3: Variables aleatorias y vectores aleatorios bidimensionales
Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos
Más detallesProcesos de Media Móvil y ARMA
Capítulo 4 Procesos de Media Móvil y ARMA Los procesos AR no pueden representar series de memoria muy corta, donde el valor actual de la serie sólo está correlado con un número pequeño de valores anteriores
Más detallesElementos de Probabilidad y Estadística Segundo de Economía Examen del 26 de junio de 2006 DURACIÓN: 2 horas
Elementos de Probabilidad y Estadística Segundo de Economía Examen del 6 de junio de 6 DURACIÓN: horas. a) Se realizan lanzamientos de un dado regular. i) Calcular la probabilidad de obtener exactamente
Más detallesSeries de Tiempo. Una Introducción
Series de Tiempo. Una Introducción Series de Tiempo Muchas veces, sobretodo para realizar pronósticos, resulta conveniente no suponer un modelo explícito para que explique la variables de interés, sino
Más detallesTema 2: Estimación puntual
Tema 2: Estimación puntual 1 (basado en el material de A. Jach (http://www.est.uc3m.es/ajach/) y A. Alonso (http://www.est.uc3m.es/amalonso/)) Planteamiento del problema: estimador y estimación Insesgadez
Más detallesVariables aleatorias. Función de distribución y características asociadas
Índice 3 Variables aleatorias. Función de distribución y características asociadas 3.1 3.1 Introducción.......................................... 3.1 3.2 Concepto de variable aleatoria................................
Más detallesInferencia Estadística
EYP14 Estadística para Construcción Civil 1 Inferencia Estadística El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones o para obtener conclusiones sobre
Más detallesESTIMACIÓN. puntual y por intervalo
ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio
Más detallesIntroducción a la Econometría
Introducción a la Econometría Curso 2009/2010 Seriedeproblemas1 1.- Considere la siguiente distribución de probabilidad: Llueve (X=0) No llueve (X=1) Total Tiempo de viaje largo (Y=0) 0.15 0.07 0.22 Tiempo
Más detalles8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...
Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación
Más detallesSubespacios vectoriales en R n
Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo
Más detallesDepartamento de Matemática Aplicada a la I.T. de Telecomunicación
Departamento de Matemática Aplicada a la I.T. de Telecomunicación EXAMEN RESUELTO DE ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS CONVOCATORIA: ENERO / FECHA: de Enero de Duración del examen: 3 horas Fecha publicación
Más detallesTema 5. Análisis de regresión (segunda parte) Estadística II, 2010/11
Tema 5 Análisis de regresión (segunda parte) Estadística II, 2010/11 Contenidos 5.1: Diagnóstico: Análisis de los residuos 5.2: La descomposición ANOVA (ANalysis Of VAriance) 5.3: Relaciones no lineales
Más detallesCapítulo 7: Distribuciones muestrales
Capítulo 7: Distribuciones muestrales Recordemos: Parámetro es una medida de resumen numérica que se calcularía usando todas las unidades de la población. Es un número fijo. Generalmente no lo conocemos.
Más detallesMatrices equivalentes. El método de Gauss
Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar
Más detallesFunciones de varias variables
Funciones de varias variables Derivadas parciales. El concepto de función derivable no se puede extender de una forma sencilla para funciones de varias variables. Aquí se emplea el concepto de diferencial
Más detallesCovarianza y coeficiente de correlación
Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también
Más detallesExamen de Estadística Ingeniería de Telecomunicación
Examen de Estadística Ingeniería de Telecomunicación 8 de Mayo de 3 Cuestiones solucion h C. (.5p) El equipo directivo de cierta empresa del sector de hostelería está constituido por 5 personas de las
Más detallestodas especialidades Soluciones de las hojas de problemas
Universidad Politécnica de Cartagena Dpto. Matemática Aplicada y Estadística Ingeniería Técnica Industrial Métodos estadísticos de la ingeniería Métodos estadísticos de la ingeniería Ingeniería Técnica
Más detallesE 1 E 2 E 2 E 3 E 4 E 5 2E 4
Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),
Más detallesCORRELACIÓN Y PREDICIÓN
CORRELACIÓN Y PREDICIÓN 1. Introducción 2. Curvas de regresión 3. Concepto de correlación 4. Regresión lineal 5. Regresión múltiple INTRODUCCIÓN: Muy a menudo se encuentra en la práctica que existe una
Más detallesVariables aleatorias continuas
Variables aleatorias continuas Hemos definido que una variable aleatoria X es discreta si I X es un conjunto finito o infinito numerable. En la práctica las variables aleatorias discretas sirven como modelos
Más detallesANÁLISIS DE DATOS NO NUMERICOS
ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas
Más detalles2 Resolución de algunos ejemplos y ejercicios del tema 2.
INTRODUCCIÓN A LA ESTADÍSTICA. GRUPO 71 LADE. 8 2 Resolución de algunos ejemplos y ejercicios del tema 2. 2.1 Ejemplos. Ejemplo 13 La siguiente tabla de frecuencias absolutas corresponde a 200 observaciones
Más detallesIntroducción a la Teoría de Probabilidad
Capítulo 1 Introducción a la Teoría de Probabilidad Para la mayoría de la gente, probabilidad es un término vago utilizado en el lenguaje cotidiano para indicar la posibilidad de ocurrencia de un evento
Más detallesAnálisis de medidas conjuntas (conjoint analysis)
Análisis de medidas conuntas (conoint analysis). Introducción Como ya hemos dicho anteriormente, esta técnica de análisis nos sirve para analizar la importancia que dan los consumidores a cada uno de los
Más detallesAplicaciones lineales continuas
Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas
Más detallesEl valor esperado de una variable aleatoria discreta se representa de la siguiente manera:
INTRODUCCIÓN AL VALOR ESPERADO Y VARIANZA (5 MINUTOS) Cuando nos hablan del promedio de que ocurra un evento, cómo sabemos con certeza qué tan cerca estamos de alcanzar ese promedio? Esta pregunta nos
Más detallesBreve Introducción a las Series Temporales
Breve Introducción a las Series Temporales 1 Series Temporales Colección de observaciones tomadas de forma secuencial en el tiempo {X t } t T. La hipótesis de independencia entre las observaciones puede
Más detallesDiagonalización de matrices
diagonalizacion.nb Diagonalización de matrices Práctica de Álgebra Lineal, E.U.A.T., Grupos ºA y ºB, 2005 Algo de teoría Qué es diagonalizar una matriz? Para estudiar una matriz suele ser conveniente expresarla
Más detallesEcuaciones Diferenciales Tema 2. Trasformada de Laplace
Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ester Simó Mezquita Matemática Aplicada IV 1 1. Transformada de Laplace de una función admisible 2. Propiedades básicas de la transformada de Laplace
Más detallesTema 1 con soluciones de los ejercicios. María Araceli Garín
Tema 1 con soluciones de los ejercicios María Araceli Garín Capítulo 1 Introducción. Probabilidad en los modelos estocásticos actuariales Se describe a continuación la Tarea 1, en la que se enumeran un
Más detallesMétodos generales de generación de variables aleatorias
Tema Métodos generales de generación de variables aleatorias.1. Generación de variables discretas A lo largo de esta sección, consideraremos una variable aleatoria X cuya función puntual es probabilidad
Más detallesTema 1: Test de Distribuciones de Probabilidad
Tema 1: Test de Distribuciones de Probabilidad 1.- Una compañía de seguros tiene 1000 asegurados en el ramo de accidentes. Si la el modelo mejor para el número de siniestros en un año es: a) Normal (5;,3).
Más detallesMedidas de tendencia central o de posición: situación de los valores alrededor
Tema 10: Medidas de posición y dispersión Una vez agrupados los datos en distribuciones de frecuencias, se calculan unos valores que sintetizan la información. Estudiaremos dos grandes secciones: Medidas
Más detallesCurso de Procesamiento Digital de Imágenes
Curso de Procesamiento Digital de Imágenes Impartido por: Elena Martínez Departamento de Ciencias de la Computación IIMAS, UNAM, cubículo 408 http://turing.iimas.unam.mx/~elena/teaching/pdi-lic.html elena.martinez@iimas.unam.mx
Más detallesT.3 ESTIMACIÓN PUNTUAL
T.3 ESTIMACIÓN PUNTUAL 1. INTRODUCCIÓN: ESTIMACIÓN Y ESTIMADOR 2. PROPIEDADES DE LOS ESTIMADORES 3. MÉTODOS DE ESTIMACIÓN. EJEMPLO 1, EJEMPLO 2 1. Introducción: Estimación y Estimador En este tema se analizan
Más detallesDefinición 2.1.1. Se llama suceso aleatorio a cualquier subconjunto del espacio muestral.
Capítulo 2 Probabilidades 2. Definición y propiedades Al realizar un experimento aleatorio nuestro interés es obtener información sobre las leyes que rigen el fenómeno sometido a estudio. El punto de partida
Más detallesEstadística aplicada y modelización. 10 de septiembre de 2005
Estadística aplicada y modelización. 10 de septiembre de 005 SOLUCIÓN MODELO A 1. Una persona se está preparando para obtener el carnet de conducir, repitiendo un test de 0 preguntas. En la siguiente tabla
Más detalles1 Espacios y subespacios vectoriales.
UNIVERSIDAD POLITÉCNICA DE CARTAGENA Departamento de Matemática Aplicada y Estadística Espacios vectoriales y sistemas de ecuaciones 1 Espacios y subespacios vectoriales Definición 1 Sea V un conjunto
Más detallesAnálisis de procesos estocásticos en el dominio de
Análisis de procesos estocásticos en el dominio de la frecuencia F. Javier Cara ETSII-UPM Curso 202-203 Contenido Función de densidad espectral Definición Relación con la transformada de Fourier Propiedades
Más detallesBASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.
BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades
Más detalles4 APLICACIONES LINEALES. DIAGONALIZACIÓN
4 APLICACIONES LINEALES DIAGONALIZACIÓN DE MATRICES En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible Esto nos
Más detallesIngeniería Técnica Industrial, todas especialidades. Ingeniería Técnica Telecomunicaciones, Telemática Problemas de examenes
Universidad Politécnica de Cartagena Dpto. Matemática Aplicada y Estadística Métodos estadísticos de la ingeniería, Estadística Problemas de examenes: Métodos estadísticos de la ingeniería Ingeniería Técnica
Más detallesMétodos Numéricos Grado en Ingeniería Informática Univ. Tema de Las 7 Interpolación Palmas de G.C. de funciones 1 / 42II
Métodos Numéricos Grado en Ingeniería Informática Tema 7 Interpolación de funciones II Luis Alvarez León Univ. de Las Palmas de G.C. Métodos Numéricos Grado en Ingeniería Informática Univ. Tema de Las
Más detallesTema 5. Variables aleatorias discretas
Tema 5. Variables aleatorias discretas Resumen del tema 5.1. Definición de variable aleatoria discreta 5.1.1. Variables aleatorias Una variable aleatoria es una función que asigna un número a cada suceso
Más detalles1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS
1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una
Más detalles8. Estimación puntual
8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores
Más detallesGrado en Finanzas y Contabilidad
Econometría Grado en Finanzas y Contabilidad Apuntes basados en el libro Introduction to Econometrics: A modern Approach de Wooldridge 5.2 Estimadores de Variables Instrumentales La endogeneidad aparece
Más detallesUn filtro general de respuesta al impulso finita con n etapas, cada una con un retardo independiente d i y ganancia a i.
Filtros Digitales Un filtro general de respuesta al impulso finita con n etapas, cada una con un retardo independiente d i y ganancia a i. En electrónica, ciencias computacionales y matemáticas, un filtro
Más detallesPrecio del alquiler de pisos durante una serie de meses. Evolución del índice del precio del trigo con mediciones anuales.
Series Temporales Introducción Una serie temporal se define como una colección de observaciones de una variable recogidas secuencialmente en el tiempo. Estas observaciones se suelen recoger en instantes
Más detallesClase 5: Variables Aleatorias y Distribuciones de Probabilidad
Clase 5: Variables Aleatorias y Distribuciones de Probabilidad Variables Aleatorias Una variable aleatoria es una función que asocia un número real con cada elemento del EM. Ejemplo 1: El EM que da una
Más detallesUNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano.
UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. EL PLANO CARTESIANO. El plano cartesiano está formado
Más detalles1.1. Introducción y conceptos básicos
Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................
Más detallesEjercicios de Modelos de Probabilidad
Ejercicios de Modelos de Probabilidad Elisa M. Molanes-López, Depto. Estadística, UC3M Binomial, Poisson, Exponencial y Uniforme Ejercicio. Se dispone de un sistema formado por dos componentes similares
Más detallesTema 3. Espacios vectoriales
Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición
Más detallesPruebas de. Hipótesis
Pruebas de ipótesis Pruebas de ipótesis Otra manera de hacer inferencia es haciendo una afirmación acerca del valor que el parámetro de la población bajo estudio puede tomar. Esta afirmación puede estar
Más detallesNombre...Apellidos... Grado en:...grupo:...
ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA - Soluciones Estadística- Curso 01/1. 9 de Julio de 01 Nombre...Apellidos... Grado en:...grupo:... 1. Considera la variable aleatoria (v.a.) X cuyos posibles
Más detallesREGRESION simple. Correlación Lineal:
REGRESION simple Correlación Lineal: Dadas dos variable numéricas continuas X e Y, decimos que están correlacionadas si entre ambas variables hay cierta relación, de modo que puede predecirse (aproximadamente)
Más detallesESTADÍSTICA 2OO7/2OO8 TEMA 10: SIMULACIÓN DE VARIABLES ALEATORIAS
ESTADÍSTICA 2OO7/2OO8 TEMA 10: SIMULACIÓN DE VARIABLES ALEATORIAS DESCRIPCIÓN DEL TEMA: 10.1. Introducción. 10.2. Método de las transformaciones. 10.3. Método de inversión. 10.4. Método de aceptación-rechazo.
Más detallesAnálisis de componentes principales
Capítulo 2 Análisis de componentes principales 2.1. INTRODUCCIÓN El Análisis de componentes principales trata de describir las características principales de un conjunto de datos multivariantes, en los
Más detallesAproximación local. Plano tangente. Derivadas parciales.
Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación
Más detallesTema 2. Espacios Vectoriales. 2.1. Introducción
Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por
Más detallesMarch 25, 2010 CAPÍTULO 2: LÍMITES Y CONTINUIDAD DE FUNCIONES EN EL ESPACIO EUCLÍDEO
March 25, 2010 CAPÍTULO 2: LÍMITE Y CONTINUIDAD DE FUNCIONE EN EL EPACIO EUCLÍDEO 1. Producto Escalar en R n Definición 1.1. Dado x = (x 1,..., x n ), y = (y 1,..., y n ) R n, su producto escalar está
Más detalles2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24
2. Probabilidad Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 Contenidos 1 Experimentos aleatorios 2 Algebra de sucesos 3 Espacios
Más detallesEl concepto de integral con aplicaciones sencillas
El concepto de integral con aplicaciones sencillas Eliseo Martínez Marzo del 24 Abstract Este artículo trata de ejemplos sencillos del concepto de integral con aplicaciones a la Física, la Teoría de la
Más detallesTema 10. Estimación Puntual.
Tema 10. Estimación Puntual. Presentación y Objetivos. 1. Comprender el concepto de estimador y su distribución. 2. Conocer y saber aplicar el método de los momentos y el de máxima verosimilitud para obtener
Más detallesÁlgebra Lineal Ma1010
Álgebra Lineal Ma1010 Mínimos Cuadrados Departamento de Matemáticas ITESM Mínimos Cuadrados Álgebra Lineal - p. 1/34 En esta sección veremos cómo se trabaja un sistema inconsistente. Esta situación es
Más detalles1. Producto escalar, métrica y norma asociada
1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la
Más detallesx 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas.
Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta A 1. Queremos realizar una inversión en dos tipos
Más detallesPROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS
PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS Grupos P y P (Prof. Ledesma) Problemas. Variables aleatorias..- Sea la v.a. X que toma los valores - y con probabilidades, y, respectivamente y
Más detallesEn una plantación de manzanos, el peso en kg de la fruta producida anualmente por cada manzano sigue una distribución normal N(50; 10).
MODELOS DE PROBABILIDAD En una plantación de manzanos, el peso en kg de la fruta producida anualmente por cada manzano sigue una distribución normal N(50; 10). (a) Si tomamos dos manzanos al azar, cuál
Más detallesVariedades Diferenciables. Extremos Condicionados
Capítulo 16 Variedades Diferenciables. Extremos Condicionados Vamos a completar lo visto en los capítulos anteriores sobre el teorema de las Funciones Implícitas y Funciones Inversas con un tema de iniciación
Más detallesDibujamos estos puntos en el espacio, y no cerramos la figura
PRÁCTICA SÉPTIMA: PROYECCIÓN ORTOGONAL. INVERSA DE MOORE-PENROSE 1. Proyección de un vector sobre un subespacio En este apartado vamos a recordar como se proyecta un vector v R m sobre un subespacio vectorial
Más detallesDistribuciones Multivariantes. Distribuciones Multivariantes. Distribuciones Multivariantes. Objetivos del tema:
Distribuciones Multivariantes Distribuciones Multivariantes Distribución conjunta de un vector aleatorio Objetivos del tema: Distribuciones marginales y condicionadas Al final del tema el alumno será capaz
Más detallesUnidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7
Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7 Definiciones: 1- La probabilidad estudia la verosimilitud de que determinados sucesos o eventos ocurran o no, con respecto a otros sucesos o eventos
Más detalles6 ANÁLISIS DE INDEPENDENCIA O ASOCIACIÓN ENTRE DOS ATRIBUTOS
6 ANÁLISIS DE INDEPENDENCIA O ASOCIACIÓN ENTRE DOS ATRIBUTOS Esquema del capítulo Objetivos 6.1. 6.. 6.3. 6.4. ANÁLISIS DE INDEPENDENCIA O ASOCIACIÓN ENTRE DOS ATRIBUTOS COEFICIENTES DE CONTINGENCIA LA
Más detallesGEOMETRÍA ANALÍTICA 2º Curso de Bachillerato 22 de mayo de 2008
1. Sean los puntos A (1, 0,-1) y B (,-1, 3). Calcular la distancia del origen de coordenadas a la recta que pasa por A y B. Calculemos la recta que pasa por A y B. El vector AB es (1,-1,4) y por tanto
Más detallesTema 2 - Introducción
Tema 2 - Introducción 1 Tema 1. Introducción a la inferencia estadística Planteamientos y objetivos. Revisión de distribuciones multivariantes. Esperanza y varianza de sumas de v.a. independientes. Tema
Más detallesEstudio de ceros de ecuaciones funcionales
Capítulo 1 Estudio de ceros de ecuaciones funcionales Problema 1.1 Calcular el número de ceros de la ecuación arctang(x) = 4 x, dando un intervalo 5 donde se localicen. Solución: Denimos f(x) = arctan(x)
Más detallesAsignatura: Econometría. Conceptos MUY Básicos de Estadística
Asignatura: Econometría Conceptos MUY Básicos de Estadística Ejemplo: encuesta alumnos matriculados en la UMH Estudio: Estamos interesados en conocer el nivel de renta y otras características de los estudiantes
Más detallesCaracterísticas de funciones que son inversas de otras
Características de funciones que son inversas de otras Si f es una función inyectiva, llamamos función inversa de f y se representa por f 1 al conjunto. f 1 = a, b b, a f} Es decir, f 1 (x, y) = { x =
Más detallesSelectividad Septiembre 2006 SEPTIEMBRE 2006
Bloque A SEPTIEMBRE 2006 1.- En una fábrica trabajan 22 personas entre electricistas, administrativos y directivos. El doble del número de administrativos más el triple del número de directivos, es igual
Más detallesUniversidad del País Vasco
Universidad del País Vasco eman ta zabal zazu Euskal Herriko Unibertsitatea INSTRUCCIONES. El examen consta de 50 cuestiones. Hay una única respuesta correcta para cada cuestión. Las cuestiones respondidas
Más detallesProcesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid
PREDICCIÓN DE SEÑALES Procesos Estacionarios Francisco J. González Serrano Universidad Carlos III de Madrid Procesos Estacionarios A la hora de hacer predicciones parece obvio suponer que algo debe permanecer
Más detallesPROBABILIDAD Y ESTADÍSTICA
PROBABILIDAD Y ESTADÍSTICA 1. Sean A y B dos sucesos y A, B sus complementarios. Si se verifica que p( B) = 2 / 3, p( A B) = 3 / 4 y p( A B) = 1/ 4, hallar: p( A), p( A B), y la probabilidad condicionada
Más detallesMETODOS ESTADISTICOS.
AREA DE ESTADISTICA E INVESTIGACION DE OPERACIONES PROGRAMA: METODOS ESTADISTICOS. PROYECTO: SERVICIO DE CONSULTORIA ESTADISTICA. SERVICIO DE CONSULTORIA ESTADISTICA. Diseño con propósitos de un posterior
Más detallesPROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.
PROBLEMA. ESCUELA UNIVERSITARIA POLITÉCNICA DE SEVILLA Ingeniería Técnica en Diseño Industrial Fundamentos Matemáticos de la Ingeniería Soluciones correspondientes a los problemas del Primer Parcial 7/8.
Más detallesMatrices. Definiciones básicas de matrices. www.math.com.mx. José de Jesús Angel Angel. jjaa@math.com.mx
Matrices Definiciones básicas de matrices wwwmathcommx José de Jesús Angel Angel jjaa@mathcommx MathCon c 2007-2008 Contenido 1 Matrices 2 11 Matrices cuadradas 3 12 Matriz transpuesta 4 13 Matriz identidad
Más detallesTema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES
Tema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES 1.- Definición de variable aleatoria discreta. Normalmente, los resultados posibles (espacio muestral Ω) de un experimento aleatorio no son
Más detallesECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelación con ARMA
ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelación con ARMA Método Box-Jenkins: Un libro que ha tenido una gran influencia es el de Box y Jenkins (1976): Time Series Analysis: Forecasting and
Más detalles1. MANEJO DE SUMATORIOS. PROPIEDADES Y EJERCICIOS.
1. MANEJO DE SUMATORIOS. PROPIEDADES Y EJERCICIOS. El sumatorio o sumatoria) es un operador matemático, representado por la letra griega sigma mayúscula Σ) que permite representar de manera abreviada sumas
Más detallesGeneración de números aleatorios
Generación de números aleatorios Marcos García González (h[e]rtz) Verano 2004 Documento facilitado por la realización de la asignatura Métodos informáticos de la física de segundo curso en la universidad
Más detallesCampos conservativos. f(x) = f (x) = ( f x 1
Capítulo 1 Campos conservativos En este capítulo continuaremos estudiando las integrales de linea, concentrándonos en la siguiente pregunta: bajo qué circunstancias la integral de linea de un campo vectorial
Más detallesTema 12: Contrastes Paramétricos
Tema 1 Tema 1: Contrastes Paramétricos Presentación y Objetivos. Se comienza este tema introduciendo la terminología y conceptos característicos de los contrastes de hipótesis, típicamente a través de
Más detallesQué son los monomios?
Qué son los monomios? Recordemos qué es una expresión algebraica. Definición Una expresión algebraica es aquella en la que se utilizan letras, números y signos de operaciones. Si se observan las siguientes
Más detalles