Cota Inferior de Cramer Rao
|
|
- Esther Córdoba Serrano
- hace 7 años
- Vistas:
Transcripción
1 Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Curso 2015
2 Repaso Objetivo: Estimación de parámetros Encontrar un buen estimador de los parámetros de una señal discreta. Dado el conjunto de N datos {x[0], x[1],... x[n 1]} que dependen de un parámetro desconocido θ, Se quiere estimar θ a partir de los datos Se define un estimador ˆθ de θ, ˆθ = g(x[0], x[1],... x[n 1]) Condiciones sobre el estimador En media conduzca al valor verdadero del parámetro, E(ˆθ) = θ Estimador insesgado La variabilidad del estimador sea lo menor posible ˆθ = minvar(ˆθ) Estimador de varianza mínima Estimador insesgado de varianza mínima (MVU)
3 Cota Inferior de Cramer-Rao (CRLB) La Cota Inferior de Cramer-Rao establece una cota inferior teórica en la varianza de un estimador insesgado: Utilidad práctica var(ˆθ) CRLB(θ), para todo estimador insesgado ˆθ. Permite afirmar si un estimador insesgado es el estimador MVU. Este es el caso si el estimador alcanza la cota para todos los valores posibles del parámetro desconocido, var(ˆθ) = CRLB(θ), para todo valor de θ Provee una referencia contra la cual comparar el desempeño de cualquier estimador insesgado. Indica la imposibilidad física de encontrar un estimador insesgado con varianza menor que la cota. Esto es útil en estudios de viabilidad. La teoría permite además determinar si existe un estimador que alcanza la cota.
4 Descripción intuitiva de la CRLB Dependencia de la PDF de los datos con el parámetro Toda la información está contenida en los datos observados y en la función de densidad de probabilidad (PDF) de esos datos. Por lo tanto, la precisión de la estimación depende directamente de la PDF. No se puede esperar una estimación con mucha precisión si la PDF depende débilmente del parámetro. Análogamente, no se puede esperar una estimación precisa si el modelo depende débilmente del parámetro. Cuanto mayor es la influencia del parámetro desconocido sobre la PDF, mejor debería poder estimarse.
5 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Se quiere estimar el nivel de DC (parámetro A) en WGN cuando se observa una sola muestra, x[0] = A+w[0], donde w[0] = N(0,σ 2 ) Se espera que la estimación sea mejor si σ 2 es pequeño. Un buen estimador insesgado es  = x[0] La varianza del estimador es var(â) = σ2. La precisión del estimador mejora a medida que σ 2 decrece.
6 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Se considera la PDF para dos valores distintos de varianza [ 1 p i (x[0];a) = exp 1 ] 2πσ 2 i 2σi 2 (x[0] A) 2, con i = 1, 2. Se observa la PDF para x[0] = 3 fijo en función del parámetro desconocido. Se consideran los valores σ 1 = 1/3 y σ 2 = 1. Definición: cuando la PDF es vista como una función del parámetro desconocido con x fijo, se denomina función de verosimilitud. p 1 (x[0]=3;a) con σ 1 =1/3 p 2 (x[0]=3;a) con σ 2 = A A
7 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro con σ 1 = 1/3, los valores de A > 4 tienen una probabilidad de ( ) A x[0] Pr{A > 4 x[0] = 3} = 1 Φ = 1 Φ(3) con σ 2 = 1, los valores de A > 4 tienen una probabilidad de ( ) A x[0] Pr{A > 4 x[0] = 3} = 1 Φ = 1 Φ(1) σ 1 σ 2 p 1 (x[0]=3;a) con σ 1 =1/3 p 2 (x[0]=3;a) con σ 2 = A A
8 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Si x N(µ,σ 2 ) Pr{ x µ 3σ} Valores de A en el intervalo x[0]±3σ i son viables. Valores fuera de ese intervalo tienen una probabilidad muy pequeña. Con σ1 = 1/3, los candidatos viables son A [2, 4] Con σ2 = 1, los candidatos viables son A [0, 6] Observaciones La función de verosimilitud p 2 (x[0] = 3;A) tiene una dependencia más débil del parámetro A que p 1 (x[0] = 3;A) por lo que los candidatos viables de A se encuentran en un intervalo mas amplio. Intuitivamente, la agudeza de la función de verosimilitud determina la precisión con la cual es posible estimar el parámetro desconocido. Una forma de medir la agudeza de la función de verosimilitud es a través del opuesto de la derivada segunda respecto al parámetro (curvatura) en el pico.
9 Descripción intuitiva de la CRLB Derivada segunda del logaritmo de la función de verosimilitud La función de verosimilitud es [ 1 p(x[0];a) = exp 1 ] 2πσ 2 2σ 2(x[0] A)2 El logaritmo de la función de verosimilitud es lnp(x[0];a) = ln 2πσ 2 1 2σ 2(x[0] A)2 Tomando la derivada primera, lnp(x[0];a) A = 1 σ 2(x[0] A). y el opuesto de la derivada segunda queda, 2 lnp(x[0];a) A 2 = 1 σ 2.
10 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro 2 lnp(x[0];a) A 2 = 1 La curvatura crece a medida que la σ 2 varianza del ruido σ 2 decrece. Teniendo en cuenta que el estimador es  = x[0], y por lo tanto su varianza es var(â) = σ2, para este ejemplo particular se cumple que var(â) = 1 2 lnp(x[0];a) A 2 En este ejemplo, la derivada segunda no depende de los datos (x[0]), pero en general lo hará. Por lo tanto, una medida mas apropiada de la curvatura es [ 2 ] lnp(x[0];a) E A 2 Mide la curvatura promedio de la función de verosimilitud logarítmica. La esperanza se toma sobre los datos (x[0] en este caso), resultando en una función únicamente de A.
11 Resumen Descripción intuitiva de la CRLB Se dispone de un conjunto de datos y un modelo de los datos que depende de un parámetro desconocido que se quiere estimar. El modelo impone una PDF de los datos, la cual depende del parámetro desconocido. Si se considera la PDF como función del parámetro manteniendo fijos los datos, la función se denomina función de verosimilitud. Cuanto mas fuerte es la dependencia de la función de verosimilitud con el parámetro, éste puede estimarse con mayor precisión. Una forma de medir la dependencia de la función de verosimilitud con el parámetro es a través de la concavidad (opuesto de la derivada segunda respecto al parámetro). Cuanto mayor es la concavidad, mayor es la dependencia con el parámetro y mejor puede estimarse el parámetro. El estimador del parámetro tendrá menor varianza cuanto mayor esa la concavidad de la función de verosimilitud.
12 Cota Inferior de Cramer-Rao Teorema: Cota Inferior de Cramer-Rao, parámetro escalar Hipótesis: La PDF p(x; θ) satisface la condición de regularidad, [ ] lnp(x;θ) θ, E = 0 (1) θ Tésis: La esperanza se toma sobre los datos x. 1. La varianza de todo estimador insesgado ˆθ cumple que 1 var(ˆθ) [ 2 ] (2) lnp(x;θ) E θ 2 La derivada se evalúa en el valor verdadero de θ. La esperanza se toma sobre los datos x. 2. Existe un estimador que alcanza la cota para todo θ si y solo si lnp(x;θ) θ = I(θ)(g(x) θ) para alguna función I y g (3) Este estimador, que es el MVU, es ˆθ = g(x) y su varianza es 1 I(θ).
13 CRLB. Consideraciones. Esperanza de las derivadas de la función de verosimilitud La esperanza se toma respecto a los datos x, [ 2 ] lnp(x;θ) 2 lnp(x;θ) E θ 2 = θ 2 p(x;θ)dx La esperanza reconoce el hecho de que la función de verosimilitud y sus derivadas son variables aleatorias por depender de los datos observados x. La cota depende en general del parámetro desconocido θ.
14 CRLB. Consideraciones. Condición de regularidad [ ] lnp(x;θ) lnp(x;θ) E = p(x; θ)dx θ θ (a) p(x;θ) = dx θ (b) = p(x; θ)dx θ (c) = 0 (a) Regla de la cadena (b) Cambio del orden de integración y diferenciación (c) θ, p(x;θ)dx = 1. La condición de regularidad se cumple si es posible cambiar el oreden de integración y diferenciación. Esto es cierto en general salvo cuando el soporte de p(x;θ) depende del parámetro desconocido θ. se deduce de la regla de integración de Leibniz (ver apéndice I) Ejercicio: Demostrar que en el caso en que x U[0,θ] no se cumple la condición de regularidad y por lo tanto no es posible calcular la CRLB.
15 Ejemplo I CRLB para muestra de DC en WGN Estimar A a partir de x[0] = A+w[0] donde w[0] = N(0,σ 2 ). Eligiendo  = x[0], se tiene que var(â) = σ2. Las derivadas primera y segunda de la función de verosimilitud son, lnp(x[0];a) = 1 A σ2(x[0] A) (4) [visto en la página 9] 2 lnp(x[0];a) A 2 = 1 σ 2 (5) Aplicando la ecuación 2 de la cota de Cramer-Rao se tiene que var(â) σ2 A. No existe un estimador insesgado de varianza menor a σ 2 Conclusión: Como el estimador elegido es insesgado y alcanza la CRLB para todo A, es el estimador MVU.
16 Ejemplo I CRLB para muestra de DC en WGN En el caso de no haber descubierto a  = x[0] como estimador, se podría emplear la segunda parte del teorema de la CRLB. De la ecuación 3 del teorema de la cota de Cramer-Rao La derivada de la función de verosimiltud es (ec. 4) lnp(x;θ) lnp(x[0];a) = I(θ)(g(x) θ) = 1 θ A σ 2(x[0] A) Identificando términos Se concluye que θ = A I(θ) = 1 σ 2 g(x[0]) = x[0]  = g(x[0]) = x[0] es el estimador MVU. var( Â) = 1 I(θ) = σ2 Como el estimador alcanza la cota, se cumple la ecuación 2 con igualdad, y [ ] 2 lnp(x[0];a) I(θ) = E A 2
17 Ejemplo II CRLB para nivel de DC en WGN Como generalización del ejemplo anterior, en este caso se observan múltiples muestras del nivel de continua en WGN, x[n] = A+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n Se quiere determinar la CRLB de A. La función de verosimilitud es N 1 [ 1 p(x;a) = exp 1 ] n=0 2πσ 2 2σ 2(x[n] A)2 [ ] 1 = exp 1 N 1 (2πσ 2 ) N 2 2σ 2 (x[n] A) 2. Tomando el logaritmo queda, n=0 [ ] lnp(x;a) = ln (2πσ 2 ) N 2 1 N 1 2σ 2 (x[n] A) 2 (6) n=0
18 Ejemplo II CRLB para nivel de DC en WGN Aplicando la derivada primera se tiene que lnp(x;a) A { } = [ ] ln (2πσ 2 ) N 2 1 N 1 A 2σ 2 (x[n] A) 2 = 1 N 1 σ 2 (x[n] A) n=0 ( = N 1 σ 2 N y diferenciando nuevamente, N 1 n=0 x[n] A ) n=0 = N ( x A) (7) σ2 2 lnp(x;a) A 2 = N σ 2
19 Ejemplo II CRLB para nivel de DC en WGN Teniendo en cuenta que la derivada segunda es constante, empleando la ecuación 2 se obtiene la CRLB, var(â) 1 [ 2 ] = σ2 lnp(x;a) N. (8) E A 2 Además, asociando los términos de la ecuación 7 con los de la ecuación 3 se llega a que  = x (media muestral) alcanza la CRLB y por lo tanto es el estimador MVU. La ecuación 8 se cumple con igualdad, var(â) = 1 I(A) = σ2 N. La varianza del estimador es inversamente proporcional a la cantidad de datos observados.
20 Ejemplo III Estimación de fase Se quiere estimar la fase φ de una sinusoide contaminada con WGN, x[n] = Acos(2πf 0 n+φ)+w[n] con n = 0, 1,...,N 1, donde w[n] N(0,σ 2 ) para todo n. La derivada del logaritmo de la función de verosimilitud es (ejercicio) lnp(x;φ) φ Además = A N 1 σ 2 n=0 [ x[n]sin(2πf 0 n+φ) A ] 2 sin(4πf 0n+2φ). [ 2 ] lnp(x;φ) E φ 2 NA2 2σ 2 = var(ˆφ) 2σ2 NA 2 No se cumple la condición para alcanzar la cota porque la ecuación 9 no se puede expresar en la forma de la ecuación 3. Es posible que de todas formas exista un estimador MVU, pero mediante el teorema de Cramer-Rao no es posible determinar su existencia ni encontrarlo. (9)
21 Estimador eficiente Definición Un estimador que es insesgado y alcanza la cota de Cramer-Rao para todos los valores del parámetro desconocido se dice que es eficiente. Obsevación Un estimador MVU puede ser o no ser eficiente. ˆθ 1 es eficiente y MVU ˆθ1 es MVU pero no eficiente ˆθ1 alcanza la CRLB y por lo tanto es el MVU. Ninguno alcanza la CRLB. La varianza de ˆθ 1 es menor que la de los otros estimadores insesgados. Es el MVU.
22 Definición La información de Fisher para los datos x se define como: Información de Fisher [ 2 ] lnp(x;θ) I(θ) = E θ 2 (10) Cuando un estimador alcanza la CRLB, su varianza es: Propiedades I(θ) tiene las propiedades de una medida de información: 1 var(ˆθ) = [ 2 ] = 1 lnp(x;θ) I(θ) E θ 2 Es no-negativa. Esto puede verse a partir de la siguiente igualdad: -Ejercicio, ver Apéndice 3A [ 2 ] [ ( lnp(x;θ) ) ] 2 en [Kay, 1993] lnp(x;θ) E θ 2 = E θ Es aditiva para observaciones independientes Si I(θ) es la información de N observaciones IID y i(θ) de una única observación -Ejercicio: calcular la CRLB para nivel de DC en WGN I(θ) = Ni(θ)
23 Información de Fisher Aditividad para observaciones IID La densidad de probabilidad de N observaciones IID cumple que p(x;θ) = p(x[0],x[1],...,x[n 1];θ) = La información de Fisher es entonces [ 2 ] lnp(x;θ) I(θ) = E θ 2 N 1 = n=0 N 1 n=0 p(x[n];θ). [ 2 ] lnp(x[n];θ) E θ 2 = Ni(θ), [ 2 ] lnp(x[n];θ) con i(θ) = E θ 2 la información de Fisher de una muestra. La CRLB al observar N muestras IID es N veces menor que al observar una muestra (como en los ejemplos I y II) Independencia No Independencia Dependencia completa I(θ) = Ni(θ) I(θ) < Ni(θ) I(θ) = i(θ)
24 CRLB general para señales en WGN Se derivará la CRLB para el caso de una señal s[n;θ] con AWGN, frecuente en la práctica. Sea una señal determinística con un parámetro desconocido θ observada en AWGN, x[n] = s[n;θ]+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n La función de verosimilitud es [ ] 1 p(x;θ) = exp 1 N 1 (2πσ 2 ) N 2 2σ 2 (x[n] s[n;θ]) 2 Tomando el logaritmo queda n=0 [ ] lnp(x;θ) = ln (2πσ 2 ) N 2 1 N 1 2σ 2 (x[n] s[n;θ]) 2 Diferenciando una vez se tiene que lnp(x;θ) θ n=0 = 1 N 1 σ 2 (x[n] s[n;θ]) s(n;θ) θ n=0
25 CRLB general para señales en WGN Una segunda diferenciación resulta en [ 2 lnp(x;θ) θ 2 = 1 N 1 σ 2 (x[n] s[n;θ]) 2 s(n;θ) θ 2 n=0 ( ) ] 2 s(n;θ) θ y tomando el valor esperado, ( 2 ) [ lnp(x;θ) E θ 2 = 1σ N 1 ( ) ] 2 2 (E(x[n]) s[n;θ]) 2 s(n;θ) s(n;θ) θ 2 θ n=0 (a) = 1 N 1 ( ) 2 s(n;θ) σ 2, θ n=0 en donde en (a) se empleó que E(x[n]) = s[n;θ]. La CRLB es por lo tanto var(ˆθ) N 1 n=0 σ 2 ( s(n;θ) θ ) 2 (11) Se obtiene una mejor estimación cuando la señal cambia mas rápidamente con el parámetro.
26 CRLB general para señales en WGN Ejemplo: Estimación de la frecuencia de una sinusoide Se considera una señal sinusoidal en AWGN y se quiere estimar su frecuencia. Sea la señal x[n] = s[n;θ]+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n donde s[n;f 0 ] = Acos(2πf 0 n+φ) con 0 < f 0 < 1 2 con la amplitud A y la fase φ conocida. Usando la ecuación 11, la CRLB es var(ˆf 0 ) σ 2 A 2 N 1 [2πnsen(2πf 0 n+φ)] 2 n=0
27 CRLB general para señales en WGN Ejemplo: Estimación de la frecuencia de una sinusoide Observaciones En la precisión del estimador hay frecuencias preferidas. Cuando f 0 0, CRLB. Esto es porque para f 0 0, pequeños cambios en f 0 no alteran la señal significativamente. Mediante la teoría de Cramer-Rao, se encontró una cota de la varianza del estimador, pero no es posible encontrar el estimador en este ejemplo. 4 x 10 4 Estimacion de frecuencia, N = 10, φ = 0, SNR = 0 db CRLB Frecuencia
28 Transformación de parámetros Ejemplo: potencia de DC en WGN En el Ejemplo II se vio que x es un estimador eficiente de A. Podría ocurrir que no interese el signo de A y en cambio interese por ejemplo, la potencia A 2 de la señal. Surgen las preguntas: 1. x 2 es un buen estimador de A 2? 2. Cómo obtener la CRLB de A 2? 1. x 2 como estimador de A 2 : estudio del sesgo. Como x es un estimador eficiente de A y la CRLB(A) = σ 2 /N, x N(A,σ 2 /N) E ( x 2) = E 2 ( x)+var( x) = A 2 + σ2 N (12) A 2 x 2 ni siquiera es un estimador insesgado de A 2 Una transformación no lineal destruye la eficiencia de un estimador.
29 Transformación de parámetros Ejemplo: potencia de DC en WGN 2. Cálculo de la CRLB de A 2 Teorema: La CRLB del estimador de α = g(θ) es ( ) 2 g θ var(ˆα) [ 2 ] = lnp(x;θ) E θ 2 Ver demostración en Apéndice 3A en [Kay, 1993] En el caso del ejemplo, α = g(a) = A 2 y por lo tanto, ( ) 2 g CRLB(ˆθ) (13) θ var(â2 ) (2A)2 N/σ 2 = 4A2 σ 2 N (14) Observación: Al emplear la ecuación 13, la CRLB queda en general expresada en función del valor del parámetro θ.
30 Transformación de parámetros Eficiencia bajo transformaciones lineales Se supone que ˆθ es un estimador eficiente de θ y se quiere estimar g(θ) = aθ +b. Como estimador se elige ĝ(θ) = g(ˆθ) = aˆθ +b. Esperanza Varianza CRLB ( ) 2 ) g E (ĝ(θ) = E(aˆθ +b) ) ) θ var (ĝ(θ) var (ĝ(θ) = var(aˆθ +b) I(θ) = ae(ˆθ)+b ( ) 2 = aθ +b = a 2 var(ˆθ) g = var(ˆθ) θ = g(θ) = a 2 var(ˆθ) ) El estimador transformado es insesgado, ya que E (ĝ(θ) = g(θ). También es eficiente, ya que la varianza coincide con la CRLB. Las transformaciones lineales mantienen la eficiencia de los estimadores
31 Transformación de parámetros Sesgo y eficiencia asintóticos La eficiencia es aproximadamente mantenida bajo transformaciones no lineales si el conjunto de datos es suficientemente grande Estimador asintóticamente insesgado: lim N E(ˆθ) = θ Estimador asintóticamente eficiente: lim N var(ˆθ) = CRLB(θ) Ejemplo: potencia de DC en WGN Previamente se vio que x 2 es un estimador sesgado de A 2. Sin embargo, la esperanza es (ecuación 12) E( x 2 ) = A 2 + σ2 N N A2 x 2 es un estimador asintóticamente insesgado de A 2
32 Transformación de parámetros Ejemplo: potencia de DC en WGN Además, como x N(A,σ 2 /N) es posible evaluar la varianza, var( x 2 ) = E( x 4 ) E 2 ( x 2 ) Observación: Si ξ N(µ,σ 2 ), los momentos segundo y cuarto son respectivamente, E(ξ 2 ) = µ 2 +σ 2 E(ξ 4 ) = µ 4 +6µ 2 σ 2 +3σ 4 Demostración: ejercicio. var(ξ 2 ) = E(ξ 4 ) E 2 (ξ 2 ) = 4µ 2 σ 2 +2σ 4 var( x 2 ) = 4A2 σ 2 N + 2σ4 4A 2 σ 2 N 2 N N = CRLB( x2 ) x 2 es un estimador asintóticamente eficiente de A 2
33 Transformación de parámetros Linealidad estadística de una transformación no lineal A medida que crece N, la PDF de x se concentra alrededor de la media A. Los valores observados de x están en un intervalo pequeño en torno de A. En ese intervalo pequeño, la transformación no lineal es aproximadamente lineal. Los valores de x en la región no lineal ocurren raramente. N pequeño N grande
34 Transformación de parámetros Linealidad estadística de una transformación no lineal Formalmente, esto se puede ver linealizando la transformación g en A, g( x) g(a)+ dg(a) da ( x A). Con esta aproximación, se cumple que E[g( x)] = g(a)+ dg(a) da (E( x) A) = g(a) = A 2 El estimador es asintóticamente insesgado [ ] 2 dg(a) var[g( x)] = var( x) (15) da = (2A) 2σ2 N = 4A2 σ 2 N El estimador alcanza la CRLB asintóticamente La linealización conduce a un estimador asintóticamente eficiente. La ecuación 15 provee intuición de la forma de la ecuación 13.
35 Transformación de parámetros Resumen Una transformación lineal de un estimador eficiente mantiene la eficiencia. El estimador transformado es un estimador eficiente del parámetro transformado. Una transformación no lineal de un estimador eficiente destruye la eficiencia, e incluso puede hacerlo sesgado. Sin embargo, el estimador transformado no linealmente es asintóticamente insesgado y eficiente. Cuando la cantidad N de datos crece, el estimador tiende a ser insesgado y eficiente.
36 Extensión a vector de parámetros Se estudiará la extensión de los resultados al caso en que hay mas de un parámetro desconocido. Se desea estimar el vector de parámetros θ = [θ 1 θ 2...θ p ] T. Asumiendo que el estimador ˆθ es insesgado, la CRLB para un vector de parámetros establece una cota en la varianza de cada elemento, var(ˆθ i ) [ I 1 (θ) ] ii, donde I(θ) es la matriz de información de Fisher p p. La matriz de información de Fisher se define como [ 2 ] lnp(x;θ) i = 1, 2,...,p [I(θ)] ij = E, con θ i θ j j = 1, 2,...,p (16) en donde al evaluar esta ecuación hay que emplear el valor verdadero de θ. Notar que en el caso escalar (p = 1), I(θ) = I(θ), con I(θ) definida en la ecuación 10, obteniendo la CRLB escalar.
37 Ejemplo IV CRLB para nivel de DC en WGN Como extensión del Ejemplo II, se considera la observación de N muestras del nivel de continua en WGN, x[n] = A+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n pero ahora, además de desconocerse A también se desconococe σ 2. En este caso, el vector de parámetros es θ = [ A σ 2] T, y p = 2. La matriz de información de Fisher 2 2 es, [ 2 ] [ lnp(x;θ) 2 ] lnp(x;θ) E I(θ) = A 2 E A σ 2 [ 2 ] [ lnp(x;θ) 2 ] lnp(x;θ), E σ 2 E A simétrica y definida positiva. σ 22
38 Ejemplo IV CRLB para nivel de DC en WGN La función de verosimilitud logarítmica, al igual que en el ejemplo II (ecuación 6), es lnp(x;θ) = N 2 ln2π N 2 lnσ2 1 N 1 2σ 2 (x[n] A) 2. y las derivadas son (ejercicio), 2 lnp(x;θ) A 2 = N σ 2 2 lnp(x;θ) A σ 2 = 1 σ 4 2 lnp(x;θ) σ 22 n=0 N 1 (x[n] A) n=0 = N 2σ 4 1 N 1 σ 6 (x[n] A) 2 n=0
39 Ejemplo IV CRLB para nivel de DC en WGN Tomando el opuesto de la esperanza, se construye la matriz de Fisher, I(θ) = N 0 σ 2 N 0 2σ 4. Como en este caso la matriz de Fisher es diagonal, es fácil de invertir, conduciendo a que la cota de Cramer-Rao es Observaciones σ2 var(â) N var( ˆσ 2 ) 2σ4 N La CRLB de  es la misma que en el caso en que σ2 es conocido (ejemplo II). Análogamente, se puede ver que la CRLB de ˆσ 2 es la misma si A es conocido (ejercicio). Lo anterior se debe a que la matriz de Fisher es diagonal.
40 Extensión a vector de parámetros Teorema: Cota Inferior de Cramer-Rao, parámetro vectorial Hipótesis: La PDF p(x; θ) satisface la condición de regularidad, [ ] lnp(x;θ) θ, E θ Tésis: = 0 La esperanza se toma respecto a los datos x. 1. La matriz de covarianza de todo estimador insesgado ˆθ cumple que [ Cˆθ I 1 2 ] lnp(x;θ) (θ) 0, donde [I(θ)] ij = E (17) θ i θ j I(θ) es la matriz de información de Fisher 0 se interpreta en el sentido de matriz semidefinida positiva La derivada se evalúa en el valor verdadero de θ. La esperanza se toma respecto a los datos x. 2. Existe un estimador que alcanza la cota Cˆθ = I 1 (θ) si y solo si para alguna función g : R lnp(x;θ) N R p y = I(θ)(g(x) θ) (18) alguna matriz I p p. θ Ese estimador es ˆθ = g(x) con matriz de covarianza I 1, MVU.
41 Consecuencias Extensión a vector de parámetros Como en una matriz semidefinida positiva todos los elementos de la diagonal son no negativos, la ecuación 17 implica que [ Cˆθ I 1 (θ) ] ii 0 Por lo tanto, la varianza de cada elemento del vector estimador cumple que var(ˆθ i ) = [ ] Cˆθ [ I 1 (θ) ]. (19) ii ii Si se cumple la condición de la ecuación 18, la ecuación 19 se cumple con igualdad, var(ˆθ i ) = [ I 1 (θ) ] ii. El estimador ˆθ = g(x) es eficiente y por lo tanto MVU. Ver la definición de la matrix de covarianza en el apéndice en pag. 45
42 Distribución de probabilidad Apéndice I La distribución de probabilidad (CDF, Cumulative Distribution Function) de una variable aleatoria real X se define como F X (x) = Pr{X x}. Se puede expresar como la integral de la PDF p X (x) como F X (x) = x p X (u)du. p X (x)=n(0,1) Si X N(0,1), la CDF se denomina función Φ, 3 Φ(x) 3 x Φ(x) = 1 2π x e u2 /2 du, y sus valores están tabulados. 3 3 x
43 Apéndice I Distribución de probabilidad Si X es una variable aleatoria con X N(µ,σ 2 ), se cumple que ( ) x µ Pr{X x} = Φ σ Notar que la transformación de la variable aleatoria hace que X N(0,1). x = x µ σ
44 Apéndice II Regla de Integración de Leibniz ( ) d b(θ) b(θ) f(x, θ) f(x,θ)dx = dx+f ( b(θ),θ ) b (θ) f ( a(θ),θ ) a (θ) dθ a(θ) a(θ) θ De la regla surge que el orden de derivación y integración puede cambiarse si los ĺımites de integración no dependen de θ, a(θ) = a b(θ) = b a (θ) = b (θ) = 0, y ( d b ) b f(x, θ) f(x,θ)dx = dx. dθ a a θ
45 Covarianza Apéndice III La covarianza entre dos variables aleatorias X y Y se define como cov(x,y) = E [ (X E[X])(Y E[Y]) ] = E[XY] E[X]E[Y]. Es una medida de la dependencia entre variables aleatorias. Definición: dos variables aleatorias X y Y se dicen no correlacionadas si cov(x,y) = 0. Independencia: si dos variables aleatorias X y Y son independientes se cumple que cov(x,y) = 0, cov(x,y) = E[XY] E[X]E[Y] = E[X]E[Y] E[X]E[Y] = 0. (Lo recíproco no es cierto.)
46 Apéndice III Matriz de Covarianza Sea el vector de variables aleatorias X = [ ] T, X 1 X 2...X n la matriz de covarianza se define como C = E [(X E[X])(X E[X]) T] donde la esperanza de un vector y una matriz con entradas aleatorias se define como la esperanza de las entradas.
47 Apéndice III Matriz de Covarianza C = E[(X 1 µ 1)(X 1 µ 1)] E[(X 1 µ 1)(X 2 µ 2)] E[(X 1 µ 1)(X n µ n)] E[(X 2 µ 2)(X 1 µ 1)] E[(X 2 µ 2)(X 2 µ 2)] E[(X 2 µ 2)(X n µ n)] E[(X n µ n)(x 1 µ 1)] E[(X n µ n)(x 2 µ 2)] E[(X n µ n)(x n µ n)] = var(x 1) cov(x 1,X 2) cov(x 1,X n) cov(x 2,X 1) var(x 2) cov(x 2,X n) cov(x n,x 1) cov(x n,x 2) var(x n)
48 Referencias I Kay, S. M. (1993). Fundamentals of Statistical Signal Processing, Volume I: Estimation Theory, chapter 3. Prentice Hall, 1st edition.
Tema 4: Variables aleatorias multidimensionales
Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia
Más detallesEconometría II Grado en finanzas y contabilidad
Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es
Más detallesTema 4: Variables aleatorias multidimensionales
1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica
Más detallesRESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre
Más detallesVariables aleatorias
Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,
Más detallesINTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión
INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------
Más detallesEjercicios de Variables Aleatorias
Ejercicios de Variables Aleatorias Elisa M. Molanes-López, Depto. Estadística, UC3M Transformaciones de variables aleatorias Ejercicio. Sea X una v.a. continua con función de densidad dada por: /, si
Más detallesDistribuciones de probabilidad bidimensionales o conjuntas
Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso
Más detallesEL7002 - Estimación y Detección
EL7002 - Estimación y Detección Clase No. 9: Mejor Estimador Lineal Insesgado Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile P. Parada, DIE-UCh EL7002, Clase No. 9: Mejor Estimador
Más detallesTeorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
Más detallesConceptos Básicos de Inferencia
Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Más detalles1. La Distribución Normal
1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando
Más detallesModelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:
Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz
Más detallesEL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)
EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento
Más detallesRepaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Más detallesINTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)
INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesCapítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Más detallesCálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Más detalles8. Estimación puntual
8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores
Más detallesDerivada de la función compuesta. Regla de la cadena
Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de
Más detallesTema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
Más detallesSimulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Más detallesFunción diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad
Diferenciabilidad 1 Función diferenciable 2 Regla de la cadena (2 variables) 3 Regla de la cadena (vectorial) OBJETIVO Generalizar el concepto de diferenciabilidad (conocido ya para funciones de una variable)
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesProf. Eliana Guzmán U. Semestre A-2015
Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos
Más detallesAnálisis de datos Categóricos
Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores
Más detallesANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.
ANEXO 1. CONCEPTOS BÁSICOS Este anexo contiene información que complementa el entendimiento de la tesis presentada. Aquí se exponen técnicas de cálculo que son utilizados en los procedimientos de los modelos
Más detallesVARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
Más detallesTema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.
ema El Modelo de Regresión Lineal con Regresores Aleatorios Introducción En este tema vamos a analizar las propiedades del modelo de regresión lineal con regresores aleatorios Suponer que los regresores
Más detallesTema 7 Intervalos de confianza Hugo S. Salinas
Intervalos de confianza Hugo S. Salinas 1 Introducción Hemos definido la inferencia estadística como un proceso que usa información proveniente de la muestra para generalizar y tomar decisiones acerca
Más detallesCampo Magnético en un alambre recto.
Campo Magnético en un alambre recto. A.M. Velasco (133384) J.P. Soler (133380) O.A. Botina (133268) Departamento de física, facultad de ciencias, Universidad Nacional de Colombia Resumen. Se hizo pasar
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.
Más detallesMétodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B
Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Marzo 2010 Contenidos...............................................................
Más detallesIntroducción al Tema 9
Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables
Más detalles2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...
Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................
Más detallesVariables aleatorias unidimensionales
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen
Más detallesEstimación por intervalo del parámetro de la distribución de Poisson con una sola observación
Revista Colombiana de Estadística Volumen 30 No. 1. pp. 69 a 75. Junio 2007 Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación Interval Estimation for the Poisson
Más detallesEconometria de Datos en Paneles
Universidad de San Andres Agosto de 2011 Porque paneles? Ejemplo (Cronwell y Trumbull): Determinantes del crimen y = g(i), y = crimen, I = variables de justicia criminal. Corte transversal: (y i, I i )
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre
Más detallesAlgunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda
Más detallesPLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07
PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.
Más detallesTema 8: Contraste de hipótesis
Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste
Más detallesTransformaciones de variables
Transformaciones de variables Introducción La tipificación de variables resulta muy útil para eliminar su dependencia respecto a las unidades de medida empleadas. En realidad, una tipificación equivale
Más detalles520142: ALGEBRA y ALGEBRA LINEAL
520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición
Más detallesExamen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos
Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos Problema 1 (3 puntos) Se considera el sistema lineal de ecuaciones, dependiente del parámetro
Más detallesTema 9: Contraste de hipótesis.
Estadística 84 Tema 9: Contraste de hipótesis. 9.1 Introducción. El objetivo de este tema es proporcionar métodos que permiten decidir si una hipótesis estadística debe o no ser rechazada, en base a los
Más detallesSistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad
Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.
Más detallesÓrdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple
Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.
Más detallesRobusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico
Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,
Más detallesPreliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL
INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL Contenido Preliminares 1 Preliminares Teorema 2 Contenido Preliminares Teorema 1 Preliminares Teorema 2 Teorema Preliminares Teorema Teorema: Serie de Taylor Supongamos
Más detallesVariables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Más detallesPROBABILIDAD Y ESTADÍSTICA
FACULTAD DE INGENIERÍA U N A M PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@unam.mx T E M A S DEL CURSO 1. Análisis Estadístico de datos muestrales. 2. Fundamentos de la Teoría de la
Más detallesCurso de Probabilidad y Estadística
Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica
Más detallesModelado de la aleatoriedad: Distribuciones
Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva Bvitoriano@mat.ucm.es Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:
Más detallesDERIVADAS PARCIALES Y APLICACIONES
CAPITULO IV CALCULO II 4.1 DEFINICIÓN DERIVADAS PARCIALES Y APLICACIONES En cálculo una derivada parcial de una función de diversas variables es su derivada respecto a una de esas variables con las otras
Más detallesNORMALIDAD ASINTÓTICA PARA LOS E-GINI. Pablo Martínez Camblor RESUMEN
Vol. 9 - pp. 35-42 Junio - Noviembre 2005 - ISSN: 0329-5583 http://vaca.agro.uncor.edu/~revistasae/ NORMALIDAD ASINTÓTICA PARA LOS E-GINI Pablo Martínez Camblor UAMAC, Universidad Autónoma de Tamaulipas,
Más detalles2 x
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Importante: Visita regularmente ttp://www.dim.ucile.cl/~calculo. Aí encontrarás las guías de ejercicios
Más detallesEstimación MC3E, MVIC en Modelos de Ecuaciones Simultáneas
Estimación MC3E, MVIC en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contenidos 1 Información Completa 2 3 Información Completa Un método de información completa considera
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesEl Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
Más detallesINFERENCIA ESTADISTICA
1 INFERENCIA ESTADISTICA Es una rama de la Estadística que se ocupa de los procedimientos que nos permiten analizar y extraer conclusiones de una población a partir de los datos de una muestra aleatoria,
Más detallesTema 6. Variables aleatorias continuas
Tema 6. Variables aleatorias continuas Resumen del tema 6.1. Definición de variable aleatoria continua Identificación de una variable aleatoria continua X: es preciso conocer su función de densidad, f(x),
Más detallesEL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria
EL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 5 de Noviembre de 2010 1 of 34 Contenidos de la Clase (1)
Más detalles1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido
E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesDeterminación del tamaño de muestra (para una sola muestra)
STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto
Más detallesAnálisis de procesos estocásticos en el dominio del tiempo
Análisis de procesos estocásticos en el dominio del tiempo F. Javier Cara ETSII-UPM Curso 2012-2013 1 Contenido Introducción Procesos estocásticos Variables aleatorias Una variable aleatoria Dos variables
Más detallesIntroducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.
Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos
Más detallesEJERCICIOS RESUELTOS DE ESTADÍSTICA II
EJERCICIOS RESUELTOS DE ESTADÍSTICA II RESUMEN DE EJERCICIOS DADOS EN CLASES POR: EILEEN JOHANA ARAGONES GENEY DISTRIBUCIONES DOCENTE: JUAN CARLOS VERGARA SCHMALBACH ESTIMACIÓN PRUEBAS DE HIPÓTESIS Grupo
Más detallesESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):
ESTADÍSTICA AYUDAS PARA EL TEST (1ºParcial) 1) La suma de probabilidades de todos los casos posibles de un experimento tiene que ser igual a uno. 2) La probabilidad de aprobar este test (5 preguntas, cada
Más detallesCAPÍTULO 4 TÉCNICA PERT
54 CAPÍTULO 4 TÉCNICA PERT Como ya se mencionó en capítulos anteriores, la técnica CPM considera las duraciones de las actividades como determinísticas, esto es, hay el supuesto de que se realizarán con
Más detallesMATEMÁTICAS 2º DE BACHILLERATO
MATRICES 1. Matrices y tipos de matrices 2. Operaciones con matrices 3. Producto de matrices 4. Matriz traspuesta 5. Matriz inversa 6. Rango de matrices DETERMINANTES 7. Determinantes de orden 2 y 3 8.
Más detallesTema 1. Espacios Vectoriales Definición de Espacio Vectorial
Tema 1 Espacios Vectoriales. 1.1. Definición de Espacio Vectorial Notas 1.1.1. Denotaremos por N, Z, Q, R, C, a los conjuntos de los números Naturales, Enteros, Racionales, Reales y Complejos, respectivamente.
Más detallesDescomposición en valores singulares de una matriz
Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran
Más detallesDistribuciones de probabilidad
Distribuciones de probabilidad Prof, Dr. Jose Jacobo Zubcoff Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir
Más detallesTema 5. Contraste de hipótesis (I)
Tema 5. Contraste de hipótesis (I) CA UNED de Huelva, "Profesor Dr. José Carlos Vílchez Martín" Introducción Bienvenida Objetivos pedagógicos: Conocer el concepto de hipótesis estadística Conocer y estimar
Más detallesConceptos del contraste de hipótesis
Análisis de datos y gestión veterinaria Contraste de hipótesis Departamento de Producción Animal Facultad de Veterinaria Universidad de Córdoba Córdoba, 14 de Diciembre de 211 Conceptos del contraste de
Más detallesBLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE
BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE El concepto de derivada. Relación entre continuidad y derivabilidad. Función derivada. Operaciones con derivadas. Derivación de las funciones
Más detallesLímites y continuidad de funciones reales de variable real
Límites y continuidad de funciones reales de variable real Álvarez S., Caballero M.V. y Sánchez M. a M. salvarez@um.es, m.victori@um.es, marvega@um.es Índice 1. Definiciones 3 2. Herramientas 10 2.1. Funciones
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesDistribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Más detallesNombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)
Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Enero 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe que los
Más detallesESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua
ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:
Más detallesObjetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev
PROBABILIDAD Y ESTADÍSTICA Sesión MODELOS ANALÍTICOS DE FENÓMENOS ALEATORIOS CONTINUOS. Definición de variable aleatoria continua. Función de densidad y acumulatíva. Valor esperado, varianza y desviación
Más detallesIII Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios
III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo
Más detallesDistribuciones de Probabilidad
Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica
Más detallesEspacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1
Espacios Vectoriales 201 6Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Espacios Vectoriales... 4 1.1 Definición de espacio vectorial... 4 1.2 Definición de subespacio vectorial...
Más detallesCálculo en varias variables
Cálculo en varias variables Dpto. Matemática Aplicada Universidad de Málaga Resumen Límites y continuidad Funciones de varias variables Límites y continuidad en varias variables 1 Límites y continuidad
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detallesJUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Más detallesPrueba Integral Lapso /6
Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,
Más detallesVariable Aleatoria Continua. Principales Distribuciones
Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables
Más detallesINDICE. Prólogo a la Segunda Edición
INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.
Más detallesDistribuciones Continuas de. Probabilidad. Dr. Víctor Aguirre Torres, ITAM. Guión 7.
Distribuciones Continuas de Probabilidad 1 Contenido 1. Ejemplo. 2. Diferencia entre variables aleatorias discretas y continuas. 3. Diferencia de f(x) entre variables aleatorias discretas y continuas.
Más detalles5. DISTRIBUCIOES COTIUAS DE PROBABILIDAD
Distribución normal 5. DISTRIBUCIOES COTIUAS DE PROBABILIDAD La distribución continua de probabilidad más importante en todo el campo de la estadística es la distribución normal. Su grafica, que se denomina
Más detallesEsta definición se puede ampliar a cualquier par de bases de los espacio inicial y final MATRIZ DE UNA APLICACIÓN LINEAL EN BASES ARBITRARIAS
Cambios de base 3 3. CAMBIOS DE BASE Dada una aplicación lineal : y la base,,, se ha definido matriz en bases canónicas de la aplicación lineal a la matriz,, cuyas columnas son las coordenadas de en la
Más detallesANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre
ANX-PR/CL/001-01 GUÍA DE APRENDIZAJE ASIGNATURA Estadistica CURSO ACADÉMICO - SEMESTRE 2016-17 - Primer semestre GA_05IQ_55001012_1S_2016-17 Datos Descriptivos Nombre de la Asignatura Titulación Centro
Más detalles2. Continuidad y derivabilidad. Aplicaciones
Métodos Matemáticos (Curso 2013 2014) Grado en Óptica y Optometría 7 2. Continuidad y derivabilidad. Aplicaciones Límite de una función en un punto Sea una función f(x) definida en el entorno de un punto
Más detalles1. VALORES FALTANTES 2. MECANISMOS DE PÉRDIDA
1. VALORES FALTANTES Los valores faltantes son observaciones que en un se tenía la intención de hacerlas, pero por distintas razones no se obtuvieron. Puede ser que no se encuentre a un encuestado, entonces
Más detalles