Cota Inferior de Cramer Rao

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Cota Inferior de Cramer Rao"

Transcripción

1 Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Curso 2015

2 Repaso Objetivo: Estimación de parámetros Encontrar un buen estimador de los parámetros de una señal discreta. Dado el conjunto de N datos {x[0], x[1],... x[n 1]} que dependen de un parámetro desconocido θ, Se quiere estimar θ a partir de los datos Se define un estimador ˆθ de θ, ˆθ = g(x[0], x[1],... x[n 1]) Condiciones sobre el estimador En media conduzca al valor verdadero del parámetro, E(ˆθ) = θ Estimador insesgado La variabilidad del estimador sea lo menor posible ˆθ = minvar(ˆθ) Estimador de varianza mínima Estimador insesgado de varianza mínima (MVU)

3 Cota Inferior de Cramer-Rao (CRLB) La Cota Inferior de Cramer-Rao establece una cota inferior teórica en la varianza de un estimador insesgado: Utilidad práctica var(ˆθ) CRLB(θ), para todo estimador insesgado ˆθ. Permite afirmar si un estimador insesgado es el estimador MVU. Este es el caso si el estimador alcanza la cota para todos los valores posibles del parámetro desconocido, var(ˆθ) = CRLB(θ), para todo valor de θ Provee una referencia contra la cual comparar el desempeño de cualquier estimador insesgado. Indica la imposibilidad física de encontrar un estimador insesgado con varianza menor que la cota. Esto es útil en estudios de viabilidad. La teoría permite además determinar si existe un estimador que alcanza la cota.

4 Descripción intuitiva de la CRLB Dependencia de la PDF de los datos con el parámetro Toda la información está contenida en los datos observados y en la función de densidad de probabilidad (PDF) de esos datos. Por lo tanto, la precisión de la estimación depende directamente de la PDF. No se puede esperar una estimación con mucha precisión si la PDF depende débilmente del parámetro. Análogamente, no se puede esperar una estimación precisa si el modelo depende débilmente del parámetro. Cuanto mayor es la influencia del parámetro desconocido sobre la PDF, mejor debería poder estimarse.

5 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Se quiere estimar el nivel de DC (parámetro A) en WGN cuando se observa una sola muestra, x[0] = A+w[0], donde w[0] = N(0,σ 2 ) Se espera que la estimación sea mejor si σ 2 es pequeño. Un buen estimador insesgado es  = x[0] La varianza del estimador es var(â) = σ2. La precisión del estimador mejora a medida que σ 2 decrece.

6 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Se considera la PDF para dos valores distintos de varianza [ 1 p i (x[0];a) = exp 1 ] 2πσ 2 i 2σi 2 (x[0] A) 2, con i = 1, 2. Se observa la PDF para x[0] = 3 fijo en función del parámetro desconocido. Se consideran los valores σ 1 = 1/3 y σ 2 = 1. Definición: cuando la PDF es vista como una función del parámetro desconocido con x fijo, se denomina función de verosimilitud. p 1 (x[0]=3;a) con σ 1 =1/3 p 2 (x[0]=3;a) con σ 2 = A A

7 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro con σ 1 = 1/3, los valores de A > 4 tienen una probabilidad de ( ) A x[0] Pr{A > 4 x[0] = 3} = 1 Φ = 1 Φ(3) con σ 2 = 1, los valores de A > 4 tienen una probabilidad de ( ) A x[0] Pr{A > 4 x[0] = 3} = 1 Φ = 1 Φ(1) σ 1 σ 2 p 1 (x[0]=3;a) con σ 1 =1/3 p 2 (x[0]=3;a) con σ 2 = A A

8 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro Si x N(µ,σ 2 ) Pr{ x µ 3σ} Valores de A en el intervalo x[0]±3σ i son viables. Valores fuera de ese intervalo tienen una probabilidad muy pequeña. Con σ1 = 1/3, los candidatos viables son A [2, 4] Con σ2 = 1, los candidatos viables son A [0, 6] Observaciones La función de verosimilitud p 2 (x[0] = 3;A) tiene una dependencia más débil del parámetro A que p 1 (x[0] = 3;A) por lo que los candidatos viables de A se encuentran en un intervalo mas amplio. Intuitivamente, la agudeza de la función de verosimilitud determina la precisión con la cual es posible estimar el parámetro desconocido. Una forma de medir la agudeza de la función de verosimilitud es a través del opuesto de la derivada segunda respecto al parámetro (curvatura) en el pico.

9 Descripción intuitiva de la CRLB Derivada segunda del logaritmo de la función de verosimilitud La función de verosimilitud es [ 1 p(x[0];a) = exp 1 ] 2πσ 2 2σ 2(x[0] A)2 El logaritmo de la función de verosimilitud es lnp(x[0];a) = ln 2πσ 2 1 2σ 2(x[0] A)2 Tomando la derivada primera, lnp(x[0];a) A = 1 σ 2(x[0] A). y el opuesto de la derivada segunda queda, 2 lnp(x[0];a) A 2 = 1 σ 2.

10 Descripción intuitiva de la CRLB Ejemplo: dependencia de la PDF con el parámetro 2 lnp(x[0];a) A 2 = 1 La curvatura crece a medida que la σ 2 varianza del ruido σ 2 decrece. Teniendo en cuenta que el estimador es  = x[0], y por lo tanto su varianza es var(â) = σ2, para este ejemplo particular se cumple que var(â) = 1 2 lnp(x[0];a) A 2 En este ejemplo, la derivada segunda no depende de los datos (x[0]), pero en general lo hará. Por lo tanto, una medida mas apropiada de la curvatura es [ 2 ] lnp(x[0];a) E A 2 Mide la curvatura promedio de la función de verosimilitud logarítmica. La esperanza se toma sobre los datos (x[0] en este caso), resultando en una función únicamente de A.

11 Resumen Descripción intuitiva de la CRLB Se dispone de un conjunto de datos y un modelo de los datos que depende de un parámetro desconocido que se quiere estimar. El modelo impone una PDF de los datos, la cual depende del parámetro desconocido. Si se considera la PDF como función del parámetro manteniendo fijos los datos, la función se denomina función de verosimilitud. Cuanto mas fuerte es la dependencia de la función de verosimilitud con el parámetro, éste puede estimarse con mayor precisión. Una forma de medir la dependencia de la función de verosimilitud con el parámetro es a través de la concavidad (opuesto de la derivada segunda respecto al parámetro). Cuanto mayor es la concavidad, mayor es la dependencia con el parámetro y mejor puede estimarse el parámetro. El estimador del parámetro tendrá menor varianza cuanto mayor esa la concavidad de la función de verosimilitud.

12 Cota Inferior de Cramer-Rao Teorema: Cota Inferior de Cramer-Rao, parámetro escalar Hipótesis: La PDF p(x; θ) satisface la condición de regularidad, [ ] lnp(x;θ) θ, E = 0 (1) θ Tésis: La esperanza se toma sobre los datos x. 1. La varianza de todo estimador insesgado ˆθ cumple que 1 var(ˆθ) [ 2 ] (2) lnp(x;θ) E θ 2 La derivada se evalúa en el valor verdadero de θ. La esperanza se toma sobre los datos x. 2. Existe un estimador que alcanza la cota para todo θ si y solo si lnp(x;θ) θ = I(θ)(g(x) θ) para alguna función I y g (3) Este estimador, que es el MVU, es ˆθ = g(x) y su varianza es 1 I(θ).

13 CRLB. Consideraciones. Esperanza de las derivadas de la función de verosimilitud La esperanza se toma respecto a los datos x, [ 2 ] lnp(x;θ) 2 lnp(x;θ) E θ 2 = θ 2 p(x;θ)dx La esperanza reconoce el hecho de que la función de verosimilitud y sus derivadas son variables aleatorias por depender de los datos observados x. La cota depende en general del parámetro desconocido θ.

14 CRLB. Consideraciones. Condición de regularidad [ ] lnp(x;θ) lnp(x;θ) E = p(x; θ)dx θ θ (a) p(x;θ) = dx θ (b) = p(x; θ)dx θ (c) = 0 (a) Regla de la cadena (b) Cambio del orden de integración y diferenciación (c) θ, p(x;θ)dx = 1. La condición de regularidad se cumple si es posible cambiar el oreden de integración y diferenciación. Esto es cierto en general salvo cuando el soporte de p(x;θ) depende del parámetro desconocido θ. se deduce de la regla de integración de Leibniz (ver apéndice I) Ejercicio: Demostrar que en el caso en que x U[0,θ] no se cumple la condición de regularidad y por lo tanto no es posible calcular la CRLB.

15 Ejemplo I CRLB para muestra de DC en WGN Estimar A a partir de x[0] = A+w[0] donde w[0] = N(0,σ 2 ). Eligiendo  = x[0], se tiene que var(â) = σ2. Las derivadas primera y segunda de la función de verosimilitud son, lnp(x[0];a) = 1 A σ2(x[0] A) (4) [visto en la página 9] 2 lnp(x[0];a) A 2 = 1 σ 2 (5) Aplicando la ecuación 2 de la cota de Cramer-Rao se tiene que var(â) σ2 A. No existe un estimador insesgado de varianza menor a σ 2 Conclusión: Como el estimador elegido es insesgado y alcanza la CRLB para todo A, es el estimador MVU.

16 Ejemplo I CRLB para muestra de DC en WGN En el caso de no haber descubierto a  = x[0] como estimador, se podría emplear la segunda parte del teorema de la CRLB. De la ecuación 3 del teorema de la cota de Cramer-Rao La derivada de la función de verosimiltud es (ec. 4) lnp(x;θ) lnp(x[0];a) = I(θ)(g(x) θ) = 1 θ A σ 2(x[0] A) Identificando términos Se concluye que θ = A I(θ) = 1 σ 2 g(x[0]) = x[0]  = g(x[0]) = x[0] es el estimador MVU. var( Â) = 1 I(θ) = σ2 Como el estimador alcanza la cota, se cumple la ecuación 2 con igualdad, y [ ] 2 lnp(x[0];a) I(θ) = E A 2

17 Ejemplo II CRLB para nivel de DC en WGN Como generalización del ejemplo anterior, en este caso se observan múltiples muestras del nivel de continua en WGN, x[n] = A+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n Se quiere determinar la CRLB de A. La función de verosimilitud es N 1 [ 1 p(x;a) = exp 1 ] n=0 2πσ 2 2σ 2(x[n] A)2 [ ] 1 = exp 1 N 1 (2πσ 2 ) N 2 2σ 2 (x[n] A) 2. Tomando el logaritmo queda, n=0 [ ] lnp(x;a) = ln (2πσ 2 ) N 2 1 N 1 2σ 2 (x[n] A) 2 (6) n=0

18 Ejemplo II CRLB para nivel de DC en WGN Aplicando la derivada primera se tiene que lnp(x;a) A { } = [ ] ln (2πσ 2 ) N 2 1 N 1 A 2σ 2 (x[n] A) 2 = 1 N 1 σ 2 (x[n] A) n=0 ( = N 1 σ 2 N y diferenciando nuevamente, N 1 n=0 x[n] A ) n=0 = N ( x A) (7) σ2 2 lnp(x;a) A 2 = N σ 2

19 Ejemplo II CRLB para nivel de DC en WGN Teniendo en cuenta que la derivada segunda es constante, empleando la ecuación 2 se obtiene la CRLB, var(â) 1 [ 2 ] = σ2 lnp(x;a) N. (8) E A 2 Además, asociando los términos de la ecuación 7 con los de la ecuación 3 se llega a que  = x (media muestral) alcanza la CRLB y por lo tanto es el estimador MVU. La ecuación 8 se cumple con igualdad, var(â) = 1 I(A) = σ2 N. La varianza del estimador es inversamente proporcional a la cantidad de datos observados.

20 Ejemplo III Estimación de fase Se quiere estimar la fase φ de una sinusoide contaminada con WGN, x[n] = Acos(2πf 0 n+φ)+w[n] con n = 0, 1,...,N 1, donde w[n] N(0,σ 2 ) para todo n. La derivada del logaritmo de la función de verosimilitud es (ejercicio) lnp(x;φ) φ Además = A N 1 σ 2 n=0 [ x[n]sin(2πf 0 n+φ) A ] 2 sin(4πf 0n+2φ). [ 2 ] lnp(x;φ) E φ 2 NA2 2σ 2 = var(ˆφ) 2σ2 NA 2 No se cumple la condición para alcanzar la cota porque la ecuación 9 no se puede expresar en la forma de la ecuación 3. Es posible que de todas formas exista un estimador MVU, pero mediante el teorema de Cramer-Rao no es posible determinar su existencia ni encontrarlo. (9)

21 Estimador eficiente Definición Un estimador que es insesgado y alcanza la cota de Cramer-Rao para todos los valores del parámetro desconocido se dice que es eficiente. Obsevación Un estimador MVU puede ser o no ser eficiente. ˆθ 1 es eficiente y MVU ˆθ1 es MVU pero no eficiente ˆθ1 alcanza la CRLB y por lo tanto es el MVU. Ninguno alcanza la CRLB. La varianza de ˆθ 1 es menor que la de los otros estimadores insesgados. Es el MVU.

22 Definición La información de Fisher para los datos x se define como: Información de Fisher [ 2 ] lnp(x;θ) I(θ) = E θ 2 (10) Cuando un estimador alcanza la CRLB, su varianza es: Propiedades I(θ) tiene las propiedades de una medida de información: 1 var(ˆθ) = [ 2 ] = 1 lnp(x;θ) I(θ) E θ 2 Es no-negativa. Esto puede verse a partir de la siguiente igualdad: -Ejercicio, ver Apéndice 3A [ 2 ] [ ( lnp(x;θ) ) ] 2 en [Kay, 1993] lnp(x;θ) E θ 2 = E θ Es aditiva para observaciones independientes Si I(θ) es la información de N observaciones IID y i(θ) de una única observación -Ejercicio: calcular la CRLB para nivel de DC en WGN I(θ) = Ni(θ)

23 Información de Fisher Aditividad para observaciones IID La densidad de probabilidad de N observaciones IID cumple que p(x;θ) = p(x[0],x[1],...,x[n 1];θ) = La información de Fisher es entonces [ 2 ] lnp(x;θ) I(θ) = E θ 2 N 1 = n=0 N 1 n=0 p(x[n];θ). [ 2 ] lnp(x[n];θ) E θ 2 = Ni(θ), [ 2 ] lnp(x[n];θ) con i(θ) = E θ 2 la información de Fisher de una muestra. La CRLB al observar N muestras IID es N veces menor que al observar una muestra (como en los ejemplos I y II) Independencia No Independencia Dependencia completa I(θ) = Ni(θ) I(θ) < Ni(θ) I(θ) = i(θ)

24 CRLB general para señales en WGN Se derivará la CRLB para el caso de una señal s[n;θ] con AWGN, frecuente en la práctica. Sea una señal determinística con un parámetro desconocido θ observada en AWGN, x[n] = s[n;θ]+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n La función de verosimilitud es [ ] 1 p(x;θ) = exp 1 N 1 (2πσ 2 ) N 2 2σ 2 (x[n] s[n;θ]) 2 Tomando el logaritmo queda n=0 [ ] lnp(x;θ) = ln (2πσ 2 ) N 2 1 N 1 2σ 2 (x[n] s[n;θ]) 2 Diferenciando una vez se tiene que lnp(x;θ) θ n=0 = 1 N 1 σ 2 (x[n] s[n;θ]) s(n;θ) θ n=0

25 CRLB general para señales en WGN Una segunda diferenciación resulta en [ 2 lnp(x;θ) θ 2 = 1 N 1 σ 2 (x[n] s[n;θ]) 2 s(n;θ) θ 2 n=0 ( ) ] 2 s(n;θ) θ y tomando el valor esperado, ( 2 ) [ lnp(x;θ) E θ 2 = 1σ N 1 ( ) ] 2 2 (E(x[n]) s[n;θ]) 2 s(n;θ) s(n;θ) θ 2 θ n=0 (a) = 1 N 1 ( ) 2 s(n;θ) σ 2, θ n=0 en donde en (a) se empleó que E(x[n]) = s[n;θ]. La CRLB es por lo tanto var(ˆθ) N 1 n=0 σ 2 ( s(n;θ) θ ) 2 (11) Se obtiene una mejor estimación cuando la señal cambia mas rápidamente con el parámetro.

26 CRLB general para señales en WGN Ejemplo: Estimación de la frecuencia de una sinusoide Se considera una señal sinusoidal en AWGN y se quiere estimar su frecuencia. Sea la señal x[n] = s[n;θ]+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n donde s[n;f 0 ] = Acos(2πf 0 n+φ) con 0 < f 0 < 1 2 con la amplitud A y la fase φ conocida. Usando la ecuación 11, la CRLB es var(ˆf 0 ) σ 2 A 2 N 1 [2πnsen(2πf 0 n+φ)] 2 n=0

27 CRLB general para señales en WGN Ejemplo: Estimación de la frecuencia de una sinusoide Observaciones En la precisión del estimador hay frecuencias preferidas. Cuando f 0 0, CRLB. Esto es porque para f 0 0, pequeños cambios en f 0 no alteran la señal significativamente. Mediante la teoría de Cramer-Rao, se encontró una cota de la varianza del estimador, pero no es posible encontrar el estimador en este ejemplo. 4 x 10 4 Estimacion de frecuencia, N = 10, φ = 0, SNR = 0 db CRLB Frecuencia

28 Transformación de parámetros Ejemplo: potencia de DC en WGN En el Ejemplo II se vio que x es un estimador eficiente de A. Podría ocurrir que no interese el signo de A y en cambio interese por ejemplo, la potencia A 2 de la señal. Surgen las preguntas: 1. x 2 es un buen estimador de A 2? 2. Cómo obtener la CRLB de A 2? 1. x 2 como estimador de A 2 : estudio del sesgo. Como x es un estimador eficiente de A y la CRLB(A) = σ 2 /N, x N(A,σ 2 /N) E ( x 2) = E 2 ( x)+var( x) = A 2 + σ2 N (12) A 2 x 2 ni siquiera es un estimador insesgado de A 2 Una transformación no lineal destruye la eficiencia de un estimador.

29 Transformación de parámetros Ejemplo: potencia de DC en WGN 2. Cálculo de la CRLB de A 2 Teorema: La CRLB del estimador de α = g(θ) es ( ) 2 g θ var(ˆα) [ 2 ] = lnp(x;θ) E θ 2 Ver demostración en Apéndice 3A en [Kay, 1993] En el caso del ejemplo, α = g(a) = A 2 y por lo tanto, ( ) 2 g CRLB(ˆθ) (13) θ var(â2 ) (2A)2 N/σ 2 = 4A2 σ 2 N (14) Observación: Al emplear la ecuación 13, la CRLB queda en general expresada en función del valor del parámetro θ.

30 Transformación de parámetros Eficiencia bajo transformaciones lineales Se supone que ˆθ es un estimador eficiente de θ y se quiere estimar g(θ) = aθ +b. Como estimador se elige ĝ(θ) = g(ˆθ) = aˆθ +b. Esperanza Varianza CRLB ( ) 2 ) g E (ĝ(θ) = E(aˆθ +b) ) ) θ var (ĝ(θ) var (ĝ(θ) = var(aˆθ +b) I(θ) = ae(ˆθ)+b ( ) 2 = aθ +b = a 2 var(ˆθ) g = var(ˆθ) θ = g(θ) = a 2 var(ˆθ) ) El estimador transformado es insesgado, ya que E (ĝ(θ) = g(θ). También es eficiente, ya que la varianza coincide con la CRLB. Las transformaciones lineales mantienen la eficiencia de los estimadores

31 Transformación de parámetros Sesgo y eficiencia asintóticos La eficiencia es aproximadamente mantenida bajo transformaciones no lineales si el conjunto de datos es suficientemente grande Estimador asintóticamente insesgado: lim N E(ˆθ) = θ Estimador asintóticamente eficiente: lim N var(ˆθ) = CRLB(θ) Ejemplo: potencia de DC en WGN Previamente se vio que x 2 es un estimador sesgado de A 2. Sin embargo, la esperanza es (ecuación 12) E( x 2 ) = A 2 + σ2 N N A2 x 2 es un estimador asintóticamente insesgado de A 2

32 Transformación de parámetros Ejemplo: potencia de DC en WGN Además, como x N(A,σ 2 /N) es posible evaluar la varianza, var( x 2 ) = E( x 4 ) E 2 ( x 2 ) Observación: Si ξ N(µ,σ 2 ), los momentos segundo y cuarto son respectivamente, E(ξ 2 ) = µ 2 +σ 2 E(ξ 4 ) = µ 4 +6µ 2 σ 2 +3σ 4 Demostración: ejercicio. var(ξ 2 ) = E(ξ 4 ) E 2 (ξ 2 ) = 4µ 2 σ 2 +2σ 4 var( x 2 ) = 4A2 σ 2 N + 2σ4 4A 2 σ 2 N 2 N N = CRLB( x2 ) x 2 es un estimador asintóticamente eficiente de A 2

33 Transformación de parámetros Linealidad estadística de una transformación no lineal A medida que crece N, la PDF de x se concentra alrededor de la media A. Los valores observados de x están en un intervalo pequeño en torno de A. En ese intervalo pequeño, la transformación no lineal es aproximadamente lineal. Los valores de x en la región no lineal ocurren raramente. N pequeño N grande

34 Transformación de parámetros Linealidad estadística de una transformación no lineal Formalmente, esto se puede ver linealizando la transformación g en A, g( x) g(a)+ dg(a) da ( x A). Con esta aproximación, se cumple que E[g( x)] = g(a)+ dg(a) da (E( x) A) = g(a) = A 2 El estimador es asintóticamente insesgado [ ] 2 dg(a) var[g( x)] = var( x) (15) da = (2A) 2σ2 N = 4A2 σ 2 N El estimador alcanza la CRLB asintóticamente La linealización conduce a un estimador asintóticamente eficiente. La ecuación 15 provee intuición de la forma de la ecuación 13.

35 Transformación de parámetros Resumen Una transformación lineal de un estimador eficiente mantiene la eficiencia. El estimador transformado es un estimador eficiente del parámetro transformado. Una transformación no lineal de un estimador eficiente destruye la eficiencia, e incluso puede hacerlo sesgado. Sin embargo, el estimador transformado no linealmente es asintóticamente insesgado y eficiente. Cuando la cantidad N de datos crece, el estimador tiende a ser insesgado y eficiente.

36 Extensión a vector de parámetros Se estudiará la extensión de los resultados al caso en que hay mas de un parámetro desconocido. Se desea estimar el vector de parámetros θ = [θ 1 θ 2...θ p ] T. Asumiendo que el estimador ˆθ es insesgado, la CRLB para un vector de parámetros establece una cota en la varianza de cada elemento, var(ˆθ i ) [ I 1 (θ) ] ii, donde I(θ) es la matriz de información de Fisher p p. La matriz de información de Fisher se define como [ 2 ] lnp(x;θ) i = 1, 2,...,p [I(θ)] ij = E, con θ i θ j j = 1, 2,...,p (16) en donde al evaluar esta ecuación hay que emplear el valor verdadero de θ. Notar que en el caso escalar (p = 1), I(θ) = I(θ), con I(θ) definida en la ecuación 10, obteniendo la CRLB escalar.

37 Ejemplo IV CRLB para nivel de DC en WGN Como extensión del Ejemplo II, se considera la observación de N muestras del nivel de continua en WGN, x[n] = A+w[n] con n = 0, 1,...,N 1 y w[n] N(0,σ 2 ) n pero ahora, además de desconocerse A también se desconococe σ 2. En este caso, el vector de parámetros es θ = [ A σ 2] T, y p = 2. La matriz de información de Fisher 2 2 es, [ 2 ] [ lnp(x;θ) 2 ] lnp(x;θ) E I(θ) = A 2 E A σ 2 [ 2 ] [ lnp(x;θ) 2 ] lnp(x;θ), E σ 2 E A simétrica y definida positiva. σ 22

38 Ejemplo IV CRLB para nivel de DC en WGN La función de verosimilitud logarítmica, al igual que en el ejemplo II (ecuación 6), es lnp(x;θ) = N 2 ln2π N 2 lnσ2 1 N 1 2σ 2 (x[n] A) 2. y las derivadas son (ejercicio), 2 lnp(x;θ) A 2 = N σ 2 2 lnp(x;θ) A σ 2 = 1 σ 4 2 lnp(x;θ) σ 22 n=0 N 1 (x[n] A) n=0 = N 2σ 4 1 N 1 σ 6 (x[n] A) 2 n=0

39 Ejemplo IV CRLB para nivel de DC en WGN Tomando el opuesto de la esperanza, se construye la matriz de Fisher, I(θ) = N 0 σ 2 N 0 2σ 4. Como en este caso la matriz de Fisher es diagonal, es fácil de invertir, conduciendo a que la cota de Cramer-Rao es Observaciones σ2 var(â) N var( ˆσ 2 ) 2σ4 N La CRLB de  es la misma que en el caso en que σ2 es conocido (ejemplo II). Análogamente, se puede ver que la CRLB de ˆσ 2 es la misma si A es conocido (ejercicio). Lo anterior se debe a que la matriz de Fisher es diagonal.

40 Extensión a vector de parámetros Teorema: Cota Inferior de Cramer-Rao, parámetro vectorial Hipótesis: La PDF p(x; θ) satisface la condición de regularidad, [ ] lnp(x;θ) θ, E θ Tésis: = 0 La esperanza se toma respecto a los datos x. 1. La matriz de covarianza de todo estimador insesgado ˆθ cumple que [ Cˆθ I 1 2 ] lnp(x;θ) (θ) 0, donde [I(θ)] ij = E (17) θ i θ j I(θ) es la matriz de información de Fisher 0 se interpreta en el sentido de matriz semidefinida positiva La derivada se evalúa en el valor verdadero de θ. La esperanza se toma respecto a los datos x. 2. Existe un estimador que alcanza la cota Cˆθ = I 1 (θ) si y solo si para alguna función g : R lnp(x;θ) N R p y = I(θ)(g(x) θ) (18) alguna matriz I p p. θ Ese estimador es ˆθ = g(x) con matriz de covarianza I 1, MVU.

41 Consecuencias Extensión a vector de parámetros Como en una matriz semidefinida positiva todos los elementos de la diagonal son no negativos, la ecuación 17 implica que [ Cˆθ I 1 (θ) ] ii 0 Por lo tanto, la varianza de cada elemento del vector estimador cumple que var(ˆθ i ) = [ ] Cˆθ [ I 1 (θ) ]. (19) ii ii Si se cumple la condición de la ecuación 18, la ecuación 19 se cumple con igualdad, var(ˆθ i ) = [ I 1 (θ) ] ii. El estimador ˆθ = g(x) es eficiente y por lo tanto MVU. Ver la definición de la matrix de covarianza en el apéndice en pag. 45

42 Distribución de probabilidad Apéndice I La distribución de probabilidad (CDF, Cumulative Distribution Function) de una variable aleatoria real X se define como F X (x) = Pr{X x}. Se puede expresar como la integral de la PDF p X (x) como F X (x) = x p X (u)du. p X (x)=n(0,1) Si X N(0,1), la CDF se denomina función Φ, 3 Φ(x) 3 x Φ(x) = 1 2π x e u2 /2 du, y sus valores están tabulados. 3 3 x

43 Apéndice I Distribución de probabilidad Si X es una variable aleatoria con X N(µ,σ 2 ), se cumple que ( ) x µ Pr{X x} = Φ σ Notar que la transformación de la variable aleatoria hace que X N(0,1). x = x µ σ

44 Apéndice II Regla de Integración de Leibniz ( ) d b(θ) b(θ) f(x, θ) f(x,θ)dx = dx+f ( b(θ),θ ) b (θ) f ( a(θ),θ ) a (θ) dθ a(θ) a(θ) θ De la regla surge que el orden de derivación y integración puede cambiarse si los ĺımites de integración no dependen de θ, a(θ) = a b(θ) = b a (θ) = b (θ) = 0, y ( d b ) b f(x, θ) f(x,θ)dx = dx. dθ a a θ

45 Covarianza Apéndice III La covarianza entre dos variables aleatorias X y Y se define como cov(x,y) = E [ (X E[X])(Y E[Y]) ] = E[XY] E[X]E[Y]. Es una medida de la dependencia entre variables aleatorias. Definición: dos variables aleatorias X y Y se dicen no correlacionadas si cov(x,y) = 0. Independencia: si dos variables aleatorias X y Y son independientes se cumple que cov(x,y) = 0, cov(x,y) = E[XY] E[X]E[Y] = E[X]E[Y] E[X]E[Y] = 0. (Lo recíproco no es cierto.)

46 Apéndice III Matriz de Covarianza Sea el vector de variables aleatorias X = [ ] T, X 1 X 2...X n la matriz de covarianza se define como C = E [(X E[X])(X E[X]) T] donde la esperanza de un vector y una matriz con entradas aleatorias se define como la esperanza de las entradas.

47 Apéndice III Matriz de Covarianza C = E[(X 1 µ 1)(X 1 µ 1)] E[(X 1 µ 1)(X 2 µ 2)] E[(X 1 µ 1)(X n µ n)] E[(X 2 µ 2)(X 1 µ 1)] E[(X 2 µ 2)(X 2 µ 2)] E[(X 2 µ 2)(X n µ n)] E[(X n µ n)(x 1 µ 1)] E[(X n µ n)(x 2 µ 2)] E[(X n µ n)(x n µ n)] = var(x 1) cov(x 1,X 2) cov(x 1,X n) cov(x 2,X 1) var(x 2) cov(x 2,X n) cov(x n,x 1) cov(x n,x 2) var(x n)

48 Referencias I Kay, S. M. (1993). Fundamentals of Statistical Signal Processing, Volume I: Estimation Theory, chapter 3. Prentice Hall, 1st edition.

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales 1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

Variables aleatorias

Variables aleatorias Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,

Más detalles

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------

Más detalles

Ejercicios de Variables Aleatorias

Ejercicios de Variables Aleatorias Ejercicios de Variables Aleatorias Elisa M. Molanes-López, Depto. Estadística, UC3M Transformaciones de variables aleatorias Ejercicio. Sea X una v.a. continua con función de densidad dada por: /, si

Más detalles

Distribuciones de probabilidad bidimensionales o conjuntas

Distribuciones de probabilidad bidimensionales o conjuntas Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso

Más detalles

EL7002 - Estimación y Detección

EL7002 - Estimación y Detección EL7002 - Estimación y Detección Clase No. 9: Mejor Estimador Lineal Insesgado Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile P. Parada, DIE-UCh EL7002, Clase No. 9: Mejor Estimador

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema: Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Repaso de conceptos de álgebra lineal

Repaso de conceptos de álgebra lineal MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso

Más detalles

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith) INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

Capítulo 6: Variable Aleatoria Bidimensional

Capítulo 6: Variable Aleatoria Bidimensional Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

8. Estimación puntual

8. Estimación puntual 8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

Tema 2 Datos multivariantes

Tema 2 Datos multivariantes Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad Diferenciabilidad 1 Función diferenciable 2 Regla de la cadena (2 variables) 3 Regla de la cadena (vectorial) OBJETIVO Generalizar el concepto de diferenciabilidad (conocido ya para funciones de una variable)

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Prof. Eliana Guzmán U. Semestre A-2015

Prof. Eliana Guzmán U. Semestre A-2015 Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos

Más detalles

Análisis de datos Categóricos

Análisis de datos Categóricos Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores

Más detalles

ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.

ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada. ANEXO 1. CONCEPTOS BÁSICOS Este anexo contiene información que complementa el entendimiento de la tesis presentada. Aquí se exponen técnicas de cálculo que son utilizados en los procedimientos de los modelos

Más detalles

VARIABLES ALEATORIAS DISCRETAS

VARIABLES ALEATORIAS DISCRETAS VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:

Más detalles

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios. ema El Modelo de Regresión Lineal con Regresores Aleatorios Introducción En este tema vamos a analizar las propiedades del modelo de regresión lineal con regresores aleatorios Suponer que los regresores

Más detalles

Tema 7 Intervalos de confianza Hugo S. Salinas

Tema 7 Intervalos de confianza Hugo S. Salinas Intervalos de confianza Hugo S. Salinas 1 Introducción Hemos definido la inferencia estadística como un proceso que usa información proveniente de la muestra para generalizar y tomar decisiones acerca

Más detalles

Campo Magnético en un alambre recto.

Campo Magnético en un alambre recto. Campo Magnético en un alambre recto. A.M. Velasco (133384) J.P. Soler (133380) O.A. Botina (133268) Departamento de física, facultad de ciencias, Universidad Nacional de Colombia Resumen. Se hizo pasar

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.

Más detalles

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Marzo 2010 Contenidos...............................................................

Más detalles

Introducción al Tema 9

Introducción al Tema 9 Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables

Más detalles

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición... Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................

Más detalles

Variables aleatorias unidimensionales

Variables aleatorias unidimensionales Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen

Más detalles

Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación

Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación Revista Colombiana de Estadística Volumen 30 No. 1. pp. 69 a 75. Junio 2007 Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación Interval Estimation for the Poisson

Más detalles

Econometria de Datos en Paneles

Econometria de Datos en Paneles Universidad de San Andres Agosto de 2011 Porque paneles? Ejemplo (Cronwell y Trumbull): Determinantes del crimen y = g(i), y = crimen, I = variables de justicia criminal. Corte transversal: (y i, I i )

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.

Más detalles

Tema 8: Contraste de hipótesis

Tema 8: Contraste de hipótesis Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste

Más detalles

Transformaciones de variables

Transformaciones de variables Transformaciones de variables Introducción La tipificación de variables resulta muy útil para eliminar su dependencia respecto a las unidades de medida empleadas. En realidad, una tipificación equivale

Más detalles

520142: ALGEBRA y ALGEBRA LINEAL

520142: ALGEBRA y ALGEBRA LINEAL 520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición

Más detalles

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos Problema 1 (3 puntos) Se considera el sistema lineal de ecuaciones, dependiente del parámetro

Más detalles

Tema 9: Contraste de hipótesis.

Tema 9: Contraste de hipótesis. Estadística 84 Tema 9: Contraste de hipótesis. 9.1 Introducción. El objetivo de este tema es proporcionar métodos que permiten decidir si una hipótesis estadística debe o no ser rechazada, en base a los

Más detalles

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.

Más detalles

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.

Más detalles

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,

Más detalles

Preliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL

Preliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL Contenido Preliminares 1 Preliminares Teorema 2 Contenido Preliminares Teorema 1 Preliminares Teorema 2 Teorema Preliminares Teorema Teorema: Serie de Taylor Supongamos

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA FACULTAD DE INGENIERÍA U N A M PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@unam.mx T E M A S DEL CURSO 1. Análisis Estadístico de datos muestrales. 2. Fundamentos de la Teoría de la

Más detalles

Curso de Probabilidad y Estadística

Curso de Probabilidad y Estadística Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica

Más detalles

Modelado de la aleatoriedad: Distribuciones

Modelado de la aleatoriedad: Distribuciones Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva Bvitoriano@mat.ucm.es Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:

Más detalles

DERIVADAS PARCIALES Y APLICACIONES

DERIVADAS PARCIALES Y APLICACIONES CAPITULO IV CALCULO II 4.1 DEFINICIÓN DERIVADAS PARCIALES Y APLICACIONES En cálculo una derivada parcial de una función de diversas variables es su derivada respecto a una de esas variables con las otras

Más detalles

NORMALIDAD ASINTÓTICA PARA LOS E-GINI. Pablo Martínez Camblor RESUMEN

NORMALIDAD ASINTÓTICA PARA LOS E-GINI. Pablo Martínez Camblor RESUMEN Vol. 9 - pp. 35-42 Junio - Noviembre 2005 - ISSN: 0329-5583 http://vaca.agro.uncor.edu/~revistasae/ NORMALIDAD ASINTÓTICA PARA LOS E-GINI Pablo Martínez Camblor UAMAC, Universidad Autónoma de Tamaulipas,

Más detalles

2 x

2 x FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Importante: Visita regularmente ttp://www.dim.ucile.cl/~calculo. Aí encontrarás las guías de ejercicios

Más detalles

Estimación MC3E, MVIC en Modelos de Ecuaciones Simultáneas

Estimación MC3E, MVIC en Modelos de Ecuaciones Simultáneas Estimación MC3E, MVIC en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contenidos 1 Información Completa 2 3 Información Completa Un método de información completa considera

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

INFERENCIA ESTADISTICA

INFERENCIA ESTADISTICA 1 INFERENCIA ESTADISTICA Es una rama de la Estadística que se ocupa de los procedimientos que nos permiten analizar y extraer conclusiones de una población a partir de los datos de una muestra aleatoria,

Más detalles

Tema 6. Variables aleatorias continuas

Tema 6. Variables aleatorias continuas Tema 6. Variables aleatorias continuas Resumen del tema 6.1. Definición de variable aleatoria continua Identificación de una variable aleatoria continua X: es preciso conocer su función de densidad, f(x),

Más detalles

EL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria

EL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria EL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 5 de Noviembre de 2010 1 of 34 Contenidos de la Clase (1)

Más detalles

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Determinación del tamaño de muestra (para una sola muestra)

Determinación del tamaño de muestra (para una sola muestra) STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto

Más detalles

Análisis de procesos estocásticos en el dominio del tiempo

Análisis de procesos estocásticos en el dominio del tiempo Análisis de procesos estocásticos en el dominio del tiempo F. Javier Cara ETSII-UPM Curso 2012-2013 1 Contenido Introducción Procesos estocásticos Variables aleatorias Una variable aleatoria Dos variables

Más detalles

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos

Más detalles

EJERCICIOS RESUELTOS DE ESTADÍSTICA II

EJERCICIOS RESUELTOS DE ESTADÍSTICA II EJERCICIOS RESUELTOS DE ESTADÍSTICA II RESUMEN DE EJERCICIOS DADOS EN CLASES POR: EILEEN JOHANA ARAGONES GENEY DISTRIBUCIONES DOCENTE: JUAN CARLOS VERGARA SCHMALBACH ESTIMACIÓN PRUEBAS DE HIPÓTESIS Grupo

Más detalles

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5): ESTADÍSTICA AYUDAS PARA EL TEST (1ºParcial) 1) La suma de probabilidades de todos los casos posibles de un experimento tiene que ser igual a uno. 2) La probabilidad de aprobar este test (5 preguntas, cada

Más detalles

CAPÍTULO 4 TÉCNICA PERT

CAPÍTULO 4 TÉCNICA PERT 54 CAPÍTULO 4 TÉCNICA PERT Como ya se mencionó en capítulos anteriores, la técnica CPM considera las duraciones de las actividades como determinísticas, esto es, hay el supuesto de que se realizarán con

Más detalles

MATEMÁTICAS 2º DE BACHILLERATO

MATEMÁTICAS 2º DE BACHILLERATO MATRICES 1. Matrices y tipos de matrices 2. Operaciones con matrices 3. Producto de matrices 4. Matriz traspuesta 5. Matriz inversa 6. Rango de matrices DETERMINANTES 7. Determinantes de orden 2 y 3 8.

Más detalles

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial Tema 1 Espacios Vectoriales. 1.1. Definición de Espacio Vectorial Notas 1.1.1. Denotaremos por N, Z, Q, R, C, a los conjuntos de los números Naturales, Enteros, Racionales, Reales y Complejos, respectivamente.

Más detalles

Descomposición en valores singulares de una matriz

Descomposición en valores singulares de una matriz Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran

Más detalles

Distribuciones de probabilidad

Distribuciones de probabilidad Distribuciones de probabilidad Prof, Dr. Jose Jacobo Zubcoff Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir

Más detalles

Tema 5. Contraste de hipótesis (I)

Tema 5. Contraste de hipótesis (I) Tema 5. Contraste de hipótesis (I) CA UNED de Huelva, "Profesor Dr. José Carlos Vílchez Martín" Introducción Bienvenida Objetivos pedagógicos: Conocer el concepto de hipótesis estadística Conocer y estimar

Más detalles

Conceptos del contraste de hipótesis

Conceptos del contraste de hipótesis Análisis de datos y gestión veterinaria Contraste de hipótesis Departamento de Producción Animal Facultad de Veterinaria Universidad de Córdoba Córdoba, 14 de Diciembre de 211 Conceptos del contraste de

Más detalles

BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE

BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE El concepto de derivada. Relación entre continuidad y derivabilidad. Función derivada. Operaciones con derivadas. Derivación de las funciones

Más detalles

Límites y continuidad de funciones reales de variable real

Límites y continuidad de funciones reales de variable real Límites y continuidad de funciones reales de variable real Álvarez S., Caballero M.V. y Sánchez M. a M. salvarez@um.es, m.victori@um.es, marvega@um.es Índice 1. Definiciones 3 2. Herramientas 10 2.1. Funciones

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

Distribuciones de probabilidad multivariadas

Distribuciones de probabilidad multivariadas Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable

Más detalles

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010)

Nombre y Apellidos:... EXAMEN ECONOMETRÍA II (Enero 2010) Nombre y Apellidos:... NIU:... Grupo:... EXAMEN ECONOMETRÍA II (Enero 2010) Lea cuidadosamente cada pregunta. Marque muy claramente la respuesta de cada pregunta en la hoja de respuestas. Observe que los

Más detalles

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:

Más detalles

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev PROBABILIDAD Y ESTADÍSTICA Sesión MODELOS ANALÍTICOS DE FENÓMENOS ALEATORIOS CONTINUOS. Definición de variable aleatoria continua. Función de densidad y acumulatíva. Valor esperado, varianza y desviación

Más detalles

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo

Más detalles

Distribuciones de Probabilidad

Distribuciones de Probabilidad Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica

Más detalles

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1 Espacios Vectoriales 201 6Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Espacios Vectoriales... 4 1.1 Definición de espacio vectorial... 4 1.2 Definición de subespacio vectorial...

Más detalles

Cálculo en varias variables

Cálculo en varias variables Cálculo en varias variables Dpto. Matemática Aplicada Universidad de Málaga Resumen Límites y continuidad Funciones de varias variables Límites y continuidad en varias variables 1 Límites y continuidad

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme

Más detalles

Prueba Integral Lapso /6

Prueba Integral Lapso /6 Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,

Más detalles

Variable Aleatoria Continua. Principales Distribuciones

Variable Aleatoria Continua. Principales Distribuciones Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

Distribuciones Continuas de. Probabilidad. Dr. Víctor Aguirre Torres, ITAM. Guión 7.

Distribuciones Continuas de. Probabilidad. Dr. Víctor Aguirre Torres, ITAM. Guión 7. Distribuciones Continuas de Probabilidad 1 Contenido 1. Ejemplo. 2. Diferencia entre variables aleatorias discretas y continuas. 3. Diferencia de f(x) entre variables aleatorias discretas y continuas.

Más detalles

5. DISTRIBUCIOES COTIUAS DE PROBABILIDAD

5. DISTRIBUCIOES COTIUAS DE PROBABILIDAD Distribución normal 5. DISTRIBUCIOES COTIUAS DE PROBABILIDAD La distribución continua de probabilidad más importante en todo el campo de la estadística es la distribución normal. Su grafica, que se denomina

Más detalles

Esta definición se puede ampliar a cualquier par de bases de los espacio inicial y final MATRIZ DE UNA APLICACIÓN LINEAL EN BASES ARBITRARIAS

Esta definición se puede ampliar a cualquier par de bases de los espacio inicial y final MATRIZ DE UNA APLICACIÓN LINEAL EN BASES ARBITRARIAS Cambios de base 3 3. CAMBIOS DE BASE Dada una aplicación lineal : y la base,,, se ha definido matriz en bases canónicas de la aplicación lineal a la matriz,, cuyas columnas son las coordenadas de en la

Más detalles

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre ANX-PR/CL/001-01 GUÍA DE APRENDIZAJE ASIGNATURA Estadistica CURSO ACADÉMICO - SEMESTRE 2016-17 - Primer semestre GA_05IQ_55001012_1S_2016-17 Datos Descriptivos Nombre de la Asignatura Titulación Centro

Más detalles

2. Continuidad y derivabilidad. Aplicaciones

2. Continuidad y derivabilidad. Aplicaciones Métodos Matemáticos (Curso 2013 2014) Grado en Óptica y Optometría 7 2. Continuidad y derivabilidad. Aplicaciones Límite de una función en un punto Sea una función f(x) definida en el entorno de un punto

Más detalles

1. VALORES FALTANTES 2. MECANISMOS DE PÉRDIDA

1. VALORES FALTANTES 2. MECANISMOS DE PÉRDIDA 1. VALORES FALTANTES Los valores faltantes son observaciones que en un se tenía la intención de hacerlas, pero por distintas razones no se obtuvieron. Puede ser que no se encuentre a un encuestado, entonces

Más detalles