Estimador de máxima verosimilitud (MLE)
|
|
- Tomás Quintero Santos
- hace 5 años
- Vistas:
Transcripción
1 Estimador de máxima verosimilitud (MLE) Alvaro Gómez & Pablo Musé {agomez, Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de 208
2 Introducción Estimador de Máxima Verosimilitud I En el problema de estimación de parámetros, una alternativa al estimador MVU es el Estimador de Máxima Verosimilitud (MLE, Maximum Likelihood Estimator) [Kay, 993]. I Es la herramienta más popular para obtener estimadores prácticos y puede ser usado en problemas de estimación complejos, o en problemas donde el MVU no existe o no puede encontrarse. I Tiene características deseables si el conjunto de datos es suficientemente grande I es asintóticamente eficiente I es consistente I es invariante ante re-parametrizaciones I En muchos casos no puede encontrarse una fórmula cerrada del estimador MLE y debe buscarse empleando métodos númericos.
3 Descripción intuitiva I Se observa un conjunto de datos {x[0], x[],... x[ ]} que dependen de cierto parámetro desconocido que se quiere estimar. I Especificación del modelo: los datos son generados por un proceso aleatorio caracterizado con cierta PDF, p(x; ), que depende del parámetro desconocido. I Al variar el parámetro desconocido, se cambia la PDF que modela la generación los datos. El modelo es definido como una familia de PDFs indexada por el parámetro desconocido. I Para estimar el parámetro desconocido, la idea es encontrar la PDF de la familia que es mas probable de haber generado los datos observados.
4 Descripción intuitiva Ejemplo Se quiere estimar el nivel de DC (parámetro A) enwgcuandose observa una sola muestra, x[0] = A + w[0], donde w[0] (0, I En este caso, la PDF de los datos es x[0] (A, 2 ), apple p(x[0]; A) = p exp (x[0] A) ) p(x[0];a=) p(x[0];a=2) Familia de PDFs indexada por el parámetro desconocido x[0] p(x[0];a=3) x[0] p(x[0];a=4) x[0] x[0]
5 Descripción intuitiva I Dado un valor del parámetro, la correspondiente PDF indica que algunos datos son mas probables de ser observados que otros. I En particular, dado A = A 0, la probabilidad de observar un valor de x[0] en un intervalo de tamaño centrado en x 0 es Z x0+ Pr x[0] 2 applex 0 2, x = p(x; A = A 0 )dx 2 x 0 2 p(x[0] = x 0 ; A = A 0 ) I Por ejemplo, si A = (con 2 =/4), Pr x[0] 2 Pr x[0] 2 apple apple 2 2, + 2 2, p(x[0];a=) 0 2 x[0]
6 Descripción intuitiva I En realidad, los datos fueron observados, así que el problema a resolver es el inverso: dados los datos y el modelo definido por la familia de PDFs, hay que encontrar la PDF mas probable de haber producido los datos. I La función de verosimilitud es la PDF del parámetro fijando el valor de los datos. Conceptualmente, indica la probabilidad del parámetro desconocido luego de observados los datos. I Por ejemplo, la probabilidad de observar x[0] cercano a 2 para cada valor de A es aprox. p(x[0] = 2; A) p(x[0]=2;a) A I Si la observación fue efectivamente x[0] = 2, inferir A = 3 no sería razonable, ya que la probabilidad de haber observado x[0] = 2 es pequeña. I Es mas probable que A =2sea el parámetro verdadero, ya que conduce a una probabilidad alta de haber observado x[0] = 2.
7 Descripción intuitiva I Por lo tanto, si se observó x[0] = x 0, se elige como estimador  el valor que maximiza p(x[0] = x 0 ; A), la función de verosimilitud fijando los datos en x = x 0, sobre todo el dominio válido de A. Estimador de Máxima Verosimilitud Si la PDF de los datos es x p(x; ), el estimador de máxima verosimilitud (MLE) es ˆ MLE =argmax 2D ln p(x; ) El estimador MLE se define como el valor de que maximiza el logaritmo de p(x; ) fijandox, es decir, el valor que maximiza de función de verosimilitud logarítmica.
8 Ejemplo I ivel de DC en WG - Variante Los datos observados son x[n] =A + w[n] con n =0,,..., yw[n] (0, A) 8n, donde A es desconocido. El parámetro desconocido se refleja en la media y en la varianza. Se quiere encontrar el estimador MVU. Determinación de la CRLB I Para encontrar el MVU, una alternativa es determinar la CRLB y ver si existe algún estimador cuya varianza la alcance. I La PDF de los datos es, p(x; A) = Y apple p exp 2 A " = exp (2 A) 2 (x[n] A)2 2A X 2A (x[n] A) 2 #. ()
9 Ejemplo I Determinación de la CRLB I Tomando el logaritmo queda, ln p(x; A) = 2 ln 2 2 ln A X (x[n] A) 2. 2A I Se aplica la derivada primera a la función de ln p(x; I I = 2A + X (x[n] A)+ X A 2A 2 (x[n] A) 2 (2)? = I (A)(g(x) A) La derivada de la función de verosimilitud parece no poder factorizarse de la forma requerida. o existe o no es posible encontrar un estimador eficiente.
10 Ejemplo I Determinación de la CRLB I De todas formas es posible determinar la CRLB. Derivando nuevamente se obtiene 2 ln p(x; 2 = 2A 2 A 2 X A 2 (x[n] A) X A 3 (x[n] A) 2 I Tomando la esperanza se llega a, E 2 ln p(x; 2 = 2A 2 A A 3 A = A + 2 A 2 I Por lo tanto, la CRLB para este problema es var(â) A 2 A + 2. (3)
11 Ejemplo I Búsqueda del MVU mediante estadísticos suficientes I Se busca un estadístico suficiente de A en base a la factorización de eyman-fisher, p(x; A) =g(t (x), A)h(x). I Observando que X (x[n] A A) 2 = X x 2 [n] A 2 x + A, la PDF de los datos (ecuación ) se puede expresar como, " p(x; A) = exp (2 A) 2!# X x 2 [n]+a exp( x) A {z } h(x) 2 {z } g(t (x),a) X I Se concluye que un estadístico suficiente de A es T (x) = x 2 [n].
12 Ejemplo I Búsqueda del MVU mediante estadísticos suficientes I Luego hay que verificar si el estadístico suficiente es completo. Para eso hay que buscar una función g que lo haga insesgado, "!# X E g x 2 [n] = A Como E " # X x 2 [n] = E x 2 [n] = var(x[n]) + E 2 (x[n]) = (A + A 2 ), no existe una forma obvia de elegir g. I Esto agota las posibilidades de obtener un estimador óptimo.
13 Cálculo del MLE I El MLE se define como Ejemplo I Â MLE =argmax A>0 ln p(x; A) I De (), la PDF de los datos es, " p(x; A) = exp (2 A) 2 # X (x[n] A) 2. 2A I Considerando la PDF como función de A, se convierte en la función de verosimilitud. I Para maximizar la función de verosimilitud logarítmica se diferencia y se iguala a 0. De (2), la derivada ln p(x; = 2A + X (x[n] A)+ X A 2A 2 (x[n] A) 2
14 Ejemplo I Cálculo del MLE I Igualando a 0 y despejando se llega a que: I Resolviendo el polinomio de segundo grado en  se obtienen las dos soluciones: I Se elige la solución que produce estimadores positivos, en acuerdo con el rango posible de A, A > 0. I Hay que verificar que la solución corresponde al máximo y no al mínimo [ejercicio]  2 + X x 2 [n] =0. v  = 2 ± u t X x 2 [n]+ 4 v  = 2 + u t X x 2 [n]+ 2 ln p(x; 2 A= < 0 (4)
15 Ejemplo I Análisis del estimador MLE: sesgo 0 v uut E(Â) 2 + X x 2 [n]+ A 4 v 6=! 2 + u t X E x 2 [n] + 4 = r 2 + A + A = 2 + s A + 2 = A 2 El estimador no es insesgado
16 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I Definiendo u = X x 2 [n]. el estimador MLE encontrado es una transformación g(u) nolineal de u, Â = g(u) = r u + 4g 0 2 (u) = q 5 4 u + 4 I Cuando es grande, la PDF de u está muy concentrada alrededor de su media u 0, con! X u 0 = E(u) =E x 2 [n] = A + A 2. I Los valores probables de u se encuentran en un intervalo pequeño en torno a su media u 0 si es grande.
17 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I En un intervalo pequeño en torno a u 0 la función g(u) es aproximadamente lineal: linealidad estadística de transformaciones. I Linealizando g(u) entornoau 0 se tiene que, g(u) g(u 0 )+ dg(u) du u=u 0 (u u 0 ) (5) I Teniendo en cuenta que u 0 = A + A 2, g(a 2 + A) = 2 + r A 2 + A + 4 dg(u) = du u=a 2 +A 2 q u + 4 u=a2 +A = A ysustituyendoen (5), se llega a que para grande 2 Â A + A + 2 " 2 = A + 2 # X x 2 [n] (A + A 2 ) (6)
18 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I De (6), la media asintótica es " E(Â) =A + 2 A + E 2! X x 2 [n] concluyendo que  es asintóticamente insesgado. I La varianza asintótica es, (A + A 2 ) # = A, I Si (µ, 2 ), entonces, var(â) = 2 A + 2 4! 2 var! X x 2 [n] = A + 2 var(x 2 [n]) 2 (7) var( 2 )=E( 4 ) E 2 ( 2 ) =4µ I Como x[n] (A, A) var(x 2 [n]) = 4A 3 +2A 2 =4A 2 A + 2 (8)
19 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I Sustituyendo la ecuación (8) en la (7), la varianza asintótica queda, var(â) = 4 A + 2 A 2 = A + 2 =CRLB(A) 2 4A2 A + 2 concluyendo que  alcanza la CRLB asintóticamente. La CRLB(A) fue calculada antes, indicada en la ecuación (3). I Como el estimador es asintóticamente insesgado y alcanza asintóticamente la CRLB, es asintóticamente eficiente. I El estimador es además consistente. Esto significa que se cumple que n o lim Pr  A > =0 8 >0!
20 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I PDF gaussiana: porelteoremacentraldellímite,lavariable aleatoria u = P x 2 [n] es gaussiana con!, y como  es lineal en u si es grande (ecuación 6), también tiene PDF gaussiana. I Como el MLE es asintóticamente insesgado, alcanza asintóticamente la CRLB y tiene PDF gaussiana, la PDF del MLE es  a (A, I (A)) a : asintóticamente distribuido como Este resultado es general y es la justificación de la optimalidad del MLE. I pequeño: si bien el estimador es asintóticamente óptimo, no puede afirmarse nada sobre su desempeño si el conjunto de datos es pequeño. Es posible que existan mejores estimadores. I En ocasiones, el estimador MLE conduce al estimador eficiente para un conjunto de datos finito.
21 Ejemplo II MLE de nivel de DC en WG Se observan muestras del nivel de continua en WG, x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n El parámetro a estimar es A. Lavarianza I La PDF de los datos es I La función de verosimilitud logarítmica es I Para encontrar el máximo, se deriva y se iguala a cero, " p(x; A) = exp (2 2 ) 2 ln p(x; A) ln p(x; 2 del ruido es conocida. h i ln (2 2 ) 2 # X 2 2 (x[n] A) 2 X 2 2 (x[n] A) 2 = X (x[n] A) =0 2
22 Ejemplo II MLE de nivel de DC en WG I El MLE queda, Â = X x[n] = x. I Como la media muestral es el estimador eficiente de A, el MLE es eficiente en este caso. I Este resultado es general y se formaliza en el siguiente teorema.
23 Eficiencia del MLE Teorema Si existe un estimador eficiente, el método de máxima verosimilitud permite encontrarlo. Demostración: I Por el teorema de Cramer-Rao, si existe un estimador eficiente, existen las funciones g(x) yi ( ) ln p(x; = I ( )(g(x) ). (9) El estimador eficiente es ˆ ef = g(x) con varianza I ( ). I Como el MLE es el valor de que maximiza la función de verosimilitud logarítmica se tiene ln p(x; =ˆ MLE = I (ˆ MLE )(g(x) ˆ MLE )=0 yporlotanto ˆ MLE = g(x) =ˆ ef.
24 Eficiencia asintótica Teorema: Propiedades asintóticas del MLE Si la PDF p(x, ) de los datos satisface ciertas condiciones de regularidad, el MLE del parámetro desconocido es asintóticamente distribuido como, ˆ a (, I ( )) I I ( ) es la información de Fisher evaluada en el valor verdadero del parámetro desconocido. I Las condiciones de regularidad son: I Existencia de las derivadas primera y segunda de la función de verosimilitud I Condición de regularidad de la CRLB. I El MLE es asintóticamente eficiente y por lo tanto asintóticamente óptimo. Observaciones I La expresión anaĺıtica de la PDF verdadera (no asintótica) del MLE es en general imposible de derivar (ver el ejemplo I). I En la práctica, no se sabe cuan grande debe ser para que se cumplan las propiedades asintóticas. Se suelen usar simulaciones en computadora para estudiar el desempeño.
25 Ejemplo I (continuación) ivel de DC en WG - Variante Se quiere determinar el tamaño necesario de los datos para que se cumplan los resultados asintóticos. I Previamente se encontró que Estimador MLE CRLB PDF asintótica v  =! 2 + u t X x 2 [n]+ A 2 var(â) 4 (A + 2 )  a A 2 A, (A + 2 ) I Una estrategia podría ser encontrar la PDF exacta de  yestablecer para que valor de está cerca de la PDF asintótica. I En principio es posible encontrar la PDF verdadera en este ejemplo, pero sería extremadamente tedioso. I Es posible estimar experimentalmente la media y la varianza del estimador como E(Â) [ = MX  i var( \ Â)= MX 2  [ i E( Â) M M i= i=
26 Ejemplo I (continuación) ivel de DC en WG - Variante I Se generan muestras de x[n] usandounvalordea =yse calcula  usando la ecuación 4. I Se repite el experimento M = 0000 y se calcula la media y la varianza muestral E(Â) [ y var(â) \ para distintos valores de Media muestral de al variar en M = 0000 experimentos. Media muestral Valor asintotico Varianza muestral de (x ) al variar. I Los valores asintóticos son  = var(â) =2 3 I Con > 20 se ve que E(Â) [ >
27 Ejemplo I (continuación) ivel de DC en WG - Variante I Para comparar la PDF verdadera con la PDF asintótica, se repiten M = experimentos con =5y = 200 y se grafican los estimadores en histogramas. Histograma con = 5 en M = experimentos Histograma con = 200 en M = experimentos. PDF asintotica I La PDF asintótica es  a, 2/3 I Con =5 I Se observa el sesgo en el estimador. I La PDF verdadera no tiene forma de gaussiana. I Con = 200 se cumplen bien las propiedades asintóticas.
28 Ejemplo III MLE de la fase de una sinusoide Se quiere estimar la fase de una sinusoide contaminada con WG, x[n] =A cos(2 f 0 n + )+w[n] con n =0,,...,, donde w[n] (0, 2 )paratodon y A y f 0 conocidos I Un estimador eficiente no puede encontrarse mediante la teoría la teoría de Cramer-Rao o estadísticos suficientes. 2 2 I La CRLB para el problema es: var( ˆ) A 2 I Para encontrar el MLE hay que maximizar p(x; ), con " p(x; )= exp (2 2 ) 2 I que es equivalente a minimizar # X 2 2 (x[n] A cos(2 f 0 n + )) 2. X J( )= (x[n] A cos(2 f 0 n + )) 2 (0)
29 Ejemplo III MLE de la fase de una sinusoide I Diferenciando respecto se tiene que X =2A (x[n] A cos(2 f 0 n + )) sen(2 f 0 n + ) I y al igualar a 0 se llega a que el MLE cumple que X X x[n]sen(2 f 0 n + ˆ) =A cos(2 f 0 n + ˆ)sen(2 f 0 n + ˆ) I El lado derecho de la igualdad es aproximadamente 0 si f 0 no es cercano a 0 o a /2, por lo que el MLE cumple aproximadamente que X x[n]sen(2 f 0 n + ˆ) =0
30 Ejemplo III MLE de la fase de una sinusoide I Expandiendo términos se llega a que X x[n]sen(2 f 0 n) cos( ˆ) = X x[n] cos(2 f 0 n)sen(ˆ) I y despejando se obtiene que el MLE es aproximadamente ˆ = arctan P x[n]sen(2 f 0 n). () P x[n] cos(2 f 0 n) I En este ejemplo, la varianza asintótica del estimador MLE es var( ˆ) = A2 2 2 = donde = A es la SR. I La PDF asintótica es ˆ a (, / )
31 Ejemplo III MLE de la fase de una sinusoide I Para determinar la cantidad de datos para que se cumplan las propiedades asintóticas se realiza una simulación en computadora A =, f 0 =0.08, = /4, 2 =0.05 () SR = 0 = 0 db) Media muestral x varianza muestral Media muestral del estimador al variar en M = 0000 experimentos Media muestral Valor asintotico Varianza muestral del estimador (x ) al variar I Los valores asintóticos son ˆ = 4 var(â) = 0 I Se necesita > 00 para alcanzar los valores asintóticos. I Hay valores de preferenciales para el sesgo.
32 Ejemplo III MLE de la fase de una sinusoide I Para comparar la PDF verdadera con la PDF asintótica, se repiten M = experimentos con = 20 y = Histograma con = 20 en M = experimentos Histograma con = 200 en M = experimentos. PDF asintotica Estimador I La PDF asintótica es  a 4, 0 I Con = 20 el sesgo es considerable. I Con = 200 se cumplen bien las propiedades asintóticas. I El estimador MLE es malo si el conjunto de datos es chico.
33 Ejemplo III MLE de la fase de una sinusoide I Se quiere analizar el desempeño del estimador al variar la SR. I Para eso se repite el experimento fijando en 00 y se calcula la media y la varianza cambiando la SR. Media muestral del estimador al variar la SR en M = 0000 experimentos. 0.8 Media muestral x varianza muestral (db) Media muestral Valor asintotico Varianza muestral del estimador (x ) al variar la SR SR (db) I Con SRs pequeñas, la varianza supera la CRLB considerablemente. Solo con SRs altas se alcanza la cota. I Las condiciones asintóticas no solo dependen de, sino también de la SR.
34 Ejemplo III Resumen I La PDF asintótica del estimador MLE es válida solo si el conjunto de datos es suficientemente grande. I En problemas de estimación de parámetros de señales en ruido, las condiciones asintóticas también dependen la SR. I Para establecer la cantidad de datos necesaria para que se cumplan las propiedades asintóticas en un problema en particular, se deben realizar simulaciones en computadora. I En algunos casos, el estimador no alcanza la distribución asintótica aunque la cantidad de datos y/o la SR sean arbitrariamente grandes. I En este ejemplo, el estimador MLE encontrado anaĺıticamente es aproximado. Para encontrar el MLE exacto, es posible encontrar el mínimo de la ecuación (0) numéricamente empleando técnicas de optimización.
35 MLE de parámetros transformados I En ocasiones, es necesario estimar una función del parámetro. I Por ejemplo, en el problema de estimación del nivel de DC A en WG, podría interesar calcular la potencia A 2 de la señal. I El MLE de una función del parámetro se obtiene fácilmente a partir del MLE de. Ejemplo I: ivel de DC transformado en WG Se consideran los datos x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n, donde 2 es desconocido y se quiere estimar el MLE de =exp(a). I La PDF de los datos es " p(x; A) = exp (2 2 ) 2 # X 2 2 (x[n] A) 2, < A <
36 MLE de parámetros transformados Ejemplo I: ivel de DC transformado en WG I Como es una transformación uno a uno de A (la función exponencial es biyectiva), es posible re-parametrizar la PDF en función de, " p T (x; ) = exp (2 2 ) 2 # X 2 2 (x[n] ln ) 2, > 0. El subíndice T refleja que la PDF es parametrizada respecto al parámetro transformado. (2) I Para encontrar el MLE de, hay que maximizar (2) en, llegando a X (x[n] ln ˆ ) =0 ) ˆ =exp( x) ˆ I x es el MLE de A, entonces: ˆ =exp(â) I Propiedad de invarianza: El MLE del parámetro transformado es la transformación del MLE del parámetro original.
37 MLE de parámetros transformados Ejemplo II: ivel de DC transformado en WG I Se considera ahora la transformación = A 2 para el conjunto de datos del ejemplo anterior. I Al intentar re-parametrizar la PDF de A respecto a se observa que A = ± p, ya que en este caso la transformación no es uno a uno. I Para caracterizar todas las posibles PDFs se requiere dos conjuntos de PDFs, " # X p p T (x; ) = exp (2 2 ) (x[n] ) 2, 0 " X p T2 (x; ) = exp (2 2 ) (x[n]+ p # ) 2, > 0 I El MLE de se obtiene como ˆ =argmax{p T (x; ), p T2 (x; )}
38 MLE de parámetros transformados Ejemplo II: ivel de DC transformado en WG I Equivalentemente, el MLE puede encontrarse como el valor de que maximiza la función de verosimilitud modificada, construida como p T (x, )=max {p T (x; ), p T2 (x; )}, para cada 0 I En este ejemplo, el MLE ˆ es ˆ =argmax{p T (x; ), p T2 (x; )} = " apple = = Â 2 = x 2 0 arg max p 0 p T (x; p ), p T2 (x; p ) arg max p(x; A) <A< 2 # 2 La propiedad de invarianza se cumple aunque la transformación no sea biyectiva.
39 MLE de parámetros transformados Teorema: propiedad de invarianza del MLE El MLE del parámetro = g( ), donde la PDF p(x, )está parametrizada por, estádadopor donde ˆ es el MLE de. ˆ = g(ˆ ), I El MLE de se obtiene maximizando p(x, ). I Si g no es una función uno a uno, ˆ maximiza la función de verosimilitud modificada p T (x, ), definida como p T (x, )= max p(x, ). { : =g( )}
40 Extensión a vector de parámetros I Análogamente al caso escalar, el MLE para un vector de parámetros es el valor que maximiza la función de verosimilitud p(x; ) sobre todo el rango válido de. I Asumiendo que la función de verosimilitud es diferenciable, el MLE se encuentra ln p(x; ) = I En caso de existir múltiples soluciones, el MLE es aquella que maximiza la función de verosimilitud, es decir, la que produce el máximo global.
41 Extensión a vector de parámetros ivel de DC en WG Se consideran las observaciones del nivel de continua en WG, x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n donde A y 2 son desconocidos. I En este caso, el vector de parámetros es = A 2 T. I La función de verosimilitud logarítmica queda ln p(x; ) = 2 ln 2 2 ln 2 X 2 2 (x[n] A) 2. I y las derivadas son ln p(x; = X (x[n] A) ln p(x; 2 = X 2 4 (x[n] A) 2
42 Extensión a vector de parámetros ivel de DC en WG I Resolviendo para A en la primer ecuación se tiene que ˆ2 X (x[n] Â) =0 )  = x I Resolviendo para 2 en la segunda ecuación y usando que  = x 2 + X (x[n] Â) 2 =0 ) ˆ2 = ˆ2 2 ˆ22 X (x[n] x) 2 I El MLE resulta en ˆ = P x (x[n] x)
43 Extensión a vector de parámetros Teorema: Propiedades asintóticas del MLE Si la PDF p(x, ) de los datos x satisface ciertas condiciones de regularidad, el MLE del parámetro desconocido es asintóticamente distribuido como, ˆ a (, I ( )) I I( ) es la matriz de información de Fisher evaluada en el valor verdadero del parámetro desconocido. I Las condiciones de regularidad son: I Existencia de las derivadas de primer y segundo orden de la función de verosimilitud. I Además, ln p(x; ) = 0 8
44 Referencias I Kay, S. M. (993). Fundamentals of Statistical Signal Processing, Volume I: Estimation Theory, chapter 7. Prentice Hall, st edition.
Estimador de Máxima Verosimilitud
Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de
Más detallesEstimadores insesgados lineales óptimos (BLUE)
Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detallesEstimación insesgada de mínima varianza
Estimación insesgada de mínima varianza Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto
Más detallesEstimación Bayesiana y Máximo a Posteriori
Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesCurso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 1 de octubre del 2012 Definición Estadístico suficiente Un estadístico es suficiente respecto al parámetro si la distribución de probabilidad
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detallesCota Inferior de Cramer Rao
Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica
Más detallesCurso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones
Más detallesCurso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos
Más detallesINFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez
INFERENCIA ESTADÍSTICA Notas de clase Profesores: A. Leonardo Bañuelos S. Naelli Manzanarez Gómez TEMA II ESTIMACIÓN PUNTUAL DE PARÁMETROS POBLACIONALES La estimación puntual de un parámetro relativo a
Más detallesPráctico 2 Análisis de proceso autorregresivo de orden 2 Proceso WSS filtrado
Práctico Análisis de proceso autorregresivo de orden Proceso WSS filtrado Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento
Más detallesTema 4 - Introducción
Tema 4 - Introducción 1 Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Cómo obtener estimadores? Tema
Más detallesPart VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores
Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual
Más detallesLeast Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator
16/4/2011 UNIVERSIDAD TECNICA FEDERICO SANTA MARIA DEPARTAMENTO DE ELECTRONICA ELO325 SoftComputing y Aplicaciones Least Squared Methods for System Identification Tomás Arredondo Vidal - 1. Modelamiento
Más detallesResumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)
Contenido 1 2 3 Cópula Empírica Cópula Kernel Resumen Recordemos que una cópula es una función C : I 2 I tal que: 1 Para cualesquiera u, v en I := [0, 1] C(u, 0) = 0 = C(0, v), C(u, 1) = u, C(1, v) = v.
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesEXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006
EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesTema 2: Introducción a la Inferencia Estadística
Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.
Más detallesProbabilidades y Estadística
Probabilidades y Estadística Profesor: Fernando Lema Auxiliares: Víctor Carmi - Abelino Jiménez Universidad de Chile Indice General 1 Indice General 1 Advertencias y Recomendaciones Tener presente siempre
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesAuxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Más detallesInferencia Estadística
Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características
Más detallesCurso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 24 de septiembre del 2013 Suficiencia Cuando hacemos inferencia sobre un parámetro, usando una muestra aleatoria (X 1,...,X n )yunestadísticoˆ
Más detallesTécnicas Cuantitativas II Estimación puntual de Parámetros. TC II Estimación puntual de parámetros 1 / 34
Técnicas Cuantitativas II 2012-2013 Estimación puntual de Parámetros TC II Estimación puntual de parámetros 1 / 34 TC II Estimación puntual de parámetros 2 / 34 : concepto de estimador de un parámetro
Más detallesCUESTIONES TEÓRICAS ESTADÍSTICA
Gestión Aeronáutica: Estadística Teórica Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández CUESTIONES TEÓRICAS ESTADÍSTICA Gestión
Más detallesTema 3: Estimación estadística de modelos probabilistas. (primera parte)
Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:
Más detallesEL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)
EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento
Más detallesMETODOS ESTADÍSTICOS
METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.
Más detallesIntervalos de Confianza
Intervalos de Confianza Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Intervalo de Confianza Se puede hacer una estimación puntual de
Más detallesSuficiencia y Completitud. Estimadores IMVU.
1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesSuficiencia y Completitud. Estimadores IMVU.
1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución
Más detallesConceptos Básicos de Inferencia
Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos
Más detallesConceptos básicos de inferencia estadística (I): Inferencia estadística (repaso)
Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Tema 1 (I) Estadística 2 Curso 08/09 Tema 1 (I) (Estadística 2) Inferencia estadística Curso 08/09 1 / 24 Inferencia estadística
Más detallesBootstrap. Patricia Kisbye. 13 de mayo, FaMAF
Bootstrap Patricia Kisbye FaMAF 13 de mayo, 2010 Técnica de bootstrap La técnica de Bootstrap fue introducida por B. Efron, 1982. Consiste en aproximar la precisión de un estimador a partir de una muestra
Más detallesTransformaciones y esperanza
Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es
Más detallesIntroducción a la Inferencia Estadística
MÁSTER EN ESTADÍSTICA PÚBLICA Experto Universitario: Estadística Aplicada y Técnicas de Encuestación 1 Introducción a la Inferencia Estadística Estimación puntual paramétrica M a Teresa Gómez Departamento
Más detallesFunciones de una variable
Funciones de una variable Dpto. Matemática Aplicada Universidad de Málaga Motivación Conceptos matemáticos Funciones Mundo real Continuidad Derivada Integral Definición de función R A: Dominio R B: Imagen
Más detallesBLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población
BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el
Más detallesGEOESTADÍSTICA APLICADA
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO GEOESTADÍSTICA APLICADA Tema: Análisis Exploratorio de Datos Instructores: Dr. Martín A. Díaz Viera (mdiazv@imp.mx) Dr. Ricardo Casar González (rcasar@imp.mx) 2009
Más detallesSelección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
Más detallesTécnicas de Muestreo Métodos
Muestreo aleatorio: Técnicas de Muestreo Métodos a) unidad muestral elemental: a.1) muestreo aleatorio simple a.2) muestreo (seudo)aleatorio sistemático a.3) muestreo aleatorio estratificado b) unidad
Más detallesEconometría II. Hoja de Problemas 1
Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli
Más detalles3 ESTIMACION. 3.1 Introducción
3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto
Más detallesDistribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides
Distribuciones Fundamentales de Muestreo UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Muestrales La distribución de probabilidad de un estadístico
Más detallesEstimación de Parámetros
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación
Más detallesTema 6. Estimación puntual
1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesINFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza
INFERENCIA ESTADISTICA Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Por este proceso es posible utilizar estadísticos calculados a partir de muestras para estimar los valores de los parámetros de
Más detallesEl Movimiento Browniano en la modelización del par EUR/USD
MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés
Más detallesEstimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
Más detallesTema 6. Estimación puntual
Tema 6. Estimación puntual Contenidos Planteamiento del problema Criterios de comparación de estimadores: Insesgadez Estimadores de mínima varianza Error cuadrático medio Consistencia Métodos para obtener
Más detallesCurso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población
Más detallesLímite de Funciones [1/35] Límite de Funciones. 24 de mayo de Límite de Funciones
[1/35] 24 de mayo de 2007 hacia el infinito [2/35] Introducción En este capítulo nos interesa extender el concepto de límite de sucesiones a funciones reales de variable real. La primera extensión natural
Más detallesCálculo I Aplicaciones de las Derivadas: Linealización y Diferenciales. Julio C. Carrillo E. * 1. Introducción 1. 2.
4.7. Aplicaciones de las Derivadas: Linealización y Diferenciales Julio C. Carrillo E. * Índice 1. Introducción 1 2. Errores 2 3. Linealización 4 4. Diferenciales 10 A. Teorema de Taylor (Opcional) 17
Más detallesTeorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
Más detalles2 x
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Importante: Visita regularmente ttp://www.dim.ucile.cl/~calculo. Aí encontrarás las guías de ejercicios
Más detallesEstadística I Tema 5: Introducción a la inferencia estadística
Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución
Más detallesU de Talca. Funciones y series de potencias Introducción. Temas Métodos para determinar series de potencias de nuevas funciones.
Sesión 28 Funciones y series de potencias Temas Métodos para determinar series de potencias de nuevas funciones. 28. Introducción Colin Maclaurin Escocés. (698-6. Capacidades Conocer y aplicar el método
Más detalles5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias. Jorge Eduardo Ortiz Triviño
5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ CONTENIDO 1. INTRODUCCIÓN 2. VARIABLES ALEATORIAS 3. TEOREMA
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detalles1. Para la función f(x) = x sen x, halle su polinomio de Taylor de orden 2 en a = 0. x x3 3!, x x3
Cálculo I (Grado en Ingeniería Informática) Problemas resueltos, - y -4 (tercera parte) Preparado por los profesores de la asignatura: Pablo Fernández, Dragan Vukotić (coordinadores), Luis Guijarro, Kazaros
Más detallesApuntes de Series Temporales
Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,
Más detallesCurso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza
Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República,
Más detallesAMPLIACIÓN DE MATEMÁTICAS. Curso 2015/16 Examen final Análisis Complejo
AMPLIACIÓN DE MATEMÁTICAS. Curso 015/16 Examen final. 14 6 016 Análisis Complejo Nombre y apellidos: DNI: No está permitido el uso de calculadora programable. Los cálculos deben ser exactos y los ángulos
Más detallesInferencia Estadística. Estimación y Contrastes
y y M Dolores Redondas dolores.redondas@upm.es E.U. Arquitectura Técnica U.P.M. Curso 2009-2010 Introducción Identicación del comportamiento de una variable El reconocimiento del comportamiento de una
Más detallesIDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA
IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud
Más detallesANÁLISIS DE FRECUENCIAS
ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE
Más detallesMuestreo de variables aleatorias
Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 Distribución de la muestra 3 4 5 Distribuciones de la media y la varianza en poblaciones normales Introducción Tiene como
Más detallesPLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07
PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.
Más detallesClasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
Más detallesPROBLEMA 1 *( ) + SOLUCIÓN: Sea la superficie de la parte esférica superior, parametrizada con coordenadas cilíndricas de la siguiente manera:
PROBLEMA 1 A una esfera maciza de radio unidad se le hace una perforación cilíndrica siguiendo un eje diametral de la esfera. Suponiendo que el cilindro es circular de radio, con y que el eje que se usa
Más detallesSoluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015
Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Conteste todas las preguntas en dos horas y media. Pregunta 1 (33 puntos: Un investigador está considerando las
Más detallesSimulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Más detallesTEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Más detallesEstimación por intervalos
Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto
Más detallesTeoría de la decisión
Unidad 7.. Definiciones. Muestreo aleatorio y estadístico. Estadísticos importantes. Técnica de muestreo. Transformación integral Muestreo: selección de un subconjunto de una población ) Representativo
Más detallesAnálisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesUniversidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA
Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Ateneo Ruperto P. Bonet Chaple UTB-Julio 2016 OBJETIVO Aplicar las técnicas de Muestreo e Inferencia Estadística Determinar el tamaño
Más detallesAnálisis Numérico. Parte III Interpolación y aproximación
Parte III Interpolación y aproximación 3. Teoría de interpolación y de aproximación de datos en el plano o de funciones de una variable Julio C. Carrillo E. Universidad Industrial de Santander Escuela
Más detallesConceptos Básicos de Inferencia
Conceptos Básicos de Inferencia Intervalos de confianza Álvaro José Flórez 1 Escuela de Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos
Más detallesPráctico 3 Filtro de Wiener
Práctico 3 Filtro de Wiener Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fingeduuy Departamento de Procesamiento de Señales Instituto de Ingeniería
Más detallesEXAMEN DE ESTADÍSTICA Junio 2011
EXAMEN DE ESTADÍSTICA Junio 2011 Apellidos: Nombre: DNI: GRUPO: 1. Sea X una variable aleatoria discreta. Determine el valor de k para que la función p(x) { k/x x 1, 2, 3, 4 0 en otro caso sea una función
Más detallesSoluciones Numéricas de Modelos Matemáticos
Cuarta Sesión 9 de febrero de 2011 Contenido Aproximación Numérica 1 Aproximación Numérica 2 3 4 Algunos Métodos Sencillos para EDPs Aproximación numérica a una función por Series de Taylor Serie de Taylor:
Más detallesComportamiento asintótico de estimadores
Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos
Más detallesMínimos Cuadrados Generalizados
Mínimos Cuadrados Generalizados Román Salmerón Gómez Los dos últimos temas de la asignatura han estado enfocados en estudiar por separado la relajación de las hipótesis de que las perturbaciones estén
Más detallesUNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS FACULTAD DE CIENCIAS MATEMÁTICAS E.A.P. DE. ESTADÍSTICA Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesUniversidad Carlos III de Madrid
Universidad Carlos III de Madrid Ejercicio 1 3 4 5 6 Total Puntos Departamento de Economía Examen Final de Matemáticas I 0 de Enero de 015 APELLIDOS: Duración del Examen: horas NOMBRE: DNI: Titulación:
Más detallesEstadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Más detallesEstimación de Máxima Verosimilitud Utilizando la Función optim en R
Estimación de Máxima Verosimilitud Utilizando la Función optim en R Juan F. Olivares-Pacheco * 15 de diciembre de 2006 Resumen En este trabajo se muestra el método de verosimilitud para la estimación de
Más detallesT2. El modelo lineal simple
T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de
Más detallesINTERVALOS DE CONFIANZA
INTERVALOS DE CONFIANZA INTERVALOS DE CONFIANZA Dado que los estimadores puntuales pocas veces serán iguales a los parámetros que se desean estimar, es posible darse mayor libertad utilizando estimadores
Más detalles