Estimador de máxima verosimilitud (MLE)

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Estimador de máxima verosimilitud (MLE)"

Transcripción

1 Estimador de máxima verosimilitud (MLE) Alvaro Gómez & Pablo Musé {agomez, Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de 208

2 Introducción Estimador de Máxima Verosimilitud I En el problema de estimación de parámetros, una alternativa al estimador MVU es el Estimador de Máxima Verosimilitud (MLE, Maximum Likelihood Estimator) [Kay, 993]. I Es la herramienta más popular para obtener estimadores prácticos y puede ser usado en problemas de estimación complejos, o en problemas donde el MVU no existe o no puede encontrarse. I Tiene características deseables si el conjunto de datos es suficientemente grande I es asintóticamente eficiente I es consistente I es invariante ante re-parametrizaciones I En muchos casos no puede encontrarse una fórmula cerrada del estimador MLE y debe buscarse empleando métodos númericos.

3 Descripción intuitiva I Se observa un conjunto de datos {x[0], x[],... x[ ]} que dependen de cierto parámetro desconocido que se quiere estimar. I Especificación del modelo: los datos son generados por un proceso aleatorio caracterizado con cierta PDF, p(x; ), que depende del parámetro desconocido. I Al variar el parámetro desconocido, se cambia la PDF que modela la generación los datos. El modelo es definido como una familia de PDFs indexada por el parámetro desconocido. I Para estimar el parámetro desconocido, la idea es encontrar la PDF de la familia que es mas probable de haber generado los datos observados.

4 Descripción intuitiva Ejemplo Se quiere estimar el nivel de DC (parámetro A) enwgcuandose observa una sola muestra, x[0] = A + w[0], donde w[0] (0, I En este caso, la PDF de los datos es x[0] (A, 2 ), apple p(x[0]; A) = p exp (x[0] A) ) p(x[0];a=) p(x[0];a=2) Familia de PDFs indexada por el parámetro desconocido x[0] p(x[0];a=3) x[0] p(x[0];a=4) x[0] x[0]

5 Descripción intuitiva I Dado un valor del parámetro, la correspondiente PDF indica que algunos datos son mas probables de ser observados que otros. I En particular, dado A = A 0, la probabilidad de observar un valor de x[0] en un intervalo de tamaño centrado en x 0 es Z x0+ Pr x[0] 2 applex 0 2, x = p(x; A = A 0 )dx 2 x 0 2 p(x[0] = x 0 ; A = A 0 ) I Por ejemplo, si A = (con 2 =/4), Pr x[0] 2 Pr x[0] 2 apple apple 2 2, + 2 2, p(x[0];a=) 0 2 x[0]

6 Descripción intuitiva I En realidad, los datos fueron observados, así que el problema a resolver es el inverso: dados los datos y el modelo definido por la familia de PDFs, hay que encontrar la PDF mas probable de haber producido los datos. I La función de verosimilitud es la PDF del parámetro fijando el valor de los datos. Conceptualmente, indica la probabilidad del parámetro desconocido luego de observados los datos. I Por ejemplo, la probabilidad de observar x[0] cercano a 2 para cada valor de A es aprox. p(x[0] = 2; A) p(x[0]=2;a) A I Si la observación fue efectivamente x[0] = 2, inferir A = 3 no sería razonable, ya que la probabilidad de haber observado x[0] = 2 es pequeña. I Es mas probable que A =2sea el parámetro verdadero, ya que conduce a una probabilidad alta de haber observado x[0] = 2.

7 Descripción intuitiva I Por lo tanto, si se observó x[0] = x 0, se elige como estimador  el valor que maximiza p(x[0] = x 0 ; A), la función de verosimilitud fijando los datos en x = x 0, sobre todo el dominio válido de A. Estimador de Máxima Verosimilitud Si la PDF de los datos es x p(x; ), el estimador de máxima verosimilitud (MLE) es ˆ MLE =argmax 2D ln p(x; ) El estimador MLE se define como el valor de que maximiza el logaritmo de p(x; ) fijandox, es decir, el valor que maximiza de función de verosimilitud logarítmica.

8 Ejemplo I ivel de DC en WG - Variante Los datos observados son x[n] =A + w[n] con n =0,,..., yw[n] (0, A) 8n, donde A es desconocido. El parámetro desconocido se refleja en la media y en la varianza. Se quiere encontrar el estimador MVU. Determinación de la CRLB I Para encontrar el MVU, una alternativa es determinar la CRLB y ver si existe algún estimador cuya varianza la alcance. I La PDF de los datos es, p(x; A) = Y apple p exp 2 A " = exp (2 A) 2 (x[n] A)2 2A X 2A (x[n] A) 2 #. ()

9 Ejemplo I Determinación de la CRLB I Tomando el logaritmo queda, ln p(x; A) = 2 ln 2 2 ln A X (x[n] A) 2. 2A I Se aplica la derivada primera a la función de ln p(x; I I = 2A + X (x[n] A)+ X A 2A 2 (x[n] A) 2 (2)? = I (A)(g(x) A) La derivada de la función de verosimilitud parece no poder factorizarse de la forma requerida. o existe o no es posible encontrar un estimador eficiente.

10 Ejemplo I Determinación de la CRLB I De todas formas es posible determinar la CRLB. Derivando nuevamente se obtiene 2 ln p(x; 2 = 2A 2 A 2 X A 2 (x[n] A) X A 3 (x[n] A) 2 I Tomando la esperanza se llega a, E 2 ln p(x; 2 = 2A 2 A A 3 A = A + 2 A 2 I Por lo tanto, la CRLB para este problema es var(â) A 2 A + 2. (3)

11 Ejemplo I Búsqueda del MVU mediante estadísticos suficientes I Se busca un estadístico suficiente de A en base a la factorización de eyman-fisher, p(x; A) =g(t (x), A)h(x). I Observando que X (x[n] A A) 2 = X x 2 [n] A 2 x + A, la PDF de los datos (ecuación ) se puede expresar como, " p(x; A) = exp (2 A) 2!# X x 2 [n]+a exp( x) A {z } h(x) 2 {z } g(t (x),a) X I Se concluye que un estadístico suficiente de A es T (x) = x 2 [n].

12 Ejemplo I Búsqueda del MVU mediante estadísticos suficientes I Luego hay que verificar si el estadístico suficiente es completo. Para eso hay que buscar una función g que lo haga insesgado, "!# X E g x 2 [n] = A Como E " # X x 2 [n] = E x 2 [n] = var(x[n]) + E 2 (x[n]) = (A + A 2 ), no existe una forma obvia de elegir g. I Esto agota las posibilidades de obtener un estimador óptimo.

13 Cálculo del MLE I El MLE se define como Ejemplo I Â MLE =argmax A>0 ln p(x; A) I De (), la PDF de los datos es, " p(x; A) = exp (2 A) 2 # X (x[n] A) 2. 2A I Considerando la PDF como función de A, se convierte en la función de verosimilitud. I Para maximizar la función de verosimilitud logarítmica se diferencia y se iguala a 0. De (2), la derivada ln p(x; = 2A + X (x[n] A)+ X A 2A 2 (x[n] A) 2

14 Ejemplo I Cálculo del MLE I Igualando a 0 y despejando se llega a que: I Resolviendo el polinomio de segundo grado en  se obtienen las dos soluciones: I Se elige la solución que produce estimadores positivos, en acuerdo con el rango posible de A, A > 0. I Hay que verificar que la solución corresponde al máximo y no al mínimo [ejercicio]  2 + X x 2 [n] =0. v  = 2 ± u t X x 2 [n]+ 4 v  = 2 + u t X x 2 [n]+ 2 ln p(x; 2 A= < 0 (4)

15 Ejemplo I Análisis del estimador MLE: sesgo 0 v uut E(Â) 2 + X x 2 [n]+ A 4 v 6=! 2 + u t X E x 2 [n] + 4 = r 2 + A + A = 2 + s A + 2 = A 2 El estimador no es insesgado

16 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I Definiendo u = X x 2 [n]. el estimador MLE encontrado es una transformación g(u) nolineal de u, Â = g(u) = r u + 4g 0 2 (u) = q 5 4 u + 4 I Cuando es grande, la PDF de u está muy concentrada alrededor de su media u 0, con! X u 0 = E(u) =E x 2 [n] = A + A 2. I Los valores probables de u se encuentran en un intervalo pequeño en torno a su media u 0 si es grande.

17 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I En un intervalo pequeño en torno a u 0 la función g(u) es aproximadamente lineal: linealidad estadística de transformaciones. I Linealizando g(u) entornoau 0 se tiene que, g(u) g(u 0 )+ dg(u) du u=u 0 (u u 0 ) (5) I Teniendo en cuenta que u 0 = A + A 2, g(a 2 + A) = 2 + r A 2 + A + 4 dg(u) = du u=a 2 +A 2 q u + 4 u=a2 +A = A ysustituyendoen (5), se llega a que para grande 2 Â A + A + 2 " 2 = A + 2 # X x 2 [n] (A + A 2 ) (6)

18 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I De (6), la media asintótica es " E(Â) =A + 2 A + E 2! X x 2 [n] concluyendo que  es asintóticamente insesgado. I La varianza asintótica es, (A + A 2 ) # = A, I Si (µ, 2 ), entonces, var(â) = 2 A + 2 4! 2 var! X x 2 [n] = A + 2 var(x 2 [n]) 2 (7) var( 2 )=E( 4 ) E 2 ( 2 ) =4µ I Como x[n] (A, A) var(x 2 [n]) = 4A 3 +2A 2 =4A 2 A + 2 (8)

19 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I Sustituyendo la ecuación (8) en la (7), la varianza asintótica queda, var(â) = 4 A + 2 A 2 = A + 2 =CRLB(A) 2 4A2 A + 2 concluyendo que  alcanza la CRLB asintóticamente. La CRLB(A) fue calculada antes, indicada en la ecuación (3). I Como el estimador es asintóticamente insesgado y alcanza asintóticamente la CRLB, es asintóticamente eficiente. I El estimador es además consistente. Esto significa que se cumple que n o lim Pr  A > =0 8 >0!

20 Ejemplo I Análisis del estimador MLE: comportamiento asintótico I PDF gaussiana: porelteoremacentraldellímite,lavariable aleatoria u = P x 2 [n] es gaussiana con!, y como  es lineal en u si es grande (ecuación 6), también tiene PDF gaussiana. I Como el MLE es asintóticamente insesgado, alcanza asintóticamente la CRLB y tiene PDF gaussiana, la PDF del MLE es  a (A, I (A)) a : asintóticamente distribuido como Este resultado es general y es la justificación de la optimalidad del MLE. I pequeño: si bien el estimador es asintóticamente óptimo, no puede afirmarse nada sobre su desempeño si el conjunto de datos es pequeño. Es posible que existan mejores estimadores. I En ocasiones, el estimador MLE conduce al estimador eficiente para un conjunto de datos finito.

21 Ejemplo II MLE de nivel de DC en WG Se observan muestras del nivel de continua en WG, x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n El parámetro a estimar es A. Lavarianza I La PDF de los datos es I La función de verosimilitud logarítmica es I Para encontrar el máximo, se deriva y se iguala a cero, " p(x; A) = exp (2 2 ) 2 ln p(x; A) ln p(x; 2 del ruido es conocida. h i ln (2 2 ) 2 # X 2 2 (x[n] A) 2 X 2 2 (x[n] A) 2 = X (x[n] A) =0 2

22 Ejemplo II MLE de nivel de DC en WG I El MLE queda, Â = X x[n] = x. I Como la media muestral es el estimador eficiente de A, el MLE es eficiente en este caso. I Este resultado es general y se formaliza en el siguiente teorema.

23 Eficiencia del MLE Teorema Si existe un estimador eficiente, el método de máxima verosimilitud permite encontrarlo. Demostración: I Por el teorema de Cramer-Rao, si existe un estimador eficiente, existen las funciones g(x) yi ( ) ln p(x; = I ( )(g(x) ). (9) El estimador eficiente es ˆ ef = g(x) con varianza I ( ). I Como el MLE es el valor de que maximiza la función de verosimilitud logarítmica se tiene ln p(x; =ˆ MLE = I (ˆ MLE )(g(x) ˆ MLE )=0 yporlotanto ˆ MLE = g(x) =ˆ ef.

24 Eficiencia asintótica Teorema: Propiedades asintóticas del MLE Si la PDF p(x, ) de los datos satisface ciertas condiciones de regularidad, el MLE del parámetro desconocido es asintóticamente distribuido como, ˆ a (, I ( )) I I ( ) es la información de Fisher evaluada en el valor verdadero del parámetro desconocido. I Las condiciones de regularidad son: I Existencia de las derivadas primera y segunda de la función de verosimilitud I Condición de regularidad de la CRLB. I El MLE es asintóticamente eficiente y por lo tanto asintóticamente óptimo. Observaciones I La expresión anaĺıtica de la PDF verdadera (no asintótica) del MLE es en general imposible de derivar (ver el ejemplo I). I En la práctica, no se sabe cuan grande debe ser para que se cumplan las propiedades asintóticas. Se suelen usar simulaciones en computadora para estudiar el desempeño.

25 Ejemplo I (continuación) ivel de DC en WG - Variante Se quiere determinar el tamaño necesario de los datos para que se cumplan los resultados asintóticos. I Previamente se encontró que Estimador MLE CRLB PDF asintótica v  =! 2 + u t X x 2 [n]+ A 2 var(â) 4 (A + 2 )  a A 2 A, (A + 2 ) I Una estrategia podría ser encontrar la PDF exacta de  yestablecer para que valor de está cerca de la PDF asintótica. I En principio es posible encontrar la PDF verdadera en este ejemplo, pero sería extremadamente tedioso. I Es posible estimar experimentalmente la media y la varianza del estimador como E(Â) [ = MX  i var( \ Â)= MX 2  [ i E( Â) M M i= i=

26 Ejemplo I (continuación) ivel de DC en WG - Variante I Se generan muestras de x[n] usandounvalordea =yse calcula  usando la ecuación 4. I Se repite el experimento M = 0000 y se calcula la media y la varianza muestral E(Â) [ y var(â) \ para distintos valores de Media muestral de al variar en M = 0000 experimentos. Media muestral Valor asintotico Varianza muestral de (x ) al variar. I Los valores asintóticos son  = var(â) =2 3 I Con > 20 se ve que E(Â) [ >

27 Ejemplo I (continuación) ivel de DC en WG - Variante I Para comparar la PDF verdadera con la PDF asintótica, se repiten M = experimentos con =5y = 200 y se grafican los estimadores en histogramas. Histograma con = 5 en M = experimentos Histograma con = 200 en M = experimentos. PDF asintotica I La PDF asintótica es  a, 2/3 I Con =5 I Se observa el sesgo en el estimador. I La PDF verdadera no tiene forma de gaussiana. I Con = 200 se cumplen bien las propiedades asintóticas.

28 Ejemplo III MLE de la fase de una sinusoide Se quiere estimar la fase de una sinusoide contaminada con WG, x[n] =A cos(2 f 0 n + )+w[n] con n =0,,...,, donde w[n] (0, 2 )paratodon y A y f 0 conocidos I Un estimador eficiente no puede encontrarse mediante la teoría la teoría de Cramer-Rao o estadísticos suficientes. 2 2 I La CRLB para el problema es: var( ˆ) A 2 I Para encontrar el MLE hay que maximizar p(x; ), con " p(x; )= exp (2 2 ) 2 I que es equivalente a minimizar # X 2 2 (x[n] A cos(2 f 0 n + )) 2. X J( )= (x[n] A cos(2 f 0 n + )) 2 (0)

29 Ejemplo III MLE de la fase de una sinusoide I Diferenciando respecto se tiene que X =2A (x[n] A cos(2 f 0 n + )) sen(2 f 0 n + ) I y al igualar a 0 se llega a que el MLE cumple que X X x[n]sen(2 f 0 n + ˆ) =A cos(2 f 0 n + ˆ)sen(2 f 0 n + ˆ) I El lado derecho de la igualdad es aproximadamente 0 si f 0 no es cercano a 0 o a /2, por lo que el MLE cumple aproximadamente que X x[n]sen(2 f 0 n + ˆ) =0

30 Ejemplo III MLE de la fase de una sinusoide I Expandiendo términos se llega a que X x[n]sen(2 f 0 n) cos( ˆ) = X x[n] cos(2 f 0 n)sen(ˆ) I y despejando se obtiene que el MLE es aproximadamente ˆ = arctan P x[n]sen(2 f 0 n). () P x[n] cos(2 f 0 n) I En este ejemplo, la varianza asintótica del estimador MLE es var( ˆ) = A2 2 2 = donde = A es la SR. I La PDF asintótica es ˆ a (, / )

31 Ejemplo III MLE de la fase de una sinusoide I Para determinar la cantidad de datos para que se cumplan las propiedades asintóticas se realiza una simulación en computadora A =, f 0 =0.08, = /4, 2 =0.05 () SR = 0 = 0 db) Media muestral x varianza muestral Media muestral del estimador al variar en M = 0000 experimentos Media muestral Valor asintotico Varianza muestral del estimador (x ) al variar I Los valores asintóticos son ˆ = 4 var(â) = 0 I Se necesita > 00 para alcanzar los valores asintóticos. I Hay valores de preferenciales para el sesgo.

32 Ejemplo III MLE de la fase de una sinusoide I Para comparar la PDF verdadera con la PDF asintótica, se repiten M = experimentos con = 20 y = Histograma con = 20 en M = experimentos Histograma con = 200 en M = experimentos. PDF asintotica Estimador I La PDF asintótica es  a 4, 0 I Con = 20 el sesgo es considerable. I Con = 200 se cumplen bien las propiedades asintóticas. I El estimador MLE es malo si el conjunto de datos es chico.

33 Ejemplo III MLE de la fase de una sinusoide I Se quiere analizar el desempeño del estimador al variar la SR. I Para eso se repite el experimento fijando en 00 y se calcula la media y la varianza cambiando la SR. Media muestral del estimador al variar la SR en M = 0000 experimentos. 0.8 Media muestral x varianza muestral (db) Media muestral Valor asintotico Varianza muestral del estimador (x ) al variar la SR SR (db) I Con SRs pequeñas, la varianza supera la CRLB considerablemente. Solo con SRs altas se alcanza la cota. I Las condiciones asintóticas no solo dependen de, sino también de la SR.

34 Ejemplo III Resumen I La PDF asintótica del estimador MLE es válida solo si el conjunto de datos es suficientemente grande. I En problemas de estimación de parámetros de señales en ruido, las condiciones asintóticas también dependen la SR. I Para establecer la cantidad de datos necesaria para que se cumplan las propiedades asintóticas en un problema en particular, se deben realizar simulaciones en computadora. I En algunos casos, el estimador no alcanza la distribución asintótica aunque la cantidad de datos y/o la SR sean arbitrariamente grandes. I En este ejemplo, el estimador MLE encontrado anaĺıticamente es aproximado. Para encontrar el MLE exacto, es posible encontrar el mínimo de la ecuación (0) numéricamente empleando técnicas de optimización.

35 MLE de parámetros transformados I En ocasiones, es necesario estimar una función del parámetro. I Por ejemplo, en el problema de estimación del nivel de DC A en WG, podría interesar calcular la potencia A 2 de la señal. I El MLE de una función del parámetro se obtiene fácilmente a partir del MLE de. Ejemplo I: ivel de DC transformado en WG Se consideran los datos x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n, donde 2 es desconocido y se quiere estimar el MLE de =exp(a). I La PDF de los datos es " p(x; A) = exp (2 2 ) 2 # X 2 2 (x[n] A) 2, < A <

36 MLE de parámetros transformados Ejemplo I: ivel de DC transformado en WG I Como es una transformación uno a uno de A (la función exponencial es biyectiva), es posible re-parametrizar la PDF en función de, " p T (x; ) = exp (2 2 ) 2 # X 2 2 (x[n] ln ) 2, > 0. El subíndice T refleja que la PDF es parametrizada respecto al parámetro transformado. (2) I Para encontrar el MLE de, hay que maximizar (2) en, llegando a X (x[n] ln ˆ ) =0 ) ˆ =exp( x) ˆ I x es el MLE de A, entonces: ˆ =exp(â) I Propiedad de invarianza: El MLE del parámetro transformado es la transformación del MLE del parámetro original.

37 MLE de parámetros transformados Ejemplo II: ivel de DC transformado en WG I Se considera ahora la transformación = A 2 para el conjunto de datos del ejemplo anterior. I Al intentar re-parametrizar la PDF de A respecto a se observa que A = ± p, ya que en este caso la transformación no es uno a uno. I Para caracterizar todas las posibles PDFs se requiere dos conjuntos de PDFs, " # X p p T (x; ) = exp (2 2 ) (x[n] ) 2, 0 " X p T2 (x; ) = exp (2 2 ) (x[n]+ p # ) 2, > 0 I El MLE de se obtiene como ˆ =argmax{p T (x; ), p T2 (x; )}

38 MLE de parámetros transformados Ejemplo II: ivel de DC transformado en WG I Equivalentemente, el MLE puede encontrarse como el valor de que maximiza la función de verosimilitud modificada, construida como p T (x, )=max {p T (x; ), p T2 (x; )}, para cada 0 I En este ejemplo, el MLE ˆ es ˆ =argmax{p T (x; ), p T2 (x; )} = " apple = = Â 2 = x 2 0 arg max p 0 p T (x; p ), p T2 (x; p ) arg max p(x; A) <A< 2 # 2 La propiedad de invarianza se cumple aunque la transformación no sea biyectiva.

39 MLE de parámetros transformados Teorema: propiedad de invarianza del MLE El MLE del parámetro = g( ), donde la PDF p(x, )está parametrizada por, estádadopor donde ˆ es el MLE de. ˆ = g(ˆ ), I El MLE de se obtiene maximizando p(x, ). I Si g no es una función uno a uno, ˆ maximiza la función de verosimilitud modificada p T (x, ), definida como p T (x, )= max p(x, ). { : =g( )}

40 Extensión a vector de parámetros I Análogamente al caso escalar, el MLE para un vector de parámetros es el valor que maximiza la función de verosimilitud p(x; ) sobre todo el rango válido de. I Asumiendo que la función de verosimilitud es diferenciable, el MLE se encuentra ln p(x; ) = I En caso de existir múltiples soluciones, el MLE es aquella que maximiza la función de verosimilitud, es decir, la que produce el máximo global.

41 Extensión a vector de parámetros ivel de DC en WG Se consideran las observaciones del nivel de continua en WG, x[n] =A + w[n] con n =0,,..., yw[n] (0, 2 ) 8n donde A y 2 son desconocidos. I En este caso, el vector de parámetros es = A 2 T. I La función de verosimilitud logarítmica queda ln p(x; ) = 2 ln 2 2 ln 2 X 2 2 (x[n] A) 2. I y las derivadas son ln p(x; = X (x[n] A) ln p(x; 2 = X 2 4 (x[n] A) 2

42 Extensión a vector de parámetros ivel de DC en WG I Resolviendo para A en la primer ecuación se tiene que ˆ2 X (x[n] Â) =0 )  = x I Resolviendo para 2 en la segunda ecuación y usando que  = x 2 + X (x[n] Â) 2 =0 ) ˆ2 = ˆ2 2 ˆ22 X (x[n] x) 2 I El MLE resulta en ˆ = P x (x[n] x)

43 Extensión a vector de parámetros Teorema: Propiedades asintóticas del MLE Si la PDF p(x, ) de los datos x satisface ciertas condiciones de regularidad, el MLE del parámetro desconocido es asintóticamente distribuido como, ˆ a (, I ( )) I I( ) es la matriz de información de Fisher evaluada en el valor verdadero del parámetro desconocido. I Las condiciones de regularidad son: I Existencia de las derivadas de primer y segundo orden de la función de verosimilitud. I Además, ln p(x; ) = 0 8

44 Referencias I Kay, S. M. (993). Fundamentals of Statistical Signal Processing, Volume I: Estimation Theory, chapter 7. Prentice Hall, st edition.

Estimador de Máxima Verosimilitud

Estimador de Máxima Verosimilitud Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de

Más detalles

Estimadores insesgados lineales óptimos (BLUE)

Estimadores insesgados lineales óptimos (BLUE) Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

Estimación insesgada de mínima varianza

Estimación insesgada de mínima varianza Estimación insesgada de mínima varianza Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto

Más detalles

Estimación Bayesiana y Máximo a Posteriori

Estimación Bayesiana y Máximo a Posteriori Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 1 de octubre del 2012 Definición Estadístico suficiente Un estadístico es suficiente respecto al parámetro si la distribución de probabilidad

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Cota Inferior de Cramer Rao

Cota Inferior de Cramer Rao Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos

Más detalles

INFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez

INFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez INFERENCIA ESTADÍSTICA Notas de clase Profesores: A. Leonardo Bañuelos S. Naelli Manzanarez Gómez TEMA II ESTIMACIÓN PUNTUAL DE PARÁMETROS POBLACIONALES La estimación puntual de un parámetro relativo a

Más detalles

Práctico 2 Análisis de proceso autorregresivo de orden 2 Proceso WSS filtrado

Práctico 2 Análisis de proceso autorregresivo de orden 2 Proceso WSS filtrado Práctico Análisis de proceso autorregresivo de orden Proceso WSS filtrado Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento

Más detalles

Tema 4 - Introducción

Tema 4 - Introducción Tema 4 - Introducción 1 Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Cómo obtener estimadores? Tema

Más detalles

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual

Más detalles

Least Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator

Least Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator 16/4/2011 UNIVERSIDAD TECNICA FEDERICO SANTA MARIA DEPARTAMENTO DE ELECTRONICA ELO325 SoftComputing y Aplicaciones Least Squared Methods for System Identification Tomás Arredondo Vidal - 1. Modelamiento

Más detalles

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2) Contenido 1 2 3 Cópula Empírica Cópula Kernel Resumen Recordemos que una cópula es una función C : I 2 I tal que: 1 Para cualesquiera u, v en I := [0, 1] C(u, 0) = 0 = C(0, v), C(u, 1) = u, C(1, v) = v.

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006 EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Tema 2: Introducción a la Inferencia Estadística

Tema 2: Introducción a la Inferencia Estadística Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.

Más detalles

Probabilidades y Estadística

Probabilidades y Estadística Probabilidades y Estadística Profesor: Fernando Lema Auxiliares: Víctor Carmi - Abelino Jiménez Universidad de Chile Indice General 1 Indice General 1 Advertencias y Recomendaciones Tener presente siempre

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

Inferencia Estadística

Inferencia Estadística Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 24 de septiembre del 2013 Suficiencia Cuando hacemos inferencia sobre un parámetro, usando una muestra aleatoria (X 1,...,X n )yunestadísticoˆ

Más detalles

Técnicas Cuantitativas II Estimación puntual de Parámetros. TC II Estimación puntual de parámetros 1 / 34

Técnicas Cuantitativas II Estimación puntual de Parámetros. TC II Estimación puntual de parámetros 1 / 34 Técnicas Cuantitativas II 2012-2013 Estimación puntual de Parámetros TC II Estimación puntual de parámetros 1 / 34 TC II Estimación puntual de parámetros 2 / 34 : concepto de estimador de un parámetro

Más detalles

CUESTIONES TEÓRICAS ESTADÍSTICA

CUESTIONES TEÓRICAS ESTADÍSTICA Gestión Aeronáutica: Estadística Teórica Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández CUESTIONES TEÓRICAS ESTADÍSTICA Gestión

Más detalles

Tema 3: Estimación estadística de modelos probabilistas. (primera parte)

Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

Intervalos de Confianza

Intervalos de Confianza Intervalos de Confianza Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Intervalo de Confianza Se puede hacer una estimación puntual de

Más detalles

Suficiencia y Completitud. Estimadores IMVU.

Suficiencia y Completitud. Estimadores IMVU. 1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Suficiencia y Completitud. Estimadores IMVU.

Suficiencia y Completitud. Estimadores IMVU. 1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso)

Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Tema 1 (I) Estadística 2 Curso 08/09 Tema 1 (I) (Estadística 2) Inferencia estadística Curso 08/09 1 / 24 Inferencia estadística

Más detalles

Bootstrap. Patricia Kisbye. 13 de mayo, FaMAF

Bootstrap. Patricia Kisbye. 13 de mayo, FaMAF Bootstrap Patricia Kisbye FaMAF 13 de mayo, 2010 Técnica de bootstrap La técnica de Bootstrap fue introducida por B. Efron, 1982. Consiste en aproximar la precisión de un estimador a partir de una muestra

Más detalles

Transformaciones y esperanza

Transformaciones y esperanza Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es

Más detalles

Introducción a la Inferencia Estadística

Introducción a la Inferencia Estadística MÁSTER EN ESTADÍSTICA PÚBLICA Experto Universitario: Estadística Aplicada y Técnicas de Encuestación 1 Introducción a la Inferencia Estadística Estimación puntual paramétrica M a Teresa Gómez Departamento

Más detalles

Funciones de una variable

Funciones de una variable Funciones de una variable Dpto. Matemática Aplicada Universidad de Málaga Motivación Conceptos matemáticos Funciones Mundo real Continuidad Derivada Integral Definición de función R A: Dominio R B: Imagen

Más detalles

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el

Más detalles

GEOESTADÍSTICA APLICADA

GEOESTADÍSTICA APLICADA UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO GEOESTADÍSTICA APLICADA Tema: Análisis Exploratorio de Datos Instructores: Dr. Martín A. Díaz Viera (mdiazv@imp.mx) Dr. Ricardo Casar González (rcasar@imp.mx) 2009

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Técnicas de Muestreo Métodos

Técnicas de Muestreo Métodos Muestreo aleatorio: Técnicas de Muestreo Métodos a) unidad muestral elemental: a.1) muestreo aleatorio simple a.2) muestreo (seudo)aleatorio sistemático a.3) muestreo aleatorio estratificado b) unidad

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

3 ESTIMACION. 3.1 Introducción

3 ESTIMACION. 3.1 Introducción 3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto

Más detalles

Distribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides

Distribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Fundamentales de Muestreo UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Muestrales La distribución de probabilidad de un estadístico

Más detalles

Estimación de Parámetros

Estimación de Parámetros Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación

Más detalles

Tema 6. Estimación puntual

Tema 6. Estimación puntual 1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

INFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza

INFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Por este proceso es posible utilizar estadísticos calculados a partir de muestras para estimar los valores de los parámetros de

Más detalles

El Movimiento Browniano en la modelización del par EUR/USD

El Movimiento Browniano en la modelización del par EUR/USD MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés

Más detalles

Estimación Máxima Verosimilitud

Estimación Máxima Verosimilitud Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay

Más detalles

Tema 6. Estimación puntual

Tema 6. Estimación puntual Tema 6. Estimación puntual Contenidos Planteamiento del problema Criterios de comparación de estimadores: Insesgadez Estimadores de mínima varianza Error cuadrático medio Consistencia Métodos para obtener

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población

Más detalles

Límite de Funciones [1/35] Límite de Funciones. 24 de mayo de Límite de Funciones

Límite de Funciones [1/35] Límite de Funciones. 24 de mayo de Límite de Funciones [1/35] 24 de mayo de 2007 hacia el infinito [2/35] Introducción En este capítulo nos interesa extender el concepto de límite de sucesiones a funciones reales de variable real. La primera extensión natural

Más detalles

Cálculo I Aplicaciones de las Derivadas: Linealización y Diferenciales. Julio C. Carrillo E. * 1. Introducción 1. 2.

Cálculo I Aplicaciones de las Derivadas: Linealización y Diferenciales. Julio C. Carrillo E. * 1. Introducción 1. 2. 4.7. Aplicaciones de las Derivadas: Linealización y Diferenciales Julio C. Carrillo E. * Índice 1. Introducción 1 2. Errores 2 3. Linealización 4 4. Diferenciales 10 A. Teorema de Taylor (Opcional) 17

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

2 x

2 x FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Importante: Visita regularmente ttp://www.dim.ucile.cl/~calculo. Aí encontrarás las guías de ejercicios

Más detalles

Estadística I Tema 5: Introducción a la inferencia estadística

Estadística I Tema 5: Introducción a la inferencia estadística Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución

Más detalles

U de Talca. Funciones y series de potencias Introducción. Temas Métodos para determinar series de potencias de nuevas funciones.

U de Talca. Funciones y series de potencias Introducción. Temas Métodos para determinar series de potencias de nuevas funciones. Sesión 28 Funciones y series de potencias Temas Métodos para determinar series de potencias de nuevas funciones. 28. Introducción Colin Maclaurin Escocés. (698-6. Capacidades Conocer y aplicar el método

Más detalles

5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias. Jorge Eduardo Ortiz Triviño

5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias. Jorge Eduardo Ortiz Triviño 5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ CONTENIDO 1. INTRODUCCIÓN 2. VARIABLES ALEATORIAS 3. TEOREMA

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

1. Para la función f(x) = x sen x, halle su polinomio de Taylor de orden 2 en a = 0. x x3 3!, x x3

1. Para la función f(x) = x sen x, halle su polinomio de Taylor de orden 2 en a = 0. x x3 3!, x x3 Cálculo I (Grado en Ingeniería Informática) Problemas resueltos, - y -4 (tercera parte) Preparado por los profesores de la asignatura: Pablo Fernández, Dragan Vukotić (coordinadores), Luis Guijarro, Kazaros

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza

Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República,

Más detalles

AMPLIACIÓN DE MATEMÁTICAS. Curso 2015/16 Examen final Análisis Complejo

AMPLIACIÓN DE MATEMÁTICAS. Curso 2015/16 Examen final Análisis Complejo AMPLIACIÓN DE MATEMÁTICAS. Curso 015/16 Examen final. 14 6 016 Análisis Complejo Nombre y apellidos: DNI: No está permitido el uso de calculadora programable. Los cálculos deben ser exactos y los ángulos

Más detalles

Inferencia Estadística. Estimación y Contrastes

Inferencia Estadística. Estimación y Contrastes y y M Dolores Redondas dolores.redondas@upm.es E.U. Arquitectura Técnica U.P.M. Curso 2009-2010 Introducción Identicación del comportamiento de una variable El reconocimiento del comportamiento de una

Más detalles

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

Muestreo de variables aleatorias

Muestreo de variables aleatorias Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 Distribución de la muestra 3 4 5 Distribuciones de la media y la varianza en poblaciones normales Introducción Tiene como

Más detalles

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

PROBLEMA 1 *( ) + SOLUCIÓN: Sea la superficie de la parte esférica superior, parametrizada con coordenadas cilíndricas de la siguiente manera:

PROBLEMA 1 *( ) + SOLUCIÓN: Sea la superficie de la parte esférica superior, parametrizada con coordenadas cilíndricas de la siguiente manera: PROBLEMA 1 A una esfera maciza de radio unidad se le hace una perforación cilíndrica siguiendo un eje diametral de la esfera. Suponiendo que el cilindro es circular de radio, con y que el eje que se usa

Más detalles

Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015

Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Conteste todas las preguntas en dos horas y media. Pregunta 1 (33 puntos: Un investigador está considerando las

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Estimación por intervalos

Estimación por intervalos Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto

Más detalles

Teoría de la decisión

Teoría de la decisión Unidad 7.. Definiciones. Muestreo aleatorio y estadístico. Estadísticos importantes. Técnica de muestreo. Transformación integral Muestreo: selección de un subconjunto de una población ) Representativo

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA

Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Ateneo Ruperto P. Bonet Chaple UTB-Julio 2016 OBJETIVO Aplicar las técnicas de Muestreo e Inferencia Estadística Determinar el tamaño

Más detalles

Análisis Numérico. Parte III Interpolación y aproximación

Análisis Numérico. Parte III Interpolación y aproximación Parte III Interpolación y aproximación 3. Teoría de interpolación y de aproximación de datos en el plano o de funciones de una variable Julio C. Carrillo E. Universidad Industrial de Santander Escuela

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Intervalos de confianza Álvaro José Flórez 1 Escuela de Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Práctico 3 Filtro de Wiener

Práctico 3 Filtro de Wiener Práctico 3 Filtro de Wiener Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fingeduuy Departamento de Procesamiento de Señales Instituto de Ingeniería

Más detalles

EXAMEN DE ESTADÍSTICA Junio 2011

EXAMEN DE ESTADÍSTICA Junio 2011 EXAMEN DE ESTADÍSTICA Junio 2011 Apellidos: Nombre: DNI: GRUPO: 1. Sea X una variable aleatoria discreta. Determine el valor de k para que la función p(x) { k/x x 1, 2, 3, 4 0 en otro caso sea una función

Más detalles

Soluciones Numéricas de Modelos Matemáticos

Soluciones Numéricas de Modelos Matemáticos Cuarta Sesión 9 de febrero de 2011 Contenido Aproximación Numérica 1 Aproximación Numérica 2 3 4 Algunos Métodos Sencillos para EDPs Aproximación numérica a una función por Series de Taylor Serie de Taylor:

Más detalles

Comportamiento asintótico de estimadores

Comportamiento asintótico de estimadores Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos

Más detalles

Mínimos Cuadrados Generalizados

Mínimos Cuadrados Generalizados Mínimos Cuadrados Generalizados Román Salmerón Gómez Los dos últimos temas de la asignatura han estado enfocados en estudiar por separado la relajación de las hipótesis de que las perturbaciones estén

Más detalles

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS FACULTAD DE CIENCIAS MATEMÁTICAS E.A.P. DE. ESTADÍSTICA Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú

Más detalles

Econometría 1. Karoll GOMEZ Segundo semestre 2017

Econometría 1. Karoll GOMEZ   Segundo semestre 2017 Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios

Más detalles

Universidad Carlos III de Madrid

Universidad Carlos III de Madrid Universidad Carlos III de Madrid Ejercicio 1 3 4 5 6 Total Puntos Departamento de Economía Examen Final de Matemáticas I 0 de Enero de 015 APELLIDOS: Duración del Examen: horas NOMBRE: DNI: Titulación:

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Estimación de Máxima Verosimilitud Utilizando la Función optim en R

Estimación de Máxima Verosimilitud Utilizando la Función optim en R Estimación de Máxima Verosimilitud Utilizando la Función optim en R Juan F. Olivares-Pacheco * 15 de diciembre de 2006 Resumen En este trabajo se muestra el método de verosimilitud para la estimación de

Más detalles

T2. El modelo lineal simple

T2. El modelo lineal simple T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de

Más detalles

INTERVALOS DE CONFIANZA

INTERVALOS DE CONFIANZA INTERVALOS DE CONFIANZA INTERVALOS DE CONFIANZA Dado que los estimadores puntuales pocas veces serán iguales a los parámetros que se desean estimar, es posible darse mayor libertad utilizando estimadores

Más detalles