Tema 3: Estimadores de máxima verosimilitud

Documentos relacionados
Tema 4 - Introducción

Estimación por intervalos

6. ESTIMACIÓN DE PARÁMETROS

Métodos Estadísticos de la Ingeniería Tema 10: Inferencia Estadística, Intervalos de Confianza Grupo B

Estadistica II Tema 1. Inferencia sobre una población. Curso 2009/10

Estadística Avanzada y Análisis de Datos

2. Probabilidad y. variable aleatoria. Curso Estadística Probabilidad. Probabilidad y variable aleatoria

El método de mínimos cuadrados. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Teoría de la decisión Estadística

REVISION DE CONCEPTOS BÁSICOS

Test de Kolmogorov-Smirnov

Índice general Intervalo de confianza para la media si la varianza poblacional es. conocida desconocida... 3

Tema 5. Muestreo y distribuciones muestrales

1 Variables aleatorias independientes

Tema 5: Principales Distribuciones de Probabilidad

Análisis estadístico básico (I) Magdalena Cladera Munar Departament d Economia Aplicada Universitat de les Illes Balears

Tema 11: Intervalos de confianza.

6.3. Estimadores Insesgados de Varianza Uniformemente Mínima

Tema 1. Modelo de diseño de experimentos (un factor)

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta B

Probabilidad. Distribuciones binomial y normal

Distribución muestral de proporciones. Algunas secciones han sido tomadas de: Apuntes de Estadística Inferencial Instituto Tecnológico de Chiuhuahua

Variable Aleatoria. Relación de problemas 6

Estadística II Tema 3. Comparación de dos poblaciones. Curso 2010/11

ESTADÍSTICA I Tema 5: Contraste de hipótesis

Propiedades en una muestra aleatoria

Distribuciones de probabilidad. El teorema central del límite

Muestreo y Distribuciones muestrales. 51 SOLUCIONES

Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones

Pruebas de Bondad de Ajuste

DISTRIBUCIONES MUESTRALES

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD OPCIÓN A

Distribuciones unidimensionales discretas

Tema 4: Estimación por intervalo (Intervalos de Confianza)

Teoría de la estimación

Tema 6. Estimación puntual

DISTRIBUCIONES DE PROBABILIDAD

Tema 4 Probabilidad condicionada: teoremas básicos. Independencia de sucesos

Tema 4: Variable aleatoria. Métodos Estadísticos

ESTADISTICA APLICADA: PROGRAMA

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012

TEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS

CONCEPTOS FUNDAMENTALES

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

Introducción a la estadística básica, el diseño de experimentos y la regresión

Modelo mixto: estimación y prueba de hipótesis

Econometria. 4. Modelo de Regresión Lineal Simple: Inferencia. Prof. Ma. Isabel Santana

INTERVALO DE CONFIANZA PARA LA PROPORCIÓN

Por ejemplo, lanzar al aire un dado o una moneda son experimentos aleatorios. Los experimentos aleatorios pueden ser simples o compuestos.

MUESTREO Y MEDICIÓN MÉTODOS DE MUESTREO PROBABILÍSTICO Y NO PROBABILÍSTICO. FeGoSa

Método de máxima verosimilitud. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

Estadística Inferencial

COMBINATORIA Y PROBABILIDAD

1. OBJETO Y MOTIVACIÓN de los SISTEMAS de ESPERA. Ejemplos.

Estadística Inferencial. Sesión 5. Prueba de hipótesis

1) Características del diseño en un estudio de casos y controles.

1.- DATOS DE LA ASIGNATURA. Nombre de la asignatura: Probabilidad y Estadística. Carrera: Ingeniería en Materiales. Clave de la asignatura: MAM 0524

Nombre de la asignatura: Probabilidad y Estadística Ambiental

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste

Unidad III Variables Aleatorias Unidimensionales

Intervalo de confianza para µ

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL

T. 3 Inferencia estadística: estimación de parámetros

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

EJERCICIOS RESUELTOS TEMA 7

Probabilidad y Estadística

Comparación de Intervalos de Confianza para el Coeficiente de Correlación. Liliana Vanessa Pacheco Galindo

Técnicas Cuantitativas para el Management y los Negocios I

LA DISTRIBUCIÓN NORMAL

Probabilidades. 11 de noviembre de Felipe Bravo Márquez

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Regresión con autocorrelación

ESTADÍSTICA INFERENCIAL

PARTE II: MUESTREO CONCEPTOS BÁSICOS MÉTODOS DE MUESTREO NÚMERO DE MUESTRAS DISTRIBUCIONES MUESTRALES...

Ejercicios de Vectores Aleatorios

Tema 6. Estimación puntual

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág.

Integración por el método de Monte Carlo

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN)

Estadística II Tema 2. Conceptos básicos en el contraste de. Curso 2010/11

Soluciones Examen de Estadística

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores

Universidad Autonóma Metropolitana

Muestreo y estimación: problemas resueltos

Probabilidades y Estadística

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11

TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07

Tema 2. Contraste de hipótesis en una población

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO

Tema 2: Introducción a la Inferencia Estadística

Distribuciones muestrales. Distribución muestral de Medias

Fundamentos para la inferencia. Estadística Prof. Tamara Burdisso

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2004 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 6: TEORÍA DE MUESTRAS

Apuntes de Métodos Estadísticos I

ESTIMACIÓN. TEMA 5: Estimación puntual I. Propiedades de los estimadores. TEMA 6: Estimación puntual II. Métodos de estimación puntual

Grado en Química Bloque 1 Funciones de una variable

MODELO DE RESPUESTAS Objetivos del 1 al 9

Dr. Mauro Gutierrez Martinez Dr. Christiam Gonzales Chávez

Transcripción:

Tema 3: Estimadores de máxima verosimilitud 1 (basado en el material de A. Jach (http://www.est.uc3m.es/ajach/) y A. Alonso (http://www.est.uc3m.es/amalonso/)) Planteamiento del problema: motivación Método de obtención del E.M.V. Propiedades del E.M.V.

Planteamiento del problema 2 Hasta ahora hemos visto: Población y muestra Estadísticos y parámetros Estimadores y sus propiedades Cómo conseguir estimadores con buenas propiedades? A veces tenemos un estimador natural: X para µ, S 2 para σ 2, etc. n+1 A veces podemos deducirlo de forma intuitiva: n max{x 1,..., X n } para b, siendo la distribución de interés U(0, b) (Ejemplo 1, Tema 2). Y en el resto de los casos?

3 Ejemplo 1. Planteamiento del problema En una urna hay 4 bolas que pueden ser blancas o negras. La proporción, θ, de bolas blancas en la urna es desconocida. Nuestro objetivo es estimar el valor de θ. Para ello, extraemos de la urna 2 bolas con reemplazamiento. Supongamos que la primera bola extraída es blanca (B) y la segunda es negra (N). Qué valor de θ te resulta más verosímil? verosímil. 1. adj. Que tiene apariencia de verdadero. 2. adj. Creíble por no ofrecer carácter alguno de falsedad. Real Academia Española c Todos los derechos reservados. http://www.rae.es

Planteamiento del problema Ejemplo 1 (cont.) Buscaremos el valor de θ (entre todos los posibles) que haga más verosímil (más probable) el resultado que hemos obtenido. 4 Para ello calcularemos P(B, N θ) y elegiremos el valor de θ que nos de una probabilidad mayor. Es decir, buscamos el valor de θ que maximiza la función de probabilidad conjunta P(B, N θ), también llamada verosimilitud. La estimación así obtenida se llama estimación de máxima verosimilitud (EMV): usamos la información disponible en la muestra para elegir el valor del parámetro para el cuál es más probable haber obsservado ese resultado muestral.

Definición 1. Verosimilitud Sea X 1,..., X n una muestra aleatoria (no necesariamente simple) de una población X con función de probabilidad P θ (o con función de densidad f θ ). Para cada muestra particular (x 1,..., x n ), la función de verosimilitud se define como la función de probabilidad (o de densidad) conjunta de (X 1,..., X n ) evaluada en (x 1,..., x n ). 5 L(θ) = L(x 1,..., x n ; θ) = P θ (X 1 = x 1,..., X n = x n ) L(θ) = L(x 1,..., x n ; θ) = f θ (x 1,..., x n ) si X es discreta si X es continua Observaciones: La notación L(θ) indica que L es una función de θ y no de (x 1,..., x n ). θ puede ser un escalar o un vector (θ = (θ 1,..., θ k )). El subíndice θ en la función de probabilidad o de densidad indica que dicha función depende del valor del parámetro. Utilizaremos también las notaciones P( ; θ) y f ( ; θ).

Verosimilitud Ejemplo 1 (cont.) Escribir la función de verosimilitud en el caso de extraer dos bolas de la urna con reemplazamiento. Al extraer una bola al azar 6 X = { 1 si es blanca 0 si es negra B(θ) Tenemos una m.a.s. de tamaño 2, es decir, X 1, X 2 B(θ) i.i.d. Para una muestra particular cualquiera (x 1, x 2 ): L(x 1, x 2 ; θ) = P(X 1 = x 1, X 2 = x 2 ; θ) indep. = P(X 1 = x 1 ; θ) P(X 2 = x 2 ; θ) ] ] = [θ x1 (1 θ) 1 x1 [θ x2 (1 θ) 1 x2 Si realizamos la extracción sin reemplazamiento, cuál sería la función de verosimilitud?

Verosimilitud El caso más frecuente (y el que váis a tener en el examen) es aquél en el que las v.a. son i.i.d., es decir, tenemos una muestra aleatoria simple. 7 X v.a. discreta P( ; θ). X 1,..., X n m.a.s. de X : L(x 1,..., x n ; θ) = P(X 1 = x 1,..., X n = x n ; θ) indep. = P(X 1 = x 1 ; θ)... P(X n = x n ; θ) i.d. = n P(X = x i ; θ) i=1 X v.a. continua f ( ; θ). X 1,..., X n m.a.s. de X : L(x 1,..., x n ; θ) = f (x 1,..., x n ; θ) indep. = f X1 (x 1 ; θ)... f Xn (x n ; θ) i.d. = n f (x i ; θ) i=1

Ejemplo 2. Verosimilitud Sea X 1,..., X n una m.a.s. de X N(µ, σ). 8 Función de densidad de X : f (x ; µ, σ) = 1 2π σ e (x µ)2 2σ 2, x R. Función de verosimilitud de θ = (µ, σ): L(x 1,..., x n ; µ, σ) = f (x 1,..., x n ; θ) indep. = = = n i=1 1 2π σ exp ( 1 2π σ ) n exp n i=1 { (x i µ) 2 } { 2σ 2 1 2σ 2 f Xi (x i ; µ, σ) i.d. = } n (x i µ) 2 i=1 n f (x i ; µ, σ) i=1 x 1,..., x n R

Definición 2. Estimador de máxima verosimilitud Sea X 1,..., X n una muestra aleatoria de una población X con función de verosimilitud L(θ). Para cada muestra particular (x 1,..., x n ), la estimación de máxima verosimilitud de θ es el valor ˆθ MV que maximiza la verosimilitud. Es decir: L(x 1,..., x n ; ˆθ MV ) = max L(x 1,..., x n ; θ) θ El estimador de máxima verosimilitud, ˆθ MV (X 1,..., X n ), es aquél que evaluado en cada muestra particular nos da la estimación de máxima verosimilitud (ˆθ MV (x 1,..., x n )). 9 Observaciones: Muchas veces se utiliza el término estimador de máxima verosimilitud para denotar tanto el estimador como cualquier estimación particular. Ambos se denotan por ˆθ MV y se abrevian por E.M.V.

Estimador de máxima verosimilitud Sea θ = (θ 1,..., θ k ). Procedimiento para obtener el E.M.V. de θ j dada una muestra particular (x 1,..., x n ): 10 1. Escribir la verosimilitud: L(θ) = L(x 1,..., x n ; θ) 2. Escribir el logaritmo de la verosimilitud: l(θ) = ln L(θ) l(θ) se llama función soporte o log-verosimilitud. 3. Obtener el θ j tal que y denotarlo por ˆθ j. θ j l(θ) = 0 4. Comprobar que realmente es un máximo, es decir, que 2 θj 2 l(θ) θj =ˆθ j < 0

Estimador de máxima verosimilitud 11 Ejemplo 3. Sea X 1,..., X n una m.a.s. de X N(µ, σ). Obtener el E.M.V. de µ. 1. Escribir la verosimilitud (Ejemplo 2): ( ) { n 1 L(µ) = exp 1 2π σ 2σ 2 } n (x i µ) 2 i=1 2. Escribir la función soporte: ( ) l(µ) = ln L(µ) = n ln 2π σ 1 2σ 2 n (x i µ) 2 i=1

Ejemplo 3 (cont.) Estimador de máxima verosimilitud 3. Obtener el valor de µ tal que µ l(µ) = 0. µ l(µ) = 1 n 2σ 2 i=1 2 (x i µ) = 1 n σ 2 i=1 (x ( i µ) = 1 n σ nµ + 2 i=1 x ) i 12 µ l(µ) = 0 ( 1 n σ nµ + 2 i=1 x n i) = 0 nµ + i=1 x i = 0 nµ = n i=1 x i µ = 1 n n i=1 x i = x Por tanto ˆµ = x. 4. Comprobar que realmente es un máximo, es decir, que 2 µ 2 l(µ) µ=ˆµ < 0 2 n 2 l(µ) = < 0 µ µ 2 σ2 µ 2 l(µ) µ=ˆµ < 0 Por tanto la estimación máximo verosímil para una muestra dada es ˆµ MV = x, y el estimador máximo verosímil es ˆµ MV = X.

Estimador de máxima verosimilitud 13 Ejemplo 4. Sea X 1,..., X n una m.a.s. de X. Obtener: El E.M.V. de σ 2 si X N(µ, σ) con µ conocida. El E.M.V. de (µ, σ 2 ) si X N(µ, σ). El E.M.V. de p si X B(p). El E.M.V. de λ si X Exp(λ). El E.M.V. de λ si X P(λ).

14 Propiedades del E.M.V. Los E.M.V. tienen muy buenas propiedades. 1. INVARIANZA: Si ˆθ MV es el estimador máximo verosímil de θ, entonces h(ˆθ MV ) es el estimador máximo verosímil de h(θ). Ejemplo 5. Sea X 1,..., X n una m.a.s. de X N(µ, σ). Sabemos que ˆµ MV = X. Quiénes son los E.M.V. de 3µ, µ 2 y 1/µ? Por el principio de invarianza tenemos que 3µ MV = 3X, µ 2 MV = X 2 y 1/µ MV = 1/X. 2. CONSISTENCIA: Bajo ciertas condiciones generales, ˆθ MV es un estimador consistente de θ. 3. INSESGADEZ ASINTÓTICA: Se verifica que lim n E[ ˆθ nmv ] = θ.

4. NORMALIDAD ASINTÓTICA: Bajo ciertas condiciones generales, Propiedades del E.M.V. 15 n(ˆθmv θ) A N(0, i(θ) 1 ) donde i(θ) = E [ ( ) ] 2 ln f (X ; θ) θ es la cantidad de información de Fisher correspondiente a una observación. La cantidad de información de Fisher correspondiente a n observaciones es [ ( ) ] [ 2 ( ) ] 2 I (θ) = E θ ln f (X m.a.s. 1,..., X n ; θ) = n E ln f (X ; θ) θ = n i(θ)

Propiedades del E.M.V. 16 4. NORMALIDAD ASINTÓTICA (cont.): Se tiene que I (θ) = E [ ( ) ] 2 [ ] 2 θ ln f (X 1,..., X n ; θ) = E θ 2 ln f (X 1,..., X n ; θ) La varianza asintótica de ˆθ MV es: Var [ˆθMV ] A= 1 n i(θ) = 1 I (θ) 1 = [ ] E 2 θ ln f (X 2 1,..., X n ; θ) 1 2 θ 2 l(θ) θ=ˆθmv La aproximación final es muy útil en la práctica.

Propiedades del E.M.V. 17 Ejemplo 6. Sea X 1,..., X n una m.a.s. de X N(µ, σ). Obtener la varianza asintótica de ˆµ MV. Sabemos que Var [ˆµ MV ] A 1 y 2 µ l(µ) 2 µ=ˆµmv 2 n l(µ) = µ 2 σ 2. Por tanto Var [ˆµ MV ] A σ2 n. Observación: en este caso, al tratarse del estadístico media muestral sabemos que su varianza es exactamente σ2 n y no sólo asintóticamente. Además, al tratarse de la distribución normal, sabemos que la distribución del estadístico media muestral es exactamente normal y no sólo asintóticamente.

Ejemplo 7. Propiedades del E.M.V. Sea X 1,..., X n una m.a.s. de X Exp(λ). Hemos visto, que en este caso, el estimador máximo-verosímil de λ es ˆλ MV = 1 X. Cuál su varianza asintótica? 18 ] A 1 Var [ˆλMV 2 λ 2 l(λ) λ=ˆλmv 1 = n λ 2 λ=ˆλmv = ˆλ 2 MV n Si observamos la muestra particular (0.37, 2.16, 0.07, 1.86, 7.11, 0.67, 0.49, 0.11), cuál es la estimación máximo-verosímil de λ para esta muestra? Y la aproximación de la varianza asintótica del estimador máximo-verosímil? Estimación máximo-verosímil: ˆλ MV = 1 x = 1 1.605 0.623. Aproximación de la varianza asintótica de ˆλ MV (estimador): Var [ˆλMV ] A ˆλ 2 MV n = 0.6232 8 = 0.049