Estimación de Máxima Verosimilitud Utilizando la Función optim en R

Documentos relacionados
ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Tema 3: Estimación estadística de modelos probabilistas. (primera parte)

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

Definición Una hipótesis es una afirmación acerca de un parámetro.

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

Tema 7: Introducción a la Teoría sobre Estimación

Estadística Diplomado

Tema 6. Estimación puntual

Estimación por intervalos

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

Análisis Multivariante de Datos

3 ESTIMACION. 3.1 Introducción

Estimación de Parámetros

Principios de reducción de la data

Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA

Selección de distribuciones de probabilidad

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

CONTRASTE DE HIPÓTESIS

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.

INFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez

Sistemas de Reconocimiento de Patrones

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012

T2. El modelo lineal simple

METODOS ESTADÍSTICOS

TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07

ANALISIS FACTORIAL. Jorge Galbiati R.

Tema 3: Estimación estadística de modelos probabilistas. (segunda parte)

Intervalos de Confianza

ANÁLISIS DE FRECUENCIAS

CONTRASTE DE HIPÓTESIS

ANÁLISIS DE REGRESIÓN

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Probabilidad y Verosimilitud

INFERENCIA ESTADISTICA

Estimación. Introducción. Sea X la variable aleatoria poblacional con distribución de probabilidad f θ donde. es el parámetro poblacional desconocido

Ms. C. Marco Vinicio Rodríguez

Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones

Estimación de Parámetros

MODELOS DE SIMULACIÓN ESTADÍSTICOS CLASE 4: DISTRIBUCIÓN t, CHI-CUADRADA y EXPONENCIAL PROFESOR: OSCAR SAAVEDRA ANDRÉS DURANGO.

Tema 4: Estimación por intervalo (Intervalos de Confianza)

Tema 6: Introducción a la Inferencia Bayesiana

Clasificación. Aurea Grané. Análisis Discriminante

Estimador de Máxima Verosimilitud

Modelos lineales generalizados

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

Muestreo e intervalos de confianza

Econometría Aplicada

Estimación Bayesiana en el modelo lineal generalizado

1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE

Juan Carlos Colonia INFERENCIA ESTADÍSTICA

Teorema Central del Límite (1)

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Probabilidad y Estadística

Conceptos Básicos de Inferencia

UNIVERSIDAD DE ATACAMA

DEPARTAMENTO DE MATEMÁTICAS Página 1

Tema 4: Probabilidad y Teoría de Muestras

10.1 Enfoque Bayesiano del problema de la estimación

Ejercicios de optimización sin restricciones

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

Análisis del Cambio Estructural en los Modelos Lineales

Estimaciones puntuales. Estadística II

Ejercicios T2 y T3.- DISTRIBUCIONES MUESTRALES Y ESTIMACIÓN PUNTUAL

Fundamentos de Estadística

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I

Una revisión de los estimadores óptimos de calibración usando métodos de cuasi-verosimilitud en muestreo bifásico

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos

Estadística Inferencial. Sesión 2. Distribuciones muestrales

Introducción a la Inferencia Estadística

TEMA 4: CONTROL POR VARIABLES Hoja de ejercicios (Entregar el 7 -problema de examen-)

Veamos cómo, con esta definición, podemos tomar siempre una muestra aleatoria como una muestra representativa de la población estudiada.

Técnicas de Muestreo Métodos

Tema 5. Muestreo y distribuciones muestrales

2.3. Análisis bayesiano para datos normales

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid

Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos

Modelos Estadísticos de Crimen

Muestreo de variables aleatorias

TEMA 3: INFERENCIA ESTADISTICA

Fundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso

Muestreo y. Distribuciones Muestrales

LA CONFIABILIDAD BASADA EN LA DISTRIBUCIÓN WEIBULL, FUNDAMENTO PARA LA OPTIMIZACIÓN DEL MANTENIMIENTO INDUSTRIAL

Tema 6: Introducción a la inferencia estadística

Unidad Temática 2: Unidad 5 Estadística Inferencial Temas 10 y 11

Econometría Aplicada

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

Econometría de series de tiempo aplicada a macroeconomía y finanzas

PRUEBAS DE ACCESO A LA UNIVERSIDAD L.O.G.S.E

Tema 8. Fundamentos de Análisis discriminante

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

Filtrado e identificación de parámetros mediante métodos bayesianos

Conceptos básicos de inferencia estadística (III): Inferencia no paramétrica: Contrastes de bondad de ajuste.

Transcripción:

Estimación de Máxima Verosimilitud Utilizando la Función optim en R Juan F. Olivares-Pacheco * 15 de diciembre de 2006 Resumen En este trabajo se muestra el método de verosimilitud para la estimación de parámetros en la distribución normal a modo de ejemplo, utilizando el software estadístico R. Específicamente se hará uso de la función optim explicando su utilización y forma de optimizar funciones. KEY WORDS: R, optim, máxima verosimilitud. * Departamento de Matemática, Universidad de Atacama, CHILE. E-mail: jolivares@mat.uda.cl 1

1. Introducción El método de máxima verosimilitud fue introducido primero por R. A. Fisher, genetista y experto en estadística, en la década de 1920. La mayoría de los expertos en estadística recomiendan este método, al menos cuando el tamaño muestral es grande, porque los estimadores resultantes tienen ciertas propiedades deseables de eficiencia. Definición 1.1 Sea X una variable aleatoria con función de probabilidad f(x θ), donde θ es un parámetro desconocido. Sean X 1,..., X n los valores observados en una muestra aleatoria de tamaño n. La función de verosimilitud de la muestra es: L(θ) = n f(x i θ) (1) Debemos considerar que (1) es la función de densidad conjunta de la muestra aleatoria. Notemos que la función de verosimilitud es una función del parámetro desconocido θ. Definición 1.2 El estimador de máxima verosimilitud de θ es el valor de θ que maximiza la función de verosimilitud L(θ). En ocasiones es más simple maximizar la función log-verosimilitud que (1), dada por: l(θ) = log (L(θ)) = log f(x i θ) (2) El método de máxima verosimilitud puede emplearse en situaciones donde existen varios parámetros desconocidos, θ 1, θ 2,..., θ k ), que es necesario estimar. En tales casos, la función de verosimilitud es una función de los k parámetros desconocidos θ 1, θ 2,..., θ k y los estimadores de máxima verosimilitud ˆθ 1, ˆθ 2,..., ˆθ k se obtienen al igualar a cero las k derivadas parciales, dadas por: y resolver el sistema resultante. L(θ 1, θ 2,..., θ k ), i = 1, 2,..., k θ i 2

2. Ejemplo Sea X 1,..., X n verosimilitud es: una muestra aleatoria de una distribución normal. La función de L(θ) = = 1 e (x 1 µ)2 2πσ 2 ( ) n/2 1 e 2πσ 2 (x i µ) 2 1 e (x n µ) 2 2πσ 2 así l(θ) = log(l(θ)) = n 2 log(2πσ2 ) 1 (x i µ) 2 Para encontrar los valores críticos de µ y σ 2 debemos tomar las derivadas parciales de l(θ) con respecto a µ y σ 2, igualarlas a cero y resolver las dos ecuaciones resultantes. Si se omiten los detalles, los estimadores máximos verosímiles resultantes son: ˆµ = 1 X i n (X i X) 2 ˆσ 2 = n 3. optim El comando optim en un método de optimización de funciones de propósito general, basado el los algoritmos Nelder-Mead, quasi-newton y conjugate-gradient. La forma de utilizar este comando se muestra a continuación: optim(par, fn, method = c("l-bfgs-b"), lower = -Inf, upper = Inf,... ), donde par corresponde al valor inicial del parámetro a ser optimizado, fn la función a ser minimizada, method el método a ser utilizado, el método L-BFGS-B permite definir intervalos en donde tomara valores el o los parámetros que se desean buscar, lower y upper son los 3

límites inferiores y superiores de los parámetros a encontrar, respectivamente, y... argumentos adicionales que se van ha pasar a fn. Los valores que retorna el comando optim son: par que corresponde al conjunto de los mejores parámetros encontrados, var el valor de fn correspondiente a los parámetros encontrados, convergence la convergencia satisfactoria será indicada con un 0. Para más información consultar >help(optim), en R. 4. Un ejemplo práctico Consideremos que nos interesa encontrar los estimadores máximos verosímiles de la densidad N(µ, σ 2 ), a utilizando la siguientes muestra aleatoria de tamaño 100, con valores iniciales para µ = 6 y σ = 3. 3,899 6,442 7,213 5,824 7,000 5,584 3,408 6,579 3,071 5,062 2,124 2,913 1,460 6,609 11,152 7,358 6,083 8,624 2,336 1,201 9,875 3,033 9,432 4,725 3,848 9,426 3,102 11,555 4,148 3,224 8,021 10,687 4,166 3,121 6,065 5,498 10,883 8,446 3,249 6,431 2,482 5,168 3,006 9,456 5,055 8,219 2,855 10,277 5,317 5,747 0,834 5,467 7,528 10,024 7,245 6,904 3,651 9,140 6,576 7,049 5,168 10,665 6,703 3,161 7,092 5,401 6,897 9,823 12,713 5,587 5,015 5,683 8,262 6,632 5,989 2,014 6,186 6,358 9,647 8,599 5,442 12,793 7,378 4,959 1,838 4,667 7,201 6,519 7,658 4,066 10,970 6,795 3,332 8,493 7,755 6,414 9,984 6,149 7,441 11,551 Esta muestra aleatoria es almacenada en R, de la siguiente manera: >muestra <- c(3.899,...,11.551). Ya definida la variable muestra, que es un vector que contiene a la muestra aleatoria el siguiente paso es definir la función -log-verosimilitud. La cual se define de la siguiente forma: 4

funcionmenoslog <- function(p, x) { p1 <- p[1] p2 <- p[2] n <- length(x) f <- rep(0, n) for (i in 1:n) { f[i] <- -log(dnorm(x[i], p1, p2)) } sumaf <- sum(f) return(sumaf) } Ya definida en R esta función, ahora es el turno de utilizar el comando optim, como sigue: resultado <- optim(par = c(6, 3), fn = funcionmenoslog, method = c("l-bfgs-b"), lower = c(-inf, 0), upper = c(inf, Inf), x = muestra) Como se observa la salida de optim ha sido almacenada en una variable llamada resultado, entonces para acceder a las respectivas estimaciones, utilizamos lo siguiente: > resultado$par [1] 6.339275 2.730736 Donde 6,339275 corresponda a la estimación de µ y 2,730736 a la estimación de σ. Para ver el grado de convergencia, hacemos: > resultado$convergence [1] 0 Lo cual indica que la convergencia es satisfactoria. 5

Referencias [1] Devore, J. L. Probabilidad y Estadística para Ingeniería y Ciencias. Quinta Edición. [2] Bolfarine, H. and Carneiro M. Introducción a la Inferencia Estadística. Primera Edición. 6