Estimación Bayesiana y Máximo a Posteriori

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Estimación Bayesiana y Máximo a Posteriori"

Transcripción

1 Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de 018

2 Dos enfoques: clásico o frecuentista vs. Bayesiano I Enfoque clásico o frecuentista: variable determinística desconocida, a determinar. I Enfoque Bayesiano: V.A. cuya realización particular debemos estimar. Motivación: I Marco que posibilita incorporar conocimiento previo sobre, mediante un prior o distribución a priori p(). Si el prior es razonable, puede conducir a estimaciones más precisas. I Útil cuando no podemos encontrar un MVU, por ejemplo cuando la varianza de un estimador insesgado no es uniformemente menor la la de todos los otros estimadores insesgados (i.e. sobre todo el dominio de definición de ). Sin embargo, puede cumplirse que existe un estimador que minimiza el MSE para la mayoría de los valores posibles del parámetro. Asignando una PDF p(), esposible encontrar un estimador que sea óptimo en promedio, sobre los valores posibles de.

3 Agenda I Definición del MSE Bayesiano (BMSE). I Minimización del BMSE. I Interpretación: compromiso entre el conocimiento a priori y el conocimiento que aportan las observaciones o los datos. I Modelo lineal Bayesiano. I Estimador MAP (Máximo A Posteriori)

4 Motivación: conocimiento a priori y estimación Mostremos con un ejemplo como El conocimiento a priori conduce a estimadores más exactos A R, x[n] A + w[n], n 0, 1,..., 1, {w[n]} iid, E[w[n]] 0. I Vimos previamente que el MVU era x (media muestral). I Supongamos ahora que sabemos que A applea 0 < +1. I Claramente  x no será el mejor estimador (puede incluso conducir a valores fuera de [ A 0,A 0 ] I Postulemos el estimador media muestral truncada 8 < A 0 si x < A 0 Ǎ x si A 0 apple x apple A 0 : A 0 si x >A 0

5 Seguimos con el ejemplo: media muestral truncada Cómo es la PDF de Ǎ, pǎ(u; A)? pǎ(u; A) Pr( x< A 0 ) (u + A 0 )+pâ(u; A)[H(u + A 0 ) H(u A 0 )] +Pr( x>a 0 ) (u A 0 )

6 Qué podemos decir de Ǎ? I Sesgado o insesgado? Sesgado I En términos de MSE, cuál es mejor:  o Ǎ? MSE(Â) ZR (u A) pâ(u; A)du Z A0 Z A0 1 (u A) pâ(u; A)du + (u A) Z +1 pâ(u; A)du + (u A) pâ(u; A)du A 0 A 0 Z A0 > 1 ( A 0 A) Z A0 pâ(u; A)du + (u A) Z +1 pâ(u; A)du + (A 0 A) pâ(u; A)du A 0 A 0 MSE(Ǎ) ) En términos de MSE, Ǎ es mejor que  Algunas observaciones generales I Autorizando un sesgo, podemos reducir el MSE. I Podemos preguntarnos si existe un estimador óptimo en cuanto al MSE... I Ya vimos que en el enfoque clásico optimizar el MSE puede conducir a estimadores irrealizables que dependen del parámetro a estimar. I Veremos que esto no es un problema en el enfoque bayesiano.

7 MSE clásico y MSE bayesiano (BMSE) Supongamos que disponemos de conocimiento previo sobre, e.g.: I Sólo puede ser positivo (peso de un objeto, etc). I [ 0, 0 ] sin preferencia por ningún valor ( U[ 0, 0 ]). I Las leyes físicas o de la naturaleza nos dicen que sigue cierto tipo de distribución, p(). Ahora es una V.A., y el objetivo es estimar una realización particular, dado el conocimiento previo y los datos observados. Antes teníamos ( era determinística): I MSE(ˆ) E x [(ˆ ) ] R (ˆ ) p(x; )dx. I Es claro que el resultado de optimizar el MSE puede depender de.

8 MSE clásico y MSE bayesiano (BMSE) (cont.) Ahora introducimos el BMSE: BMSE(ˆ) E x, [(ˆ ) ] Z Z Z (ˆ ) p( x)p(x)ddx x Z p(x) (ˆ ) p( x)ddx Ejercicio: encontrar ˆ ˆ(x) que minimice el BMSE. Siempre existe? Solución: comop(x) 0 8 x, minimizarbmse(ˆ) equivale a minimizar, 8 x, R (ˆ ) p( x)d. Z Z (ˆ ) p( x)d Z Z ˆ p( x)d p( x)d {z } {z } 1 E[ x] )p( x)d, ˆ(x) E[ x] 8 x (la media del posterior)

9 Interpretación y observaciones sobre el BMSE I El estimador basado en BMSE se define como aquél que minimiza el promedio del MSE sobre todas las realizaciones posibles de. I Este estimador resulta ser la media de la distribución a posteriori, 8 x, ˆ(x) R p( x)d E[ x]. I El efecto de observar datos es concentrar cada vez más el prior p():

10 Rol del prior, rol de los datos observados I Si el prior es poco informativo (e.g. una uniforme con gran soporte o una Gaussiana con de varianza enorme), el estimador BMSE estará casi determinado por los datos. I Si la cantidad de datos es poca o tiene mucha varianza, el resultado estará sesgado hacia la media del prior. I La elección del prior es fundamental cuando se dispone de pocos datos, o si los datos son de muy mala calidad.

11 Ejemplo instructivo: Modelo Lineal Bayesiano (y Gaussiano) x H + w, siendox, w R vectores de observaciones y ruido, R p vector de p parámetros, H R p el sistema. Tenemos w (0, C w ), (µ, C ), y w independientes. Objetivo: obtener el estimador ˆ que minimice el BMSE, Z ˆ(x) E[ x] p( x)d, Les propongo construir ( Porqué? Justificar...) x H + w H I z I p 0 w... Para llegar a obtener p( x). Tenemos, w independientes ) conjuntamente Gaussiano, w Gaussianos w. ) z vector Gaussiano (T.L. de Gauss. son Gauss.)

12 Modelo Lineal Bayesiano (y Gaussiano) Cálculo de media y matriz de covarianza de z Obs: u V.A., A matriz, v Au. Entonces: C v E[(v Ev)(v Ev) T ]E[A(u Eu)(u Eu) T A T ]AC u A T. apple I H + w E[z] E HE + Ew E Hµ µ Cx C C z C (x,) x C x C H I C 0 H T I I p 0 0 C w I p HC H T + HC w HC C H T C 0 Luego, z Hµ µ, C z.

13 Modelo Lineal Bayesiano Gaussiano Cálculo de p( x). p(z) p(, x) p( x) p(x) Hµ, C µ z E[ x], C x (Hµ, C x ) Ejercicio: mostrar que E[ x] µ + C H T HC H T + C w 1 (x Hµ ) C x C C H T HC H T + C w 1 HC y que luego, gracias a la identidad de Woodbury (A + UCV) 1 A 1 + A 1 U(C 1 + VA 1 U) 1 VA 1 ), E[ x] µ +(C 1 + HT Cw 1 H) 1 H T Cw 1 (x Hµ ) C x (C 1 + HT Cw 1 H) 1

14 Modelo Lineal Bayesiano Gaussiano Ejemplo: DC en WG con prior Gaussiano x[n] A + w[n], n 0, 1,..., 1, A (µ A, A ), {w[n]} i.i.d., w[n] (0, ) Ejercicio: Calcular  E[A x] y Var(A x). Mostrar que BMSE(Â) <MSE( x). x 1A + w, conw (0, I), con1 T [1, 1,...,1]. 1 Var(A x) + 1T A A E[A x] µ A + A A + A A + x + 1 A A + 1 1T (x 1µ A )µ A +! A A + µ A. A A + ( x µ A ) Obs: BMSE(Â) Var(A x) A A + A A + < MSE( x).

15 Modelo Lineal Bayesiano Gaussiano Ejemplo: DC en WG con prior Gaussiano

16 Estimador MAP (Máximo A Posteriori) Equivalente Bayesiano del MLE: en lugar de maximizar la verosimilitud, se maximiza la densidad a posteriori (posterior likelihood prior / evidence). p(x )p() ˆ MAP : arg max p( x) arg max p(x) arg max p(x )p() arg max{log p(x ) + log p() } {z } {z } likelihood prior Obs: si p() ' cte (prior no informativo), ˆ MAP ' ˆ ML

17 Estimador MAP: Ejemplo lineal Gaussiano x H + w, con w (0, C w ), (µ, C ), y w independientes. Ejercicio 1: encontrar ˆ MAP ˆ MAP arg max { 1 (x H) T Cw 1 (x H)+( µ ) T C 1 ( µ ) } {z } 1 H T C 1 w H H T C 1 w x +C 1 x T C 1 w H T H T C 1 w x C 1 µ, H T Cw 1 H + C 1 H T Cw 1 x + C 1, ˆ MAP H T C 1 w H + C 1 µ 1 H T Cw 1 x + C 1 µ Ejercicio : mostrar que ˆ MAP µ + H T Cw 1 H + C 1 H T Cw 1 (x coincide con el estimador BMSE). Hµ ) (i.e. en este caso

Estimadores insesgados lineales óptimos (BLUE)

Estimadores insesgados lineales óptimos (BLUE) Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Estimador de máxima verosimilitud (MLE)

Estimador de máxima verosimilitud (MLE) Estimador de máxima verosimilitud (MLE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de

Más detalles

Estimación insesgada de mínima varianza

Estimación insesgada de mínima varianza Estimación insesgada de mínima varianza Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

Estimador de Máxima Verosimilitud

Estimador de Máxima Verosimilitud Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de

Más detalles

Variables aleatorias. Utilizando el resultado anterior, vemos que

Variables aleatorias. Utilizando el resultado anterior, vemos que Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un

Más detalles

Algoritmo de adaptación LMS

Algoritmo de adaptación LMS Algoritmo de adaptación LMS Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Abril de 2018 Introducción

Más detalles

Métodos Bayesianos (Convocatoria Febrero 2005)

Métodos Bayesianos (Convocatoria Febrero 2005) Dpto. Métodos Cuantitativos en Economía y Gestión Univ. de Las Palmas de G.C. Licenciatura en Economía Cuarto curso Curso 04/05 Métodos Bayesianos (Convocatoria Febrero 005) EJERCICIO 1. El método estándar

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Tema 3: Estimación estadística de modelos probabilistas. (primera parte)

Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Regresión Lineal Múltiple

Regresión Lineal Múltiple Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta

Más detalles

Fundamentos para la inferencia. Estadística Prof. Tamara Burdisso

Fundamentos para la inferencia. Estadística Prof. Tamara Burdisso Fundamentos para la inferencia Estadística 018 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una

Más detalles

Tema 6. Estimación puntual

Tema 6. Estimación puntual Tema 6. Estimación puntual Contenidos Planteamiento del problema Criterios de comparación de estimadores: Insesgadez Estimadores de mínima varianza Error cuadrático medio Consistencia Métodos para obtener

Más detalles

Estadística I Tema 5: Introducción a la inferencia estadística

Estadística I Tema 5: Introducción a la inferencia estadística Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Tema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2.

Tema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3 - Introducción 1 Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores

Más detalles

Tema 6. Estimación puntual

Tema 6. Estimación puntual 1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables

Más detalles

Análisis Multivariante de Datos

Análisis Multivariante de Datos Análisis Multivariante de Datos Curso 2016-2017 Por qué es importante realizar inferencia sobre los parámetros de la normal? La estimación máximo-verosímil (MV) de la distribución Normal son la media y

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

Tema 4. Regresión lineal simple

Tema 4. Regresión lineal simple Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias

Más detalles

ECONOMETRÍA I. Tema 2: El Modelo de Regresión Lineal Simple. Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía

ECONOMETRÍA I. Tema 2: El Modelo de Regresión Lineal Simple. Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía ECONOMETRÍA I Tema 2: El Modelo de Regresión Lineal Simple Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía Alexandra Soberon (UC) ECONOMETRÍA I 1 / 42 Modelo de Regresión

Más detalles

Aprendizaje Automático

Aprendizaje Automático Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática

Más detalles

Least Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator

Least Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator 16/4/2011 UNIVERSIDAD TECNICA FEDERICO SANTA MARIA DEPARTAMENTO DE ELECTRONICA ELO325 SoftComputing y Aplicaciones Least Squared Methods for System Identification Tomás Arredondo Vidal - 1. Modelamiento

Más detalles

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04) 4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción

Más detalles

EJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos

EJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos ECONOMETRÍA EJERCICIO T1 APELLIDOS: NOMBRE: FIRMA: GRUPO: DNI: Pregunta 1 A B C En Blanco Pregunta A B C En Blanco Pregunta 3 A B C En Blanco Pregunta 4 A B C En Blanco Pregunta 5 A B C En Blanco Pregunta

Más detalles

Tema 8. Fundamentos de Análisis discriminante

Tema 8. Fundamentos de Análisis discriminante Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. Tema 8. Fundamentos de Análisis discriminante 8.1. Introducción. Empezamos deniendo el problema discriminante.

Más detalles

Tema 9. Análisis factorial discriminante

Tema 9. Análisis factorial discriminante Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10 Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------

Más detalles

Estimación de Parámetros

Estimación de Parámetros Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

CUESTIONES TEÓRICAS ESTADÍSTICA

CUESTIONES TEÓRICAS ESTADÍSTICA Gestión Aeronáutica: Estadística Teórica Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández CUESTIONES TEÓRICAS ESTADÍSTICA Gestión

Más detalles

Econometría 1. Karoll GOMEZ Segundo semestre 2017

Econometría 1. Karoll GOMEZ   Segundo semestre 2017 Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 1 de octubre del 2012 Definición Estadístico suficiente Un estadístico es suficiente respecto al parámetro si la distribución de probabilidad

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.

Más detalles

10.1 Enfoque Bayesiano del problema de la estimación

10.1 Enfoque Bayesiano del problema de la estimación Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,

Más detalles

PFC: Localización de robots mediante filtro de Kalman

PFC: Localización de robots mediante filtro de Kalman 6.- FILTRO DE KALMAN 6.1.- MOTIVACIÓN Los sistemas de navegación se han convertido en un estándar, ya que se venden más y más, sobre todo con los coches nuevos. La mayoría de estos sistemas de navegación

Más detalles

Econometría 1. Karoll GOMEZ Segundo semestre 2017

Econometría 1. Karoll GOMEZ   Segundo semestre 2017 Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios

Más detalles

Inferencia Bayesiana en la distribución Gumbel: aplicación en el modelamiento de intensidades de lluvia

Inferencia Bayesiana en la distribución Gumbel: aplicación en el modelamiento de intensidades de lluvia Inferencia Bayesiana en la distribución Gumbel: aplicación en el modelamiento de intensidades de lluvia Ignacio Vidal G.. ividal@utalca.cl Universidad de Talca, Chile. Seminario FONDEF-D08I1054, Santiago

Más detalles

Cota Inferior de Cramer Rao

Cota Inferior de Cramer Rao Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica

Más detalles

Clasificación. Aurea Grané. Análisis Discriminante

Clasificación. Aurea Grané. Análisis Discriminante Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos

Más detalles

GUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE.

GUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE. ECONOMETRIA I. Departamento de Fundamentos del Análisis Económico Universidad de Alicante. Curso 011/1 GUIÓN TEMA. PROPIEDADES DE LOS ESTIMADORES MCO Bibliografía apartados.1,. y.3: Greene, 6.6.1, 6.6.3

Más detalles

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual

Más detalles

Inferencia Estadística

Inferencia Estadística Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características

Más detalles

Identificación n de SIStemas

Identificación n de SIStemas Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n

Más detalles

UNIVERSIDAD DE ATACAMA

UNIVERSIDAD DE ATACAMA UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA ESTADÍSTICA Y PROBABILIDAD GUÍA DE TRABAJO 3 Profesor: Hugo S. Salinas. Primer Semestre 2010 1. Sea X 1,..., X n una muestra aleatoria

Más detalles

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006 EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar

Más detalles

Estimación Máxima Verosimilitud

Estimación Máxima Verosimilitud Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay

Más detalles

Estadística Bayesiana

Estadística Bayesiana Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar

Más detalles

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño 7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ Introducción Los datos frecuentemente son dados para valores

Más detalles

B1 - Apuntes de estimación

B1 - Apuntes de estimación B - Apuntes de estimación Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Jerónimo Arenas García, Jesús Cid Sueiro Contents Estimación analítica.... Visión general de los problemas

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Los estimadores mínimo cuadráticos bajo los supuestos clásicos Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni MCO bajo los supuestos clásicos 1

Más detalles

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1 . Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 24 de septiembre del 2013 Suficiencia Cuando hacemos inferencia sobre un parámetro, usando una muestra aleatoria (X 1,...,X n )yunestadísticoˆ

Más detalles

Overfit, cross validation y bootstrap

Overfit, cross validation y bootstrap Universisad de San Andrés y CONICET Cueestiones preliminares Sea z n una sucesion de variables aleatorias escalares. Consideremos la siguiente sucesion z n = n i=1 z i n Ley de grandes numeros (Kolmogorov):

Más detalles

Filtrado e identificación de parámetros mediante métodos bayesianos

Filtrado e identificación de parámetros mediante métodos bayesianos Filtrado e identificación de parámetros mediante métodos bayesianos Guillermo La Mura a, Eduardo Serrano b,d, Ricardo Sirne c a Escuela de Ciencia y Tecnología - UNSAM b Centro de Matemática Aplicada -

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

TEMA 2: Propiedades de los estimadores MCO

TEMA 2: Propiedades de los estimadores MCO TEMA 2: Propiedades de los estimadores MCO Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 2: Pdades de los estimadores MCO Curso

Más detalles

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación Estadística Tema 3 Esperanzas 31 Esperanza Propiedades 32 Varianza y covarianza Correlación 33 Esperanza y varianza condicional Predicción Objetivos 1 Medidas características distribución de VA 2 Media

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Tema 2: Introducción a la Inferencia Estadística

Tema 2: Introducción a la Inferencia Estadística Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos

Más detalles

Econometría de series de tiempo aplicada a macroeconomía y finanzas

Econometría de series de tiempo aplicada a macroeconomía y finanzas Econometría de series de tiempo aplicada a macroeconomía y finanzas Series de Tiempo Estacionarias (Multivariadas) Carlos Capistrán Carmona ITAM 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación

Más detalles

Índice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero

Índice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero Clase 1 Introducción a la Econometría Profesor: Felipe Avilés Lucero 26 de mayo de 2010 1 Introducción 2 Economía y Estadística 3 Análisis de Regresión Función de Regresión Poblacional Función de Regresión

Más detalles

Fundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso

Fundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso Fundamentos para la inferencia Estadísca 017 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una

Más detalles

Fundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso

Fundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso Fundamentos para la inferencia Estadísca 016 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una

Más detalles

Introducción a la inferencia estadística

Introducción a la inferencia estadística M. Wiper Estadística 1 / 15 Introducción a la inferencia estadística Michael Wiper Departamento de Estadística Universidad Carlos III de Madrid M. Wiper Estadística 2 / 15 Objetivo Introducir la distribución

Más detalles

Análisis de Sensibilidad de los Resultados

Análisis de Sensibilidad de los Resultados Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

2.3. Análisis bayesiano para datos normales

2.3. Análisis bayesiano para datos normales 2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos

Más detalles

INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION

INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 005 SOLUCION 1.- Sea ( X,..., X ) una muestra aleatoria simple de una variable aleatoria X con 1 n E(X) µ y Var (X) k µ. Considérense los siguientes estimadores

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid 6. Inferencia con muestras grandes 1 Tema 6: Inferencia con muestras grandes 1. Intervalos de confianza para μ con muestras grandes 2. Determinación del tamaño muestral 3. Introducción al contraste de

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

La modelación en el diseño de sistemas de observación de la calidad del agua subterránea

La modelación en el diseño de sistemas de observación de la calidad del agua subterránea La modelación en el diseño de sistemas de observación de la calidad del agua subterránea Graciela Herrera Zamarrón Instituto Mexicano de Tecnología del Agua 3 de diciembre de 2004 Guía de la presentación?

Más detalles

Tratamiento Digital de la Información

Tratamiento Digital de la Información J. Arenas-García, J.Cid-Sueiro, V. Gómez- Verdejo, M. Lázaro-Gredilla, E. Parrado- Hernández Tratamiento Digital de la Información Notas Introductorias August 26, 2015 Springer Contents 1 Estimación analítica............................................

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

Estadística para la Economía y la Gestión IN 3401 Clase 5

Estadística para la Economía y la Gestión IN 3401 Clase 5 Estadística para la Economía y la Gestión IN 3401 Clase 5 Problemas con los Datos 9 de junio de 2010 1 Multicolinealidad Multicolinealidad Exacta y Multicolinealidad Aproximada Detección de Multicolinealidad

Más detalles

Estadística I Tema 7: Estimación por intervalos

Estadística I Tema 7: Estimación por intervalos Estadística I Tema 7: Estimación por intervalos Tema 7: Estimación por intervalos Ideas a transmitir Definición e interpretación frecuentista. Intervalos de confianza para medias y varianzas en poblaciones

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Juan Carlos Colonia INFERENCIA ESTADÍSTICA

Juan Carlos Colonia INFERENCIA ESTADÍSTICA Juan Carlos Colonia INFERENCIA ESTADÍSTICA PARÁMETROS Y ESTADÍSTICAS Es fundamental entender la diferencia entre parámetros y estadísticos. Los parámetros se refieren a la distribución de la población

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones

Más detalles

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos

Más detalles

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental

Más detalles

ANALISIS FACTORIAL. Jorge Galbiati R.

ANALISIS FACTORIAL. Jorge Galbiati R. ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores

Más detalles