Estimación Bayesiana y Máximo a Posteriori
|
|
- Eduardo Gerardo Rivero Pereyra
- hace 5 años
- Vistas:
Transcripción
1 Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de 018
2 Dos enfoques: clásico o frecuentista vs. Bayesiano I Enfoque clásico o frecuentista: variable determinística desconocida, a determinar. I Enfoque Bayesiano: V.A. cuya realización particular debemos estimar. Motivación: I Marco que posibilita incorporar conocimiento previo sobre, mediante un prior o distribución a priori p(). Si el prior es razonable, puede conducir a estimaciones más precisas. I Útil cuando no podemos encontrar un MVU, por ejemplo cuando la varianza de un estimador insesgado no es uniformemente menor la la de todos los otros estimadores insesgados (i.e. sobre todo el dominio de definición de ). Sin embargo, puede cumplirse que existe un estimador que minimiza el MSE para la mayoría de los valores posibles del parámetro. Asignando una PDF p(), esposible encontrar un estimador que sea óptimo en promedio, sobre los valores posibles de.
3 Agenda I Definición del MSE Bayesiano (BMSE). I Minimización del BMSE. I Interpretación: compromiso entre el conocimiento a priori y el conocimiento que aportan las observaciones o los datos. I Modelo lineal Bayesiano. I Estimador MAP (Máximo A Posteriori)
4 Motivación: conocimiento a priori y estimación Mostremos con un ejemplo como El conocimiento a priori conduce a estimadores más exactos A R, x[n] A + w[n], n 0, 1,..., 1, {w[n]} iid, E[w[n]] 0. I Vimos previamente que el MVU era x (media muestral). I Supongamos ahora que sabemos que A applea 0 < +1. I Claramente  x no será el mejor estimador (puede incluso conducir a valores fuera de [ A 0,A 0 ] I Postulemos el estimador media muestral truncada 8 < A 0 si x < A 0 Ǎ x si A 0 apple x apple A 0 : A 0 si x >A 0
5 Seguimos con el ejemplo: media muestral truncada Cómo es la PDF de Ǎ, pǎ(u; A)? pǎ(u; A) Pr( x< A 0 ) (u + A 0 )+pâ(u; A)[H(u + A 0 ) H(u A 0 )] +Pr( x>a 0 ) (u A 0 )
6 Qué podemos decir de Ǎ? I Sesgado o insesgado? Sesgado I En términos de MSE, cuál es mejor:  o Ǎ? MSE(Â) ZR (u A) pâ(u; A)du Z A0 Z A0 1 (u A) pâ(u; A)du + (u A) Z +1 pâ(u; A)du + (u A) pâ(u; A)du A 0 A 0 Z A0 > 1 ( A 0 A) Z A0 pâ(u; A)du + (u A) Z +1 pâ(u; A)du + (A 0 A) pâ(u; A)du A 0 A 0 MSE(Ǎ) ) En términos de MSE, Ǎ es mejor que  Algunas observaciones generales I Autorizando un sesgo, podemos reducir el MSE. I Podemos preguntarnos si existe un estimador óptimo en cuanto al MSE... I Ya vimos que en el enfoque clásico optimizar el MSE puede conducir a estimadores irrealizables que dependen del parámetro a estimar. I Veremos que esto no es un problema en el enfoque bayesiano.
7 MSE clásico y MSE bayesiano (BMSE) Supongamos que disponemos de conocimiento previo sobre, e.g.: I Sólo puede ser positivo (peso de un objeto, etc). I [ 0, 0 ] sin preferencia por ningún valor ( U[ 0, 0 ]). I Las leyes físicas o de la naturaleza nos dicen que sigue cierto tipo de distribución, p(). Ahora es una V.A., y el objetivo es estimar una realización particular, dado el conocimiento previo y los datos observados. Antes teníamos ( era determinística): I MSE(ˆ) E x [(ˆ ) ] R (ˆ ) p(x; )dx. I Es claro que el resultado de optimizar el MSE puede depender de.
8 MSE clásico y MSE bayesiano (BMSE) (cont.) Ahora introducimos el BMSE: BMSE(ˆ) E x, [(ˆ ) ] Z Z Z (ˆ ) p( x)p(x)ddx x Z p(x) (ˆ ) p( x)ddx Ejercicio: encontrar ˆ ˆ(x) que minimice el BMSE. Siempre existe? Solución: comop(x) 0 8 x, minimizarbmse(ˆ) equivale a minimizar, 8 x, R (ˆ ) p( x)d. Z Z (ˆ ) p( x)d Z Z ˆ p( x)d p( x)d {z } {z } 1 E[ x] )p( x)d, ˆ(x) E[ x] 8 x (la media del posterior)
9 Interpretación y observaciones sobre el BMSE I El estimador basado en BMSE se define como aquél que minimiza el promedio del MSE sobre todas las realizaciones posibles de. I Este estimador resulta ser la media de la distribución a posteriori, 8 x, ˆ(x) R p( x)d E[ x]. I El efecto de observar datos es concentrar cada vez más el prior p():
10 Rol del prior, rol de los datos observados I Si el prior es poco informativo (e.g. una uniforme con gran soporte o una Gaussiana con de varianza enorme), el estimador BMSE estará casi determinado por los datos. I Si la cantidad de datos es poca o tiene mucha varianza, el resultado estará sesgado hacia la media del prior. I La elección del prior es fundamental cuando se dispone de pocos datos, o si los datos son de muy mala calidad.
11 Ejemplo instructivo: Modelo Lineal Bayesiano (y Gaussiano) x H + w, siendox, w R vectores de observaciones y ruido, R p vector de p parámetros, H R p el sistema. Tenemos w (0, C w ), (µ, C ), y w independientes. Objetivo: obtener el estimador ˆ que minimice el BMSE, Z ˆ(x) E[ x] p( x)d, Les propongo construir ( Porqué? Justificar...) x H + w H I z I p 0 w... Para llegar a obtener p( x). Tenemos, w independientes ) conjuntamente Gaussiano, w Gaussianos w. ) z vector Gaussiano (T.L. de Gauss. son Gauss.)
12 Modelo Lineal Bayesiano (y Gaussiano) Cálculo de media y matriz de covarianza de z Obs: u V.A., A matriz, v Au. Entonces: C v E[(v Ev)(v Ev) T ]E[A(u Eu)(u Eu) T A T ]AC u A T. apple I H + w E[z] E HE + Ew E Hµ µ Cx C C z C (x,) x C x C H I C 0 H T I I p 0 0 C w I p HC H T + HC w HC C H T C 0 Luego, z Hµ µ, C z.
13 Modelo Lineal Bayesiano Gaussiano Cálculo de p( x). p(z) p(, x) p( x) p(x) Hµ, C µ z E[ x], C x (Hµ, C x ) Ejercicio: mostrar que E[ x] µ + C H T HC H T + C w 1 (x Hµ ) C x C C H T HC H T + C w 1 HC y que luego, gracias a la identidad de Woodbury (A + UCV) 1 A 1 + A 1 U(C 1 + VA 1 U) 1 VA 1 ), E[ x] µ +(C 1 + HT Cw 1 H) 1 H T Cw 1 (x Hµ ) C x (C 1 + HT Cw 1 H) 1
14 Modelo Lineal Bayesiano Gaussiano Ejemplo: DC en WG con prior Gaussiano x[n] A + w[n], n 0, 1,..., 1, A (µ A, A ), {w[n]} i.i.d., w[n] (0, ) Ejercicio: Calcular  E[A x] y Var(A x). Mostrar que BMSE(Â) <MSE( x). x 1A + w, conw (0, I), con1 T [1, 1,...,1]. 1 Var(A x) + 1T A A E[A x] µ A + A A + A A + x + 1 A A + 1 1T (x 1µ A )µ A +! A A + µ A. A A + ( x µ A ) Obs: BMSE(Â) Var(A x) A A + A A + < MSE( x).
15 Modelo Lineal Bayesiano Gaussiano Ejemplo: DC en WG con prior Gaussiano
16 Estimador MAP (Máximo A Posteriori) Equivalente Bayesiano del MLE: en lugar de maximizar la verosimilitud, se maximiza la densidad a posteriori (posterior likelihood prior / evidence). p(x )p() ˆ MAP : arg max p( x) arg max p(x) arg max p(x )p() arg max{log p(x ) + log p() } {z } {z } likelihood prior Obs: si p() ' cte (prior no informativo), ˆ MAP ' ˆ ML
17 Estimador MAP: Ejemplo lineal Gaussiano x H + w, con w (0, C w ), (µ, C ), y w independientes. Ejercicio 1: encontrar ˆ MAP ˆ MAP arg max { 1 (x H) T Cw 1 (x H)+( µ ) T C 1 ( µ ) } {z } 1 H T C 1 w H H T C 1 w x +C 1 x T C 1 w H T H T C 1 w x C 1 µ, H T Cw 1 H + C 1 H T Cw 1 x + C 1, ˆ MAP H T C 1 w H + C 1 µ 1 H T Cw 1 x + C 1 µ Ejercicio : mostrar que ˆ MAP µ + H T Cw 1 H + C 1 H T Cw 1 (x coincide con el estimador BMSE). Hµ ) (i.e. en este caso
Estimadores insesgados lineales óptimos (BLUE)
Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detallesEstimador de máxima verosimilitud (MLE)
Estimador de máxima verosimilitud (MLE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de
Más detallesEstimación insesgada de mínima varianza
Estimación insesgada de mínima varianza Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesEstimador de Máxima Verosimilitud
Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de
Más detallesVariables aleatorias. Utilizando el resultado anterior, vemos que
Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un
Más detallesAlgoritmo de adaptación LMS
Algoritmo de adaptación LMS Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Abril de 2018 Introducción
Más detallesMétodos Bayesianos (Convocatoria Febrero 2005)
Dpto. Métodos Cuantitativos en Economía y Gestión Univ. de Las Palmas de G.C. Licenciatura en Economía Cuarto curso Curso 04/05 Métodos Bayesianos (Convocatoria Febrero 005) EJERCICIO 1. El método estándar
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesTema 3: Estimación estadística de modelos probabilistas. (primera parte)
Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:
Más detallesAuxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Más detallesIDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA
IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesRegresión Lineal Múltiple
Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta
Más detallesFundamentos para la inferencia. Estadística Prof. Tamara Burdisso
Fundamentos para la inferencia Estadística 018 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una
Más detallesTema 6. Estimación puntual
Tema 6. Estimación puntual Contenidos Planteamiento del problema Criterios de comparación de estimadores: Insesgadez Estimadores de mínima varianza Error cuadrático medio Consistencia Métodos para obtener
Más detallesEstadística I Tema 5: Introducción a la inferencia estadística
Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesTema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2.
Tema 3 - Introducción 1 Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores
Más detallesTema 6. Estimación puntual
1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos
Más detallesClasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
Más detallesVariables aleatorias
Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables
Más detallesAnálisis Multivariante de Datos
Análisis Multivariante de Datos Curso 2016-2017 Por qué es importante realizar inferencia sobre los parámetros de la normal? La estimación máximo-verosímil (MV) de la distribución Normal son la media y
Más detallesRESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre
Más detallesTema 4. Regresión lineal simple
Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias
Más detallesECONOMETRÍA I. Tema 2: El Modelo de Regresión Lineal Simple. Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía
ECONOMETRÍA I Tema 2: El Modelo de Regresión Lineal Simple Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía Alexandra Soberon (UC) ECONOMETRÍA I 1 / 42 Modelo de Regresión
Más detallesAprendizaje Automático
Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática
Más detallesLeast Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator
16/4/2011 UNIVERSIDAD TECNICA FEDERICO SANTA MARIA DEPARTAMENTO DE ELECTRONICA ELO325 SoftComputing y Aplicaciones Least Squared Methods for System Identification Tomás Arredondo Vidal - 1. Modelamiento
Más detallesDoctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)
4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción
Más detallesEJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos
ECONOMETRÍA EJERCICIO T1 APELLIDOS: NOMBRE: FIRMA: GRUPO: DNI: Pregunta 1 A B C En Blanco Pregunta A B C En Blanco Pregunta 3 A B C En Blanco Pregunta 4 A B C En Blanco Pregunta 5 A B C En Blanco Pregunta
Más detallesTema 8. Fundamentos de Análisis discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. Tema 8. Fundamentos de Análisis discriminante 8.1. Introducción. Empezamos deniendo el problema discriminante.
Más detallesTema 9. Análisis factorial discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,
Más detallesEstadística II Tema 4. Regresión lineal simple. Curso 2009/10
Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores
Más detallesINTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión
INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------
Más detallesEstimación de Parámetros
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación
Más detallesApuntes de Series Temporales
Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,
Más detallesCUESTIONES TEÓRICAS ESTADÍSTICA
Gestión Aeronáutica: Estadística Teórica Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández CUESTIONES TEÓRICAS ESTADÍSTICA Gestión
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesSimulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Más detallesCurso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 1 de octubre del 2012 Definición Estadístico suficiente Un estadístico es suficiente respecto al parámetro si la distribución de probabilidad
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesCapítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
Más detalles10.1 Enfoque Bayesiano del problema de la estimación
Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,
Más detallesPFC: Localización de robots mediante filtro de Kalman
6.- FILTRO DE KALMAN 6.1.- MOTIVACIÓN Los sistemas de navegación se han convertido en un estándar, ya que se venden más y más, sobre todo con los coches nuevos. La mayoría de estos sistemas de navegación
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesInferencia Bayesiana en la distribución Gumbel: aplicación en el modelamiento de intensidades de lluvia
Inferencia Bayesiana en la distribución Gumbel: aplicación en el modelamiento de intensidades de lluvia Ignacio Vidal G.. ividal@utalca.cl Universidad de Talca, Chile. Seminario FONDEF-D08I1054, Santiago
Más detallesCota Inferior de Cramer Rao
Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica
Más detallesClasificación. Aurea Grané. Análisis Discriminante
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos
Más detallesGUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE.
ECONOMETRIA I. Departamento de Fundamentos del Análisis Económico Universidad de Alicante. Curso 011/1 GUIÓN TEMA. PROPIEDADES DE LOS ESTIMADORES MCO Bibliografía apartados.1,. y.3: Greene, 6.6.1, 6.6.3
Más detallesPart VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores
Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual
Más detallesInferencia Estadística
Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características
Más detallesIdentificación n de SIStemas
Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n
Más detallesUNIVERSIDAD DE ATACAMA
UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA ESTADÍSTICA Y PROBABILIDAD GUÍA DE TRABAJO 3 Profesor: Hugo S. Salinas. Primer Semestre 2010 1. Sea X 1,..., X n una muestra aleatoria
Más detallesEXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006
EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar
Más detallesEstimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
Más detallesEstadística Bayesiana
Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar
Más detalles7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño
7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ Introducción Los datos frecuentemente son dados para valores
Más detallesB1 - Apuntes de estimación
B - Apuntes de estimación Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Jerónimo Arenas García, Jesús Cid Sueiro Contents Estimación analítica.... Visión general de los problemas
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesLos estimadores mínimo cuadráticos bajo los supuestos clásicos
Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni MCO bajo los supuestos clásicos 1
Más detallesGermán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1
. Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones
Más detallesTema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
Más detallesCurso Inferencia. Miguel Ángel Chong R. 24 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 24 de septiembre del 2013 Suficiencia Cuando hacemos inferencia sobre un parámetro, usando una muestra aleatoria (X 1,...,X n )yunestadísticoˆ
Más detallesOverfit, cross validation y bootstrap
Universisad de San Andrés y CONICET Cueestiones preliminares Sea z n una sucesion de variables aleatorias escalares. Consideremos la siguiente sucesion z n = n i=1 z i n Ley de grandes numeros (Kolmogorov):
Más detallesFiltrado e identificación de parámetros mediante métodos bayesianos
Filtrado e identificación de parámetros mediante métodos bayesianos Guillermo La Mura a, Eduardo Serrano b,d, Ricardo Sirne c a Escuela de Ciencia y Tecnología - UNSAM b Centro de Matemática Aplicada -
Más detallesSelección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
Más detallesRepaso de Probabilidad y Estadística
Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................
Más detallesTEMA 2: Propiedades de los estimadores MCO
TEMA 2: Propiedades de los estimadores MCO Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 2: Pdades de los estimadores MCO Curso
Más detallesEstadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación
Estadística Tema 3 Esperanzas 31 Esperanza Propiedades 32 Varianza y covarianza Correlación 33 Esperanza y varianza condicional Predicción Objetivos 1 Medidas características distribución de VA 2 Media
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesTema 2: Introducción a la Inferencia Estadística
Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.
Más detallesCurso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos
Más detallesEconometría de series de tiempo aplicada a macroeconomía y finanzas
Econometría de series de tiempo aplicada a macroeconomía y finanzas Series de Tiempo Estacionarias (Multivariadas) Carlos Capistrán Carmona ITAM 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación
Más detallesÍndice Introducción Economía y Estadística Análisis de Regresión. Clase 1. Introducción a la Econometría. Profesor: Felipe Avilés Lucero
Clase 1 Introducción a la Econometría Profesor: Felipe Avilés Lucero 26 de mayo de 2010 1 Introducción 2 Economía y Estadística 3 Análisis de Regresión Función de Regresión Poblacional Función de Regresión
Más detallesFundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso
Fundamentos para la inferencia Estadísca 017 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una
Más detallesFundamentos para la inferencia. Unidad 3 Parte II Estadísca Prof. Tamara Burdisso
Fundamentos para la inferencia Estadísca 016 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una
Más detallesIntroducción a la inferencia estadística
M. Wiper Estadística 1 / 15 Introducción a la inferencia estadística Michael Wiper Departamento de Estadística Universidad Carlos III de Madrid M. Wiper Estadística 2 / 15 Objetivo Introducir la distribución
Más detallesAnálisis de Sensibilidad de los Resultados
Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach
Más detallesIntroducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Más detalles2.3. Análisis bayesiano para datos normales
2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos
Más detallesINGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION
INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 005 SOLUCION 1.- Sea ( X,..., X ) una muestra aleatoria simple de una variable aleatoria X con 1 n E(X) µ y Var (X) k µ. Considérense los siguientes estimadores
Más detallesTEMA 3.- VECTORES ALEATORIOS.- CURSO
TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.
Más detalles6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid
6. Inferencia con muestras grandes 1 Tema 6: Inferencia con muestras grandes 1. Intervalos de confianza para μ con muestras grandes 2. Determinación del tamaño muestral 3. Introducción al contraste de
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesLa modelación en el diseño de sistemas de observación de la calidad del agua subterránea
La modelación en el diseño de sistemas de observación de la calidad del agua subterránea Graciela Herrera Zamarrón Instituto Mexicano de Tecnología del Agua 3 de diciembre de 2004 Guía de la presentación?
Más detallesTratamiento Digital de la Información
J. Arenas-García, J.Cid-Sueiro, V. Gómez- Verdejo, M. Lázaro-Gredilla, E. Parrado- Hernández Tratamiento Digital de la Información Notas Introductorias August 26, 2015 Springer Contents 1 Estimación analítica............................................
Más detallesMomentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Más detallesEstadística para la Economía y la Gestión IN 3401 Clase 5
Estadística para la Economía y la Gestión IN 3401 Clase 5 Problemas con los Datos 9 de junio de 2010 1 Multicolinealidad Multicolinealidad Exacta y Multicolinealidad Aproximada Detección de Multicolinealidad
Más detallesEstadística I Tema 7: Estimación por intervalos
Estadística I Tema 7: Estimación por intervalos Tema 7: Estimación por intervalos Ideas a transmitir Definición e interpretación frecuentista. Intervalos de confianza para medias y varianzas en poblaciones
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesJuan Carlos Colonia INFERENCIA ESTADÍSTICA
Juan Carlos Colonia INFERENCIA ESTADÍSTICA PARÁMETROS Y ESTADÍSTICAS Es fundamental entender la diferencia entre parámetros y estadísticos. Los parámetros se refieren a la distribución de la población
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre
Más detallesCurso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones
Más detallesEstimación de densidades basada en núcleos: algunos elementos. Isabel Cañette
Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos
Más detallesEstadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con
Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental
Más detallesANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Más detalles