Análisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores
|
|
- María Núñez Castillo
- hace 5 años
- Vistas:
Transcripción
1 Análisis de Datos Teoría de decisión Bayesiana Profesor: Dr. Wilfrido Gómez Flores 1
2 Teoría de decisión Bayesiana La teoría de probabilidad provee un marco teórico para los procesos de cuantificación y manipulación de la incertidumbre. Teoría de decisión Bayesiana: Teoría de probabilidad Decisiones óptimas Teoría de decisión Incertidumbre Cuantifica el compromiso entre varias decisiones de clasificación usando probabilidades y los costos que acompañan tales decisiones. Asume que el problema de decisión está en términos probabilísticos, y que todas las probabilidades relevantes son conocidas. 2
3 Ejemplo ilustrativo Una planta empacadora de pescados quiere automatizar el proceso de separación de pescados que van sobre una banda de producción. Existen dos tipos de pescados: róbalo y salmón. Supóngase que una persona observa los peces pasando por la banda de producción y se le dificulta predecir qué pescado es el próximo en salir, lo cual parece tener un comportamiento aleatorio. Sea ω el estado de naturaleza con ω=ω 1 para róbalo y ω=ω 2 para salmón. Debido a que el estado de naturaleza es impredecible, entonces ω es la variable que debe ser descrita probabilísticamente. 3
4 Probabilidades a priori El estado de naturaleza se puede describir en términos de su probabilidad a priori, la cual expresa el conocimiento existente acerca de ω antes de que aparezca algún tipo de pescado sin ningún otro tipo de evidencia: p(ω 1 es la probabilidad a priori de que el siguiente pescado sea un róbalo. p(ω 2 es la probabilidad a priori de que el siguiente pescado sea un salmón. Estas probabilidades a priori son dependientes de factores como época del año, lugar de pesca, etc. Asúmase que no existen otros tipos de pescados, de manera que p(ω 1 + p(ω 2 =1, lo cual indica exclusividad y exhaustividad. 4
5 Probabilidades a priori Cómo se puede tomar una decisión utilizando únicamente el conocimiento a priori? Decidir ω 1 si p(ω 1 > p(ω 2 ω 2 otro caso Obviamente siempre se tomará la misma decisión aún sabiendo que cualquier tipo de pescado puede ser el próximo en salir. Si p(ω 1 y p(ω 2 son equiprobables, es decir, p(ω 1 =p(ω 2, se tiene 50/50 de estar en lo correcto. La probabilidad de error de la regla de decisión en (1 es: (1 p(error = min{p(ω 1, p(ω 2 } = 1 max{p(ω 1, p(ω 2 } (2 5
6 Probabilidad clase-condicional Para mejorar la decisión, se debe usar otro tipo de información o evidencia, por ejemplo, una medida de luminosidad, x, del pescado a partir de un sensor. Se tendrán diferentes lecturas de luminosidad para pescados de distinta especie, es decir, x debe ser discriminante (e invariante. Considerando x como una variable aleatoria, su distribución depende del estado de naturaleza y se expresa en términos de una función de densidad de probabilidad clase-condicional p(x ω. Entonces, las diferencias entre p(x ω 1 y p(x ω 2 describen las diferencias en luminosidad entre poblaciones de róbalo y salmón. 6
7 Probabilidad clase-condicional p(x ω i ω 2 ω 1 Funciones de densidad de probabilidad (PDF clase-condicionales hipotéticas para dos clases que muestran la densidad de probabilidad de medir una característica x dado un patrón en la clase ω i. x 7
8 Probabilidad a posteriori Supóngase que se conoce p(ω j y p(x ω j, para j=1,2, y la medida de luminosidad de un pescado es x. La función de probabilidad conjunta de encontrar un patrón que está en la clase ω j y que tiene un valor de característica x es: p(x,ω j = p(ω j,x p(ω j xp(x = p(x ω j p(ω j Reacomodando términos se tiene la fórmula de Bayes: p(ω j x = p(x ω p(ω j j (4 p(x donde p(ω j x es la probabilidad a posteriori que indica la probabilidad del estado de naturaleza de ser ω j dado un valor x. El denominador en (4 para el caso de dos clases es: 2 p(x = p(x ω j p(ω j j =1 (3 (5 8
9 Probabilidad a posteriori La fórmula de Bayes se puede expresar informalmente como: posterior = verosimilitud previo evidencia La regla de decisión Bayesiana está dada por: Decidir ω 1 si p(ω 1 x > p(ω 2 x ω 2 otro caso (6 Reescribiendo la regla de decisión: Decidir ω 1 si p(x ω 1 p(ω 1 > p(x ω 2 p(ω 2 ω 2 otro caso (7 9
10 Probabilidad a posteriori p(ω i x ω 1 ω 2 Probabilidades posteriores para las probabilidades particulares p(ω 1 =2/3 y p(ω 2 =1/3. x 10
11 Probabilidad de error Cada vez que se observa un valor particular de x, la probabilidad de error es: p(error x = p(ω 1 x si se decide ω 2 p(ω 2 x si se decide ω 1 Minimizar la probabilidad de error involucra decidir de acuerdo a la regla de clasificación Bayesiana dada en (6, de este modo (8 se vuelve (8 p(error x = min{p(ω 1 x, p(ω 2 x} = 1 max{p(ω 1 x, p(ω 2 x} (9 11
12 Generalización Las ideas hasta ahora consideradas se pueden generalizar en cuatro formas: Permitir más de una característica. Permitir más de dos estados de naturaleza. Permitir acciones además de meramente decidir el estado de naturaleza. Introducir una función de pérdida (loss function más general que la probabilidad de error. 12
13 Definiciones Sea {ω 1,,ω C } un conjunto finito de C estados de naturaleza (clases o categorías. Sea {α 1,,α A } un conjunto de A posibles acciones. Sea λ(αi ω j la pérdida incurrida por tomar una acción α i cuando el estado de naturaleza es ω j. Sea x un vector D-dimensional de variables aleatorias denominado vector de características. 13
14 Fórmula de Bayes p(ω j es la probabilidad a priori de la clase ω j, j=1,,c. p(x ω j es la función de densidad de probabilidad clase condicional para x. La probabilidad a posteriori para la clase ωj se computa de acuerdo con el teorema de Bayes: donde la evidencia es p(ω j x = p(x ω j p(ω j p(x C j =1 p(x = p(x ω j p(ω j (10 (11 14
15 Riesgo condicional Supóngase que se tiene una observación particular x y se contempla tomar la acción α i. Si el verdadero estado de naturaleza es ωj, se incurrirá en la pérdida λ(α i ω j. La pérdida esperada (o riesgo condicional asociada con tomar la acción α i es: C, para i = 1,,A (12 R(α i x = λ(α i ω j p(ω j x j =1 Seleccionar la acción α i para la cual R(α i x es mínimo. 15
16 Clasificación binaria En el caso especial de clasificación binaria se tiene: Acción α 1 : decidir ω 1. Acción α 2 : decidir ω 2. λ ij =λ(α i ω j, pérdida incurrida en decidir ω i cuando el estado de naturaleza verdadero es ω j. En términos de probabilidades a posteriori el riesgo condicional es: R(α 1 x = λ 11 p(ω 1 x + λ 12 p(ω 2 x R(α 2 x = λ 21 p(ω 1 x + λ 22 p(ω 2 x (13 (14 La regla de decisión de mínimo riesgo es: Decidir ω 1 si (λ 21 λ 11 p(ω 1 x > (λ 12 λ 22 p(ω 2 x ω 2 otro caso (15 16
17 Clasificación binaria La regla de decisión de mínimo riesgo en (15 corresponde a decidir ω 1 si: p(x ω 1 p(x ω 2 > λ λ p(ω λ 21 λ 11 p(ω 1 (16 Se compara la proporción de verosimilitud con un umbral que es independiente de la observación x. p(x ω 1 p(x ω 2 Razón de verosimilitudes y frontera de decisión θ a. R 1 es la región del espacio de características clasificada como ω 1 y del mismo modo para R 2 y ω 2. x 17
18 Tasa de error de clasificación En problemas de clasificación las acciones son decisiones sobre clases. Se busca una regla de decisión que minimice la tasa de error de clasificación (i.e., la probabilidad de error. Usualmente si la acción α i es tomada y el verdadero estado de naturaleza es ω j, entonces la decisión es correcta si i=j y es un error si i j, lo cual se expresa mediante la función de pérdida 0-1: λ(α i ω j = 0 i = j 1 i j i, j = 1,,C (17 Esta función no asigna pérdida a una decisión correcta y asigna una pérdida unitaria a cualquier error, de modo que todos los errores son igualmente costosos. 18
19 Tasa de error de clasificación Riesgo condicional correspondiente a la función de pérdida 0-1: C i=1 i j R(α i x = λ(α i ω j p(ω j x = p(ω j x = 1 p(ω i x (18 Minimizar el riesgo requiere maximizar p(ω i x, resultando en la regla de decisión de error mínimo: Decidir ω i si p(ω i x > p(ω j x para todo i j (19 Esta regla de decisión es la generalización de la regla de decisión Bayesiana en (6. 19
PRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesAnálisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesAnálisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesAnálisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de la probabilidad Los fenómenos del mundo real se pueden clasificar en dos tipos: Determinista:
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
Más detallesBases estadísticas del reconocimiento de patrones
Bases estadísticas del reconocimiento de patrones César Martínez cmartinez _AT_ fich.unl.edu.ar Inteligencia Computacional FICH-UNL Percepción humana Tarea muuuuy simple: Cuántas llaves hay? Inteligencia
Más detallesTareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
Más detallesInteligencia Artificial II Razonamiento Bayesiano
Inteligencia Artificial II Razonamiento Bayesiano Dr. Alejandro Guerra-Hernández Universidad Veracruzana Centro de Investigación en Inteligencia Artificial mailto:aguerra@uv.mx http://www.uv.mx/personal/aguerra
Más detallesCarrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A
Carrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A ESTADÍSTICA INFERENCIAL Cuando no se puede estudiar a todos los miembros de una población y se debe recurrir a una muestra, haciendo uso de las técnicas
Más detallesAnálisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Más detallesCI5438. Inteligencia Artificial II Clase 9: Incertidumbre Cap 13 Ru. Cap 13 Russel & Norvig
CI5438. Inteligencia Artificial II Clase 9: Incertidumbre Cap 13 Russel & Norvig Universidad Simón Boĺıvar 10 de Noviembre de 2008 Incertidumbre Sea A t = Salir hacia el aeropuerto t minutos antes del
Más detallesCarrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A
Carrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A ESTADÍSTICA INFERENCIAL Cuando no se puede estudiar a todos los miembros de una población y se debe recurrir a una muestra, haciendo uso de las técnicas
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesAnálisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en color INTRODUCCIÓN La segmentación de imágenes a color se puede realizar mediante técnicas de clasificación supervisada.
Más detallesEstadística Bayesiana
Introducción Universidad Nacional Agraria La Molina 2017-1 Introducción Introducción La estadística Bayesiana le debe su nombre al trabajo pionero del reverendo Thomas Bayes titulado: An Essay towards
Más detallesAprendizaje Automático
Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática
Más detallesAPRENDIZAJE PROBABILÍSTICO NAIVE BAYES
1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;
Más detallesCapitulo 1: Introducción al reconocimiento de patrones (Secciones )
Capitulo 1: Introducción al reconocimiento de patrones (Secciones 1.1-1.6) M A C H I N E P E R C E P T I O N U N E J E M P L O S I S T E M A S D E R E C O N O C I M I E N T O D E P A T R O N E S C I C
Más detallesIntroducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Más detallesInferencia en Modelos Gráficos para detección de Tópicos (LDA)
Inferencia en Modelos Gráficos para detección de Tópicos (LDA) Francisco Barreras 19 de enero de 2017 Contenido 1 Introducción y Contexto 2 Motivación 3 Definiciones y Fundamentos 4 Razonamiento y flujos
Más detallesClasificación. Aurea Grané. Análisis Discriminante
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos
Más detalles9 Teoría de la Decisión
9 Teoría de la Decisión En condiciones de incertidumbre, el papel del estadístico es tomar una decisión a partir de una observación parcial de la situación. Una mala decisión puede llevar a perdidas importantes.
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 1
Maestría en Bioinformática Probabilidad y Estadística: Clase 1 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Introducción 2 Teoría
Más detallesIntroducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Más detallesResumen de Probabilidad
Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS
Más detallesDesarrollo e impacto de la Estadística Bayesiana
Desarrollo e impacto de la Estadística Bayesiana Eduardo Gutiérrez Peña Departamento de Probabilidad y Estadística Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas Universidad Nacional
Más detallesSupport Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Más detallesEstadística Bayesiana
Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detallesEL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades
EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase
Más detallesRepaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
Más detallesProbabilidad y Procesos Aleatorios
y Dr. Héctor E. Poveda P. hector.poveda@utp.ac.pa www.hpoveda7.com.pa @hpoveda7 Plan del curso Probabilidad Múltiples 1. Probabilidad Espacios probabilísticos Probabilidad condicional 2. 3. Múltiples 4.
Más detallesAnálisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características
Más detallesModulación y Detección en Canales Gaussianos
2 de noviembre de 2009 Índice Modelo de Comunicaciones Digitales 1 Modelo de Comunicaciones Digitales 2 3 4 5 6 7 Modelo General Info. Formato (e.g. A/D) Codif. Fuente Encriptado Codif. Canal Modulador
Más detallesTema 4. Probabilidad Condicionada
Tema 4. Probabilidad Condicionada Presentación y Objetivos. En este tema se dan reglas para actualizar una probabilidad determinada en situaciones en las que se dispone de información adicional. Para ello
Más detallesClasificación estadística de patrones
Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de
Más detallesEstadística I Tema 4: Probabilidad
Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada
Más detallesAnálisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente
Más detallesAnálisis de Datos. Estimación de distribuciones desconocidas: métodos no paramétricos. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Estimación de distribuciones desconocidas: métodos no paramétricos Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La estimación de densidad con modelos paramétricos asumen que las
Más detallesUnidad 3. Probabilidad
Unidad 3. Probabilidad Javier Santibáñez 17 de agosto de 2018 1. Introducción Definición 1. La probabilidad es una medida subjetiva del grado de creencia que se tiene acerca de que algo desconocido sea
Más detallesEstadística Bayesiana y Riesgos
Estadística Bayesiana y Riesgos Manuel Mendoza Ramírez Instituto Tecnológico Autónomo de México Seminario Aleatorio. Contribuciones Recientes de la Estadística a la Actuaría en México. ITAM. México, D.F.
Más detallesAnálisis y Recuperación de Información
Análisis y Recuperación de Información 1 er Cuatrimestre 2017 Página Web http://www.exa.unicen.edu.ar/catedras/ayrdatos/ Prof. Dra. Daniela Godoy ISISTAN Research Institute UNICEN University Tandil, Bs.
Más detallesAnálisis de Datos en Física de Partículas
Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del
Más detallesBASES DE LA PROBABILIDAD
BASES DE LA PROBABILIDAD M. en C. Juan Carlos Gutiérrez Matus UPIICSA Instituto Politécnico Nacional Primavera 2004 IPN c 2004 Juan C. Gutiérrez Matus IPN c 2004 Juan C. Gutiérrez Matus 1 Introducción
Más detallesPattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Más detallesBases Formales de la Computación: Sesión 1. Probabilidad Discreta
Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali 11 de abril
Más detallesSIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6
SIMULACION x p(x) x h(x) 6 4 5 2 3 Urna /6 2 /6 3 /6 4 /6 5 /6 6 /6 Dado /6 2 /6 3 /6 4 /6 5 /6 6 /6 x p(x) x h(x) s(x) 4 5 2 3 Urna 2 0.2 2 0.2 3 0.2 4 0.2 5 0.2 6 0.0 Dado /6.2 2 /6.2 3 /6.2 4 /6.2 5
Más detallesCONTRASTE DE HIPÓTESIS
CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región
Más detallesRECONOCIMIENTO DE PATRONES DRA. LETICIA FLORES PULIDO
RECONOCIMIENTO DE PATRONES DRA. LETICIA FLORES PULIDO 2 CONTENIDO TEMA1: INTRODUCCIÓN TEMA2: APRENDIZAJE MÁQUINA TEMA3: RECONOCIMIENTO DE PATRONES TEMA4: PROGRAMACIÓN EVOLUTIVA 3 TEMA 3 : RECONOCIMIENTO
Más detallesACT-11302: Cálculo Actuarial III
ACT-11302: Cálculo Actuarial III Notas de Clase Juan Carlos Martínez-Ovando ITAM 25 de agosto de 2016 Agenda Modelo estadístico Intercambiabilidad Modelo estadístico Definición Se dice que un conjunto
Más detallesTEORIA DE LA DECISION DE BAYES
TEORIA DE LA DECISION DE BAYES 1 2 PROBABILIDAD A PRIORI 3 4 5 DENSIDAD DE PROBABILIDAD Además de la probabilidad a priori a menudo se tiene información adicional: el valor de la observación x que se va
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesCÁLCULO DE PROBABILIDADES
CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.
Más detallesUniversidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD
Universidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD PRESENTA DRA. EN ING. RITA VICTORIA DE LEÓN ARDÓN 2.Trabajo en equipo 3. Estudio independiente 1.
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesAplicación de la distribución empírica: Tests de bondad de ajuste
Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida
Más detallesTEMA 3: Cálculo de Probabilidades
TEMA 3: Cálculo de Probabilidades Objetivo de la Probabilidad: Establecer y desarrollar modelos matemáticos para tratar situaciones que se desarrollan en un ambiente de incertidumbre. 1 Experimentos aleatorios
Más detallesSistemas Expertos basados en probabilidad (2011/2012)
Luis Valencia Cabrera (coordinador) lvalencia@us.es (http://www.cs.us.es/~lvalencia) Manuel García-Quismondo mgarciaquismondo@us.es (http://www.cs.us.es/~mgarcia) Ciencias de la Computacion e IA (http://www.cs.us.es/)
Más detallesGeNie: entorno de desarrollo para la construcción de modelos gráficos de decisión Decision Systems Laboratory, University of Pittsburgh.
GeNie: entorno de desarrollo para la construcción de modelos gráficos de decisión Decision Systems Laboratory, University of Pittsburgh GeNie Modelos Gráficos Probabilísticos Modelos Gráficos: teoría de
Más detallesCapítulo 5: Probabilidad e inferencia
Capítulo 5: Probabilidad e inferencia estadística (Fundamentos Matemáticos de la Biotecnología) Departamento de Matemáticas Universidad de Murcia Contenidos Principios de la probabilidad Conceptos básicos
Más detallesESTADÍSTICA INFERENCIAL. Sesión 2: Probabilidad
ESTADÍSTICA INFERENCIAL Sesión 2: Probabilidad Contextualización En la sesión anterior analizamos cómo a largo plazo un fenómeno aleatorio o probabilístico posee un patrón de comportamiento. Es decir,
Más detallesPráctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Más detallesUNIDAD 4: PROBABILIDAD
UNIDAD 4: PROBABILIDAD La probabilidad se corresponde con la Frecuencia relativa. Es decir cuantas veces aparece un dato respecto del total de datos. Establece la probabilidad de que una variable tome
Más detallesIdentificación de SIStemas
Identificación de SIStemas Dr. Juan Carlos Gómez Laboratorio de Sistemas Dinámicos y Procesamiento de la Información FCEIA, Universidad Nacional de Rosario jcgomez@fceia.unr.edu.ar www.fceia.unr.edu.ar/isis
Más detallesIdentificación de SIStemas
Identificación de SIStemas Dr. Juan Carlos Gómez Laboratorio de Sistemas Dinámicos y Procesamiento de la Información FCEIA, Universidad Nacional de Rosario jcgomez@fceia.unr.edu.ar www.fceia.unr.edu.ar/isis
Más detallesMétodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador
Más detallesProfesores: M. Guerrero - J. Pérez - C. Olivares - J. Rozas 09 de julio de Examen Probabilidad y Estadísticas
09 de julio de 013 Examen Probabilidad y Estadísticas 1) Una cadena de tiendas de pintura produce y vende pinturas de látex y esmaltes. Con base en las ventas de largo plazo, la probabilidad de que un
Más detallesCONTRASTE DE HIPÓTESIS
CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región
Más detallesTema 2: Análisis Discriminante
Tema 2: Análisis Discriminante P 1 P 2 Problema de clasificación: Ténemos observaciones que corresponden a 2 grupos P_1, P_2. Si nos dan uno nuevo x_0 a que grupo pertenece? Guión 1. Motivación 2. Clasificación
Más detallesUNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI
UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: TEORÍA DE DECISIONES FECHA DE ELABORACIÓN: MARZO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC (
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesPLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07
PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.
Más detallesEstadística I Tema 4: Probabilidad
Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada
Más detallesMatemáticas Discretas Probabilidad
Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa
Más detallesAnálisis de Datos en Física de Partículas
Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano S. jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesSistemas de Percepción Visión por Computador
Nota: Algunas de las imágenes que aparecen en esta presentación provienen del libro: Visión por Computador: fundamentos y métodos. Arturo de la Escalera Hueso. Prentice Hall. Sistemas de Percepción Visión
Más detallesOptimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR
Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad
Más detallesProbabilidad y Estadística
UNSL Probabilidad A Priori y Habemus Página!!! probabilidadyestadisticaunsl.weebly.com Introducción Probabilidad A Priori Ya hemos visto cómo definir una distribución de probabilidad sobre una familia
Más detallesVariables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesGUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad
Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 1.1. Aleatoriedad e incertidumbre 1.2 Probabilidad
Más detallesMODELOS DE PROBABILIDAD III
MODELOS DE PROBABILIDAD III DISTRIBUCIÓN DE POISSON DISTRIBUCIÓN EXPONENCIAL DISTRIBUCIÓN UNIFORME DISCRETA DISTRIBUCIÓN UNIFORME CONTINUA DISTRIBUCIÓN DE POISSON Esta distribución es una de las más importantes
Más detallesUniv. Michoacana de San Nicolas de Hgo. Facultad de Ingeniería Eléctrica División de estudios de Postgrado Maestría y Doctorado en Ciencias en Ing
Univ. Michoacana de San Nicolas de Hgo. Facultad de Ingeniería Eléctrica División de estudios de Postgrado Maestría y Doctorado en Ciencias en Ing Eléctrica Opción Sistemas Computacionales Notas de Reconocimiento
Más detallesFunciones generadoras de probabilidad
Funciones generadoras de probabilidad por Ramón Espinosa Armenta En este artículo veremos cómo utilizar funciones generadoras en teoría de la probabilidad. Sea Ω un conjunto finito o numerable de resultados
Más detallesArboles de decisión. Area de Computación e Inteligencia Artificial
Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesJ. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1
El Modelo Probabilístico: Características y Modelos Derivados Jesús Vilares Grupo de Lengua y Sociedad de la Información (LYS) Universidade da Coruña jvilares@udc.es J. Vilares El Modelo Probabilístico:
Más detalles10.1 Enfoque Bayesiano del problema de la estimación
Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,
Más detallesTipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw.
Tipos de fenómenos Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw. Variable aleatoria: Tiene comportamiento incierto. Aleatoriedad =incertidumbre Aleatoriedad
Más detalles