Breve Introducción. Perspectiva. Acercamientos Bayesianos. Algunas Características salientes de los Métodos Bayesianos

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Breve Introducción. Perspectiva. Acercamientos Bayesianos. Algunas Características salientes de los Métodos Bayesianos"

Transcripción

1 Fundamentos de Aprendizaje Bayesiano Introducción: métodos probabilísticos (bayesianos) Hipótesis MAP y ML Aprendiz Naïve Bayesiano Ej: aprendizaje a partir de textos Mitchell Cap. 6 Breve Introducción Teoría de Decisión Bayesiana: apareció mucho antes que Version Spaces, aprendizaje de árboles de decisión y redes neurales. Fue estudiada en el campo de la Teoría Estadística y -más especificamente- en el Reconocimiento de Patrones. Es la base de enfoques de aprendizaje importantes, tales como el Clasificador Bayesiano Naive, las redes bayesianas de creencias y el algoritmo EM. También provee un marco en el cual estudiar otros clasificadores no-bayesianos (Ver [Mitchell, Secs. 6.3, 4,5,6]). Acercamientos Bayesianos La teoría de probabilidades tiene muchos roles en el aprendizaje automatizado: describir un aprendiz existente ej. compararlos con un aprendiz probabilístico óptimo desarrollar algoritmos de aprendizaje para problemas prácticos ej. Aprendiz Bayesiano Naïve El Teorema de Bayes juega un rol central. Perspectiva Una razón importante para estudiar el aprendizaje bayesiano es la perspectiva de comprensión de otros algoritmos que no manipulan explícitamente probabilidades. Ej: Find-S y Candidate-Elimination Ej: Redes neuronales Ej: Arboles de Decisión Estar familiarizados con métodos bayesianos ayuda a comprender mejor estos algoritmos. Algunas Características salientes de los Métodos Bayesianos Cada ejemplo de entrenamiento observado decrementa/incrementa posibilidad de que una hipótesis es correcta (mayor flexibilidad). El conocimiento previo puede combinarse con los datos observados para determinar la probabilidad final de una hipótesis. Los métodos bayesianos pueden acomodarse para expresar hipótesis que hacen predicciones probabilísticas (ej: este paciente tiene 93% de probabilidad de recuperarse ). Algunas Dificultades Típicas de los Métodos Bayesianos Dificultad práctica: requieren conocimiento inicial de muchas probabilidades. Alternativa: utilizar estimaciones estadísticas y suposiciones. Segunda dificultad práctica: costo computacional para determinar la hipótesis bayesiana optimal (en caso gral., lineal en el nro. de hipótesis candidatas). Alternativa: en ciertos casos este costo puede reducirse. 1

2 Fundamentos de probabilidad P(A): probabilidad de que A ocurra P(A B): prob. de que A ocurra, dado que B ocurra ( probabilidad condicional ) Algunas reglas: Complemento: P(not A) = 1 - P(A) Disyunción: P(A or B) = P(A)+P(B)-P(A and B) Conjunción: P(A and B) = P(A) P(B A) = P(A) P(B) si A y B son independientes Prob. Total : si los eventos A1, A2 An son mutuamente excluyentes, con i=1..n P(A i ) =1, ent. P(B)= P(B A i ) P(A i ) Teorema de Bayes Situación típica en ML: dado un cjto. de datos observados D, predecir la mejor hipótesis h H. Una forma de hacer esto: determinar la hipótesis más probable, dados los datos D + conocimiento inicial sobre distintas hipótesis h 1... h n. El Teorema de Bayes nos permite calcular la probabilidad de una hipótesis h a partir de: i) la probabilidad previa de h; ii) las probabilidades de observar distintos datos sabiendo que la hipótesis es h; iii) los datos observados. Teorema de Bayes P(h): prob. inicial de que la hipótesis h valga sin tener en cuenta los datos D ==> probabilidad previa de h Si no hay información ==> puede asignarse la misma probabilidad a cada hipótesis candidata. Análogamente, P(D) = probabilidad previa de que los datos de entrenamiento D sean observados. P(D h) -> denota la probabilidad de observar los datos D dado un mundo en el cual vale la hipótesis h. En ML, estamos interesados en P(h D), esto es, la probabilidad posterior de h después de haber visto el cjto. D. P(h D) = Teorema de Bayes P(D h) P(h) P(D) Intuitivamente, P(h D) aumenta con P(h) y P(D h). Decrece cuando P(D) aumenta. En muchos escenarios: el aprendiz considera un cjto. H={h 1,h 2 h k } de hipótesis, y está interesado en hallar la hip. h i H más probable a partir de los datos observados D. Cualquier hipótesis h i máximamente probable se denomina una hipótesis MAP (maximum a posteriori). P(h D) = P(D h) P(h) / P(D) h MAP = argmax h H P(h D) Hipótesis MAP por Bayes => h MAP = argmax h H P(D h)p(h) / P(D) por indep.de P(D) => h MAP = argmax h H P(D h)p(h) En algunos casos se asume que todo h H es igualmente probable (ie, P(h i )=P(h j ), i,j). En este caso se puede simplificar lo anterior, y escribir sólo h MAP = argmax h H P(D h) lo que a menudo se llama la posibilidad (likelihood) de los datos dado h. Cualquier h que maximice P(D h) es llamada hipótesis de máxima posibilidad (ML) h ML = argmax h H P(D h) Teorema Bayes y Machine Learning Datos D ==> ejemplos de entrenamiento para alguna fc. meta Conjunto H ==> espacio de funciones meta candidatas. 2

3 Ejemplo: Teorema de Bayes Ejemplo: problema de diagnóstico médico Dos hipótesis: a) el paciente tiene un tipo especial de neumonía; b) el paciente no tiene nada. Hay un test que puede hacerse, con dos resultados: (positivo) o Θ (negativo). Sabemos que sólo el % de la población tiene la enfermedad. El test retorna un resultado positivo correcto en el 98% de los casos en los cuales la enfermedad realmente está presente, y un resultado negativo correcto en sólo el 97% de los casos en los cuales la enfermedad no está presente. En los demás casos, el test retorna el resultado opuesto. Ejemplo: Teorema de Bayes Ejemplo: problema de diagnóstico médico P(neumonía) = P( neumonia)=0.992 P( neumonía) = 0.98 P(Θ neumonía) = 0.02 P( neumonia) = 0.03 P(Θ neumonía) = 0.97 Testeamos a un nuevo paciente, para el cual el test da resultado positivo. Debería diagnosticársele que tiene neumonía o no? P(neumonía ) = P( neumonía) P(neumonía) = (0.98)(0.008) = P( neumonía ) = P( neumonía) P( neumonía) = (0.03)(0.992) = h MAP = argmax h H P(D h) = neumonía ( ) Ejemplo: Teorema de Bayes Probabilidades posteriores exactas: pueden determinarse normalizando las cantidades anteriores para que sumen 1 Ej: P(neumonía ) = ( / ( ))= 0.21 Ej: P( neumonía ) = ( / ( ))= 0.79 Nótese que P( ) y P(Θ) no son provistos como datos, pero lo anterior puede hacerse porque sabemos que P(neumonía ) y P( neumonía ) deben sumar 1. Clasificador de Bayes Naïve Método de clasificación simple & popular Performance: comparable a redes neuronales y árboles de decisión. Se basa en : regla de Bayes + suposición de independencia condicional suposición a menudo violada en la práctica.. aun así, usualmente funciona bien Aplicación exitosa: clasificación de documentos de texto Clasificador de Bayes Naïve Este clasificador es aplicable a tareas de aprendizaje donde c/instancia x es descrita por una conjunción de valores de atributos, la función meta f(x) puede tomar cualquier valor v V, para un cjto. finito V. Se dan ejemplos de entrenamiento para la fc. meta, y se presenta una nueva instancia, descrita como una tupla de valores de atributos <a 1,a 2...a n > Objetivo: que el clasificador prediga el valor meta o clasificación de esta nueva instancia. Clasificador de Bayes Naïve Acercamiento bayesiano: buscamos clasificar la nueva tupla de valores <a 1,a 2..a n > asignándole el valor meta más probable. V MAP = argmax P(v j a 1 a 2... a n ) Por Teorema de Bayes P(a 1 a 2... a n v j ) P(v j ) V MAP = argmax P(a 1 a 2... a n ) P(a 1 a 2... a n v j ) P(v j ) = argmax Obs: los ai representan valores, no nombres de atributos 3

4 Clasificador de Bayes Naïve Acercamiento bayesiano: V MAP = argmax P(a 1 a 2... a n v j ) P(v j ) Podríamos estimar los términos en esta ecuación: P(v j ) -> contar la frecuencia con la que cada v j aparece en los datos de entrenamiento P(a 1 a 2... a n v j ) -> no es factible de computar, a menos que tengamos enorme cantidad de datos de entrenamiento Razón: el número de estos términos es igual al número de posibles instancias multiplicado por el número de posibles valores meta! Necesitariamos ver cada instancia en el espacio de instancias muchas veces para obtener una estimación confiable. Clasificador de Bayes Naïve Acercamiento bayesiano: V MAP = argmax P(a 1 a 2... a n v j ) P(v j ) Solución: asumir independencia condicional P(a 1 a 2... a n v j ) = P(a 1 v j ) * P(a 2 v j ) *... * P(a n v j ) = Π i Clasificador Bayesiano Naive A partir de la suposición de independencia condicional, la fórmula anterior se simplifica a: Clasificación Bayesiana Naive Donde V NB es el resultado provisto como valor meta por el clasificador bayesiano naïve Clasificación Bayesiana Naive Espacio a evaluar: El número de valores diferentes para un atributo multiplicado por el número de valores diferentes para el atributo meta V (mucho más chico que P(a 1..a n v j ) CBN involucra un paso de aprendizaje donde se estiman los diferentes P(vj) y P(ai vj), basados en su frecuencia en los datos de entrenamiento. El conjunto de estas estimaciones corresponde a la hipótesis aprendida. Esta hipótesis es luego usada para clasificar cada nueva instancia Clasificación Bayesiana Naive Cuando hay independencia condicional, el CBN que retorna V NB se comporta idéntico a las clasificación MAP. Diferencia interesante con otros métodos: No hay búsqueda explícita en el espacio de posibles hipótesis (en este caso, el espacio de posibles valores que pueden asignarse a P(vj) y P(ai vj). En lugar de esto, la hipótesis se obtiene simplemente computando la frecuencia de varias combinaciones de datos *sin* ejemplos de entrenamiento. Ejemplo Consideremos el problema de clasificar los días en que se juega al tenis (visto anteriormente) Concepto Meta: PlayTennis Atributos: Outlook, Temp, Humidity, Wind Queremos entrenar a nuestro clasificador bayesiano a partir de ciertos ejemplos, y luego predecir la siguiente instancia: <Outlook=sunny, Temp=cool, Humid=high,Wind=strong> Tarea: predecir valor meta (yes/no) para el concepto meta PlayTennis para esta nueva instancia. 4

5 Ejemplo v j {yes,no} V NB = argmax P(v j )[ P(Outlook=sunny v j )* v j {yes,no} P(Temp=cool v j )* P(Humid=high v j )* P(Wind=strong v j ) ] Instanciamos (a1..an) con los valores de atributos de la instancia a clasificar. Para calcular V NB recurrimos a los ejemplos de entrenamiento. Day Outlook Temp. Humid Wind PlayTennis? D1 Sunny Hot High Weak No D2 Sunny Hot High Strong No D3 Overcast Hot High Weak Yes D4 Rain Mild High Weak Yes D5 Rain Cool Normal Weak Yes D6 Rain Cool Normal Strong No D7 Overcast Cool Normal Strong Yes D8 Sunny Mild High Weak No D9 Sunny Cool Normal Weak Yes D10 Rain Mild Normal Weak Yes D11 Sunny Mild Normal Strong Yes D12 Overcast Mild High Strong Yes D13 Overcast Hot Normal Weak Yes D14 Rain Mild High Strong No Ejemplo P(PlayTennis=yes) = 9 / 14 = 0.64 P(PlayTennis =no) = 5 / 14 = 0.36 Similarmente, obtenemos probabilidades condicionales: P(Wind=strong PlayTennis=yes) = 3 / 9 = 0.33 P(Wind=strong PlayTennis = no) = 3 / 5 = 0.60 A partir de estimaciones similares resulta: P(yes)*P(sunny yes)*p(cool yes)*p(high yes)* *P(strong yes)= P(no)*P(sunny no)*p(cool no)*p(high no)* *P(strong no)= Normalizando V NB = (0.0206)/( )=0.795 Estimación de Probabilidades (1) Hasta ahora, para estimar probabilidades usamos la noción intuitiva ( nro. de veces evento observado / nro. total de oportunidades). Ej: P(Wind=Strong PlayTennis=no) es una fracción n c / n, con n=5, n c =3. Pero si n c es pequeño, la estimación es pobre. Ej: supongamos que el valor verdadero de P(Wind=Strong PlayTennis=no) es 0.08 y que tenemos una muestra con sólo 5 ejemplos para los que PlayTennis=no. Ent. el valor más probable para n c será 0! (lo mínimo es 1/5 = 0.20). Estimación de Probabilidades (2) Esto presenta dos problemas: 1) n c /n nos produce una (sub)estimación sesgada de la probabilidad 2) Si hay una estimación de probabilidad que es 0 para Wind=Strong, esto será dominante en futuras consultas al clasificador que incluyan el uso de esta estimación. Estimación de Probabilidades (3) Solución: m-estimador de probabilidad: n c + mp n+m m = constante llamada equivalent sample size, que determina cuánto peso le asignamos a p en relación a los datos observados p = Estimación previa de la probabilidad a determinar. Típicamente: si el atributo tiene k valores posibles, asumimos p=1/k Clasificación Bayesiana Naive 5

6 Aplicación: aprender a clasificar texto Aplicación ejemplo: Dado el texto de un artículo de un newsgroup, adivinar de qué newsgroup ha sido tomado Bayes Naïve resulta funcionar bien en esta aplicación. Punto clave para aplicar NB: cómo representar los ejemplos? cuáles son los atributos? Internet Internet Aplicación: aprender a clasificar texto Query Clasificador Quiero artículos que hablen sobre cómo va a evolucionar la economía argentina este año Artículos Buscados Artículos Descartados Aprender a clasificar texto Espacio de Instancias X: todos los documentos de texto posibles. Supongamos ejemplos de entrenamiento de alguna fc. desconocida f(x), que puede tomar cualquier valor a partir de un cjto. V. Tarea: aprender a partir de estos ejemplos para predecir el valor meta de futuros documentos de texto. Ej: valores meta gusta y disgusta (likes/dislikes) Puntos importantes: a) cómo representar un documento arbitrario en términos de atributos; b) cómo estimar las probabilidades requeridas por el clasificador bayesiano naive. a) Representación de textos Representación: dado un texto (ej: este párrafo), definimos un atributo para cada posición de palabra en el documento. El valor del atributo es la palabra hallada en esa posición. Este párrafo tendría N atributos, donde el valor del 1er. atributo es Representación, el valor del 2do atributo es dado, del 3ro es un, etc. Documentos largos requerirán un mayor nro. de atributos que documentos cortos. Asumamos 700 documentos que un amigo clasificó como disgusta y otros 300 como gusta. Nos dan un nuevo documento, y nos piden clasificarlo. b) Aplicando Bayes Naive v j {like,dislike} = argmax P(v j ) P(a 1 = Representación vj) * v j {like,dislike} * P(a 2 = dado v j ) *... * P(a 100 = etc v j ) P(v j ) ==> P(like) = 0.3, P(dislike) = 0.7 En síntesis: el clasificador V NB es la clasificación que maximiza la probabilidad de observar aquellas palabras que concretamente fueron encontradas en el documento, sujeto a la suposición de independencia condicional. c) Aplicando Bayes Naive P(a 1...a n v j ) = Π i Esta suposición es fuerte (nos indica que las probabilidades de una palabra en un lugar del texto es independiente de las palabras que ocurren en otras posiciones). Ej: machine learning serán dos atributos separados, pero claramente están interrelacionados. Pese a esta inexactitud, el clasificador Bayes Naive funciona muy bien en diversos problemas de clasificación de textos (Domingos & Pazzani, 1996). 6

7 Consideraciones de Implementación v j {like,dislike} Consideraciones de Implementación v j {like,dislike} Hace falta estimar P(like) y P(dislike). Puede hacerse estadísticamente (cjto. documentos de entrenamiento ya clasificados). Estimar P(a1= Representación dislike) es más difícil. Debe estimarse este factor para cada palabra, cada posición, y cada valor meta (ej: 2 x 111 x = combinaciones). Asumiendo: párrafo = 111 palabras; vocabulario = términos. Estimar P( Representación dislike) es más fácil. (ej: 2 x = combinaciones). Asumiremos que la probabilidad de encontrar una palabra específica w k (ej: casa ) es independiente de su posición. Esto equivale a asumir que todos los atributos son independientes y distribuidos uniformemente, esto es P(a i =w k v j ) = P(a m =w k v j ), para todo i,j,k,m. Esto reduce el cjto. de factores de la forma P(w k v j ) a 2 x = combinaciones. Estimación de Probabilidades Finalmente, definimos un m-estimador con prioridades uniformes, con m=tamaño del vocabulario. Así, la estimación para P(w k v j ) será n k + 1 n+ Vocabulario n=nro. total de posiciones de palabras n k =nro. de veces que la en todos los ejemplos de entrenamiento palabra w k aparece entre las n donde el valor meta es v j posiciones de palabra halladas en los datos de entrenamiento Algoritmo procedure learn_naïve_bayes_text(docs: set of articles, V: set of classes) Voc = todas las palabras y tokens en Docs Estimar P(v j ) y P(w k v j ) para toda w k en Docs y v j en V: Docs j = subconjunto de documentos de Docs para los cuales el target value es j P(v j ) = Docs j / Docs Text j = documento que se obtiene de concatenar a todos los elementos de Docs j n = nro total de posiciones de palabras distintas en Text j Para cada palabra w k en Voc n k = nro de veces que w k aparece en Text i P(w k v j ) = ( n k +1) / (n + Voc ) Algoritmo Clasificador procedure classify_naïve_bayes_text(doc: article) Retorna el valor meta estimado para el documento Doc; a i denota la palabra encontrada en la i-ésima posicion dentro de Doc Positions = posiciones de palabras en Doc que contienen tokens que aparecen en Voc Return V NB = argmax vj V P(v j ) i Positions P(a i v j ) Resultados Experimentales En un experimento (Joachims, 1996) se aplicó este algoritmo al problema de clasificar artículos de grupos de noticia USENET. Meta de clasificación: nombre de un grupo de Usenet en el cual apareció el artículo articulos para 20 newsgroups (total artículos). Objetivo: acertar newsgroup correcto para documentos nunca vistos 89% exactitud de clasificación 7

8 Para Recordar Teorema de Bayes y su importancia Clasificador Bayes Naïve : cómo funciona, suposiciones, aplicación a clasificación de texto. 8

Aprendizaje Automático

Aprendizaje Automático Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Entrada: Objetos caracterizables mediante propiedades. Salida: En árboles de decisión: una decisión (sí o no). En árboles de clasificación:

Más detalles

Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Bayesian networks without tears: making Bayesian networks more accessible to the probabilistically

Más detalles

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES 1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos

Más detalles

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión Algoritmo de Hunt (I) Nodo interior Nodo por expandir Nodo hoja Algoritmo de Hunt

Más detalles

Clasificación Bayesiana

Clasificación Bayesiana Clasificación Bayesiana Naive Bayes septiembre 30, 2014 Ricardo Corral Corral rcorral@email.ifc.unam.mx Instituto de Fisiología Celular Universidad Nacional Autónoma de México Temas 1 Introducción Conceptos

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Apellidos:... Nombre:...

Apellidos:... Nombre:... Ejercicio 1 (1.5 puntos): Cuestiones Contestar a las siguientes preguntas de manera clara y concisa, usando el espacio en blanco que se deja a continuación: 1. Qué es un unificador de dos átomos? Describir

Más detalles

Aprendizaje Automático

Aprendizaje Automático Aprendizaje Automático cbea LSI - FIB IA - Curso 2014/2015 cbea (LSI - FIB) Aprendizaje Automático IA - Curso 2014/2015 1 / 46 Índice 1 Introducción 2 Aprendizaje inductivo 3 Árboles de decisión 4 Aprendizaje

Más detalles

Clasificación. Clasificadores Bayesianos

Clasificación. Clasificadores Bayesianos Clasificación Clasificadores Bayesianos Clasificadores Bayesianos Modela relaciones probabilisticas entre el conjunto de atributos y el atributo clase Probabilidad condicional: probabilidad de que una

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Diplomado en Inteligencia de Negocios Módulo. Minería de Datos

Diplomado en Inteligencia de Negocios Módulo. Minería de Datos Diplomado en Inteligencia de Negocios Módulo Minería de Datos Análisis Supervisado III Modelos Probabilísticos Diplomado en Inteligencia de Negocios Módulo 3 Agenda Repaso de probabilidad Modelos Bayesianos

Más detalles

Probabilidades. Gerardo Arroyo Brenes

Probabilidades. Gerardo Arroyo Brenes Probabilidades Gerardo Arroyo Brenes Teoría de las Probabilidades Experimento: Es toda acción o proceso que produce resultados bien definidos. Ejemplos: Experimento Resultado: Lanzar una moneda Cara o

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

EVALUACIÓN EN APRENDIZAJE. Eduardo Morales y Jesús González

EVALUACIÓN EN APRENDIZAJE. Eduardo Morales y Jesús González EVALUACIÓN EN APRENDIZAJE Eduardo Morales y Jesús González Significancia Estadística 2 En estadística, se dice que un resultado es estadísticamente significante, cuando no es posible que se presente por

Más detalles

Aprendizaje estadístico

Aprendizaje estadístico J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido, MAP y ML Aprendizaje de modelos probabiĺısticos Aprendizaje de redes bayesianas Aprendizaje

Más detalles

Aprendizaje de modelos probabiĺısticos

Aprendizaje de modelos probabiĺısticos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido El teorema de Bayes ( qué modelo probabiĺıstico explica mejor los datos observados?) Aprendizaje

Más detalles

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Introducción a los sistemas Multiclasificadores Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido 1. Combinación de modelos 2. Descomposición bias-varianza 3. Bagging

Más detalles

Independencia de Sucesos

Independencia de Sucesos Independencia de Sucesos 2do C. 2018 Clase Nº 2 Mg. Stella Figueroa Independencia de Sucesos Dos sucesos A y B son independientes cuando la ocurrencia de A no tiene influencia en la ocurrencia de B. Dos

Más detalles

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4 Aprenentatge 0-03 Q Examen Parcial Nombre: (Examen ) Instrucciones. (0 puntos) Este examen dura horas. Responded todas las preguntas en estas hojas. Para las preguntas test poned un circulo alrededor de

Más detalles

Análisis y Recuperación de Información

Análisis y Recuperación de Información Análisis y Recuperación de Información 1 er Cuatrimestre 2017 Página Web http://www.exa.unicen.edu.ar/catedras/ayrdatos/ Prof. Dra. Daniela Godoy ISISTAN Research Institute UNICEN University Tandil, Bs.

Más detalles

Tema AA-4: Sesgo inductivo

Tema AA-4: Sesgo inductivo Razonamiento Automático Curso 2002 2003 Tema AA-4: Sesgo inductivo Miguel A. Gutiérrez Naranjo José A. Alonso Jiménez Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos

Más detalles

Razonamiento probabilístico y Redes Bayesianas

Razonamiento probabilístico y Redes Bayesianas Inteligencia Computacional Razonamiento probabilístico y Redes Bayesianas Probabilidad y Teorema de Bayes Blanca A. Vargas Govea - vargasgovea@itesm.mx - Oct 9, 2012 Avisos: Exámenes Fecha de examen parcial

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Métodos de Remuestreo en Aprendizaje Automático

Métodos de Remuestreo en Aprendizaje Automático Métodos de Remuestreo en Aprendizaje Automático en datos, en hipótesis, y algunos otros trucos: Cross-validation, Bootstrap, Bagging, Boosting, Random Subspaces Lo que sabemos hasta ahora: Hemos visto

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

Sesión 6: Clasificadores Bayesianos

Sesión 6: Clasificadores Bayesianos Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 6: Clasificadores Bayesianos La teoría de probabilidades en el fondo no es nada más que sentido común reducido a cálculos... [Pierre Simon Laplace,

Más detalles

Tema 7: Sesgo inductivo

Tema 7: Sesgo inductivo Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

Tipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw.

Tipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw. Tipos de fenómenos Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw. Variable aleatoria: Tiene comportamiento incierto. Aleatoriedad =incertidumbre Aleatoriedad

Más detalles

Qué es machine learning? Algunos Tipos de Machine Learning. Generalización & Exploración. Aprendizaje a partir de Ejemplos. Inferencia Inductiva

Qué es machine learning? Algunos Tipos de Machine Learning. Generalización & Exploración. Aprendizaje a partir de Ejemplos. Inferencia Inductiva Prof Carlos Iván Chesñevar Datamining y Aprendizaje Automatizado Introducción al Machine Learning Prof Carlos Iván Chesñevar Departamento de Cs e Ing de la Computación Universidad Nacional del Sur Qué

Más detalles

Incertidumbre y conocimiento

Incertidumbre y conocimiento Incertidumbre y conocimiento SI síntoma(p,dolor-de-muelas) ENTONCES enfermedad(p,caries) Expresa esta regla un conocimiento correcto? Quizás sería mejor un conocimiento más exhaustivo: SI sintoma(p,dolor-de-muelas)

Más detalles

Folleto de Estadísticas. Teoría del 1er Parcial

Folleto de Estadísticas. Teoría del 1er Parcial Folleto de Estadísticas Teoría del 1er Parcial 2012 Población objetivo: Es un conjunto bien definido de elementos sobre los que se desea hacer algún tipo de investigación o medida. Unidades de investigación:

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Inteligencia Artificial II Razonamiento Bayesiano

Inteligencia Artificial II Razonamiento Bayesiano Inteligencia Artificial II Razonamiento Bayesiano Dr. Alejandro Guerra-Hernández Universidad Veracruzana Centro de Investigación en Inteligencia Artificial mailto:aguerra@uv.mx http://www.uv.mx/personal/aguerra

Más detalles

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro La probabilidad nos proporciona un modelo teórico para la generación de los datos experimentales Medidas de la Posibilidad

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural.

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural. Capítulo 5 Evaluación En muchas ocasiones requerimos hacer una evaluación muy precisa de nuestros algoritmos de aprendizaje computacional porque los vamos a utilizar en algún tipo de aplicación que así

Más detalles

Estadística I Tema 4: Probabilidad

Estadística I Tema 4: Probabilidad Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada

Más detalles

J. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1

J. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1 El Modelo Probabilístico: Características y Modelos Derivados Jesús Vilares Grupo de Lengua y Sociedad de la Información (LYS) Universidade da Coruña jvilares@udc.es J. Vilares El Modelo Probabilístico:

Más detalles

Análisis de Datos en Física de Partículas

Análisis de Datos en Física de Partículas Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del

Más detalles

DEPARTAMENTO DE SOCIOLOGÍA I. Curso

DEPARTAMENTO DE SOCIOLOGÍA I. Curso DEPARTAMENTO DE SOCIOLOGÍA I Curso 2010-2011 Socioestadística I Capítulo 4. TEORÍA DE LA PROB ABILIDAD Y SUS PRINCIPIOS 1. Introducción a la Estadística Inferencial Hasta ahora, hemos utilizado diversas

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Probabilidad Condicional. Dr. José Dionicio Zacarias Flores

Probabilidad Condicional. Dr. José Dionicio Zacarias Flores Probabilidad Condicional Dr. José Dionicio Zacarias Flores Introducción Sea E un experimento aleatorio con espacio de probabilidad (Ω,F,P). Algunas veces podemos poseer información incompleta sobre el

Más detalles

NIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo

NIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo NIVELACIÓN DE ESTADISTICA Qué es la probabilidad? La probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento. Por ejemplo: tiramos un dado al aire y

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

Relación 7 - Redes neuronales

Relación 7 - Redes neuronales Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura

Más detalles

Árboles de decisión en aprendizaje automático y minería de datos

Árboles de decisión en aprendizaje automático y minería de datos Árboles de decisión en aprendizaje automático y minería de datos Tratamiento Inteligente de la Información y Aplicaciones Juan A. Botía Departamento de Ingeniería de la Información y las Comunicaciones

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables

Más detalles

Tema 7: Razonamiento con incertidumbre

Tema 7: Razonamiento con incertidumbre Inteligencia Artificial II Curso 2005 2006 Tema 7: Razonamiento con incertidumbre José L. Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IA-II 2005 2006

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5 Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función

Más detalles

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de la probabilidad Los fenómenos del mundo real se pueden clasificar en dos tipos: Determinista:

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.

Más detalles

Aprendizaje de conceptos. El aprendizaje como generalización

Aprendizaje de conceptos. El aprendizaje como generalización Aprendizaje de conceptos. El aprendizaje como generalización 1 Aprendizaje de conceptos Consideraremos el problema de inferir automáticamente la definición general de un concepto o clase a partir de un

Más detalles

ESTADÍSTICA INFERENCIAL. Sesión 2: Probabilidad

ESTADÍSTICA INFERENCIAL. Sesión 2: Probabilidad ESTADÍSTICA INFERENCIAL Sesión 2: Probabilidad Contextualización En la sesión anterior analizamos cómo a largo plazo un fenómeno aleatorio o probabilístico posee un patrón de comportamiento. Es decir,

Más detalles

3. Árboles de decisión

3. Árboles de decisión 3.1 Introducción Método para aproximación de funciones objetivo que tengan valores discretos (clasificación) Uno de los métodos mas extensamente usados para inferencia inductiva Capaz de aprender hipótesis

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2017-2018 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Combinatoria. Regla del producto 1.2.- Probabilidad condicionada.

Más detalles

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.

Más detalles

Aprendizaje Semisupervisado

Aprendizaje Semisupervisado Aprendizaje Semisupervisado Eduardo Morales INAOE (INAOE) 1 / 52 Contenido 1 2 3 4 5 6 7 (INAOE) 2 / 52 Aprendizaje Semisupervisado Actualmente existe una gran cantidad de datos disponibles, sin embargo,

Más detalles

Hipótesis. Teoria del Aprendizaje Computacional

Hipótesis. Teoria del Aprendizaje Computacional Teoria del Aprendizaje Computacional CI5438 - Inteligencia Artificial 2 Clase 7 Cap 18. Russel & Norvig: Inteligencia Artificial. Un enfoque estructurado El aprendiz inductivo se puede reinterpretar como

Más detalles

Estadística I Tema 4: Probabilidad

Estadística I Tema 4: Probabilidad Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada

Más detalles

Experimentos aleatorios Es posible repetir cada experimento indefinidamente sin cambiar esencialmente las condiciones Aunque en general no podemos ind

Experimentos aleatorios Es posible repetir cada experimento indefinidamente sin cambiar esencialmente las condiciones Aunque en general no podemos ind Notas de clase Este material está sujeto a correcciones, comentarios y demostraciones adicionales durante el dictado de las clases, no se recomienda su uso a aquellos alumnos que no concurran a las mismas

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que razonan bajo incertidumbre Introducción Repaso de probabilidad

Más detalles

Tema 1: Introducción a la Estadística Bayesiana

Tema 1: Introducción a la Estadística Bayesiana Tema 1: Introducción a la Estadística Bayesiana Introducción En general, se usan probabilidades de modo informal para expresar la información o la incertidumbre que se tiene acerca de observaciones de

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Resolución de ecuaciones no lineales y Método de Bisección

Resolución de ecuaciones no lineales y Método de Bisección Resolución de ecuaciones no lineales y Método de Bisección Recordemos algunas ecuaciones 1) Resolver [ ] [ ] Sol: 2) Resolver la siguiente ecuación literal para la variable ; Sol: 3) Resolver Solución:

Más detalles

Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad)

Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad) Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad) 1. Definición y propiedades. Aditividad finita Definición 1. Sea Ω un conjunto finito no vacío. Definimos la medida de probabilidad

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Eduardo Morales, Hugo Jair Escalante

Eduardo Morales, Hugo Jair Escalante Eduardo Morales, Hugo Jair Escalante INAOE (INAOE) 1 / 81 Contenido 1 2 3 4 5 (INAOE) 2 / 81 Existen diferentes interpretaciones de probabilidad, las más comunes son: Clásica: P(A) = N(A)/N Frecuencia

Más detalles

Aprendizaje de modelos probabiĺısticos

Aprendizaje de modelos probabiĺısticos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Aprendizaje modelos probabiĺısticos ( qué modelo probabiĺıstico explica mejor los datos observados?)

Más detalles

Tema 4: Aprendizaje de conceptos

Tema 4: Aprendizaje de conceptos Inteligencia Artificial II Curso 2004 2005 Tema 4: Aprendizaje de conceptos José A. Alonso Jiménez Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Sistemas de Percepción Visión por Computador

Sistemas de Percepción Visión por Computador Nota: Algunas de las imágenes que aparecen en esta presentación provienen del libro: Visión por Computador: fundamentos y métodos. Arturo de la Escalera Hueso. Prentice Hall. Sistemas de Percepción Visión

Más detalles

Unidad Temática 2 Probabilidad

Unidad Temática 2 Probabilidad Unidad Temática 2 Probabilidad Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una F si la rechaza. 1. El experimento que consiste

Más detalles

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay

Más detalles

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función

Más detalles

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo 2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado

Más detalles

PROBABILIDAD ALGUNAS DEFINICIONES

PROBABILIDAD ALGUNAS DEFINICIONES PROBABILIDAD La probabilidad es la rama de la matemática que mide la incertidumbre. Si bien es cierto que surgió de los juegos de azar, en la actualidad tiene variadas aplicaciones. Para calcular el tamaño

Más detalles

2.3 PROPIEDADES DE LA PROBABILIDAD

2.3 PROPIEDADES DE LA PROBABILIDAD 2.3 PROPIEDADES DE LA PROBABILIDAD 1. La probabilidad es positiva y menor o igual que 1. 0 p( 1 2. La probabilidad del suceso seguro es 1. p (E) = 1 3. Si A y B son incompatibles, es decir A B = entonces:

Más detalles

Unidad II: Fundamentos de la teoría de probabilidad

Unidad II: Fundamentos de la teoría de probabilidad Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica

Más detalles

Tema 4. Axiomática del Cálculo de Probabilidades

Tema 4. Axiomática del Cálculo de Probabilidades Tema 4. Axiomática del Cálculo de Probabilidades mjolmo@ujaen.es Curso 2007/2008 Espacio muestral finito equiprobable El espacio muestral contiene un número finito de sucesos elementales todos ellos con

Más detalles

Análisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Teoría de decisión Bayesiana Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de decisión Bayesiana La teoría de probabilidad provee un marco teórico para los procesos de cuantificación y

Más detalles

Clasificación mediante conjuntos

Clasificación mediante conjuntos Clasificación mediante conjuntos Gonzalo Martínez Muñoz Director: Dr. Alberto Suárez González Departamento de Ingeniería Informática Escuela Politécnica Superior Universidad Autónoma de Madrid diciembre

Más detalles