Curso de Inteligencia Artificial



Documentos relacionados
2. Probabilidad. Estadística. Curso Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso / 24

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

Relación de problemas: Variables aleatorias

Aprendizaje Automatizado

Sistemas Aleatorios: Probabilidad Condicional

Una investigación australiana reveló que posiblemente la disminución

Teoría de Probabilidad

Tema 3 Probabilidades

TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES

Ejercicios orientadores - Concurso BECAS - UCU Página 1 de 5

PROBLEMAS DE PROBABILIDADES Y ESTADÍSTICA

MATERIAL 2 EXCEL 2007

UNIDAD 4 PROCESOS DE MARKOV

Relación de problemas: Distribuciones de probabilidad

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

TEMA 1. Introducción

Análisis y gestión de riesgo

ANALISIS DE BITACORAS POR METODO RELACIONAL- PROBABILISTICO EN SISTEMAS CON COMPORTAMIENTO CAUSA-EFECTO

Soluciones de los ejercicios de la primera Unidad. Dr. Jorge Martín Dr. José Antonio Carrillo

SIMULACION. Formulación de modelos: solución obtenida de manera analítica

Manejo de la Información

Herramienta Solver. Activar Excel Solver

Tema 5. Variables aleatorias discretas

Líneas de espera. Introducción.

Clase 4: Probabilidades de un evento

Capítulo 3. Estimación de elasticidades

UNIVERSIDAD DE ATACAMA

6. Gestión de proyectos

EJERCICIOS RESUELTOS TEMA 3

ANALISIS MULTIVARIANTE

Naive Bayes Multinomial para Clasificación de Texto Usando un Esquema de Pesado por Clases

CPE (SEGUNDO CURSO) = P [T 1 ]P [T 2 ]... P [T 525,600 ] = ( ) 525,600 =

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas

ANÁLISIS DE DATOS NO NUMERICOS

Introducción: Modelos, Escalas y Métricas. Valentin Laime. Calidad de Software

Tema 3. Concepto de Probabilidad

El reto de la Gestión Documental

Ambas componentes del sistema tienen costos asociados que deben de considerarse.

Razón del circulante.

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012

Investigación Operativa

EPB 603 Sistemas del Conocimiento

Soluciones de los ejercicios de Selectividad sobre Probabilidad de Matemáticas Aplicadas a las Ciencias Sociales II

EJERCICIOS RESUMEN. Aplicación: INFERENCIA ESTADÍSTICA. Nota técnica preparada por: Mayte Zaragoza Benítez Fecha: 13 de mayo de 2013

CAPITULO 3 REDES HIBRIDAS-COMPLEJAS. 3.1 Descripción de la Red Híbrida Compleja (HCNN)

Construcción de Escenarios

PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS

MOOC UJI: La Probabilidad en las PAU

Finanzas de Empresas Turísticas

5 Ecuaciones lineales y conceptos elementales de funciones

Selectividad Septiembre 2009 SEPTIEMBRE Opción A

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL

UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA

Tema 5: Vectores aleatorios bidimensionales.

Aprendizaje automático mediante árboles de decisión

Lección 22: Probabilidad (definición clásica)

5. DISTRIBUCIONES DE PROBABILIDADES

EJERCICIOS DE PROBABILIDAD

PROBLEMAS RESUELTOS DE TEORÍA DE COLAS. (M/M/1: Un servidor con llegadas de Poisson y tiempos de servicio Exponenciales)

Actividades para mejoras. Actividades donde se evalúa constantemente todo el proceso del proyecto para evitar errores y eficientar los procesos.

Aprendizaje Automatizado. Redes Neuronales Artificiales

Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones

Capítulo 4 4. CONCLUSIONES Y RECOMENDACIONES. compañías estudiadas con un 45% y un 34% respectivamente.

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 9 -

Problemas de Probabilidad Soluciones

TEMA 5. MUESTREO PARA LA ACEPTACIÓN.

LABORATORIO Nº 3 PRÁCTICA DE FUNCIONES EN MICROSOFT EXCEL

PREELECTORAL ELECCIONES AUTONÓMICAS CIUDAD AUTÓNOMA DE MELILLA AVANCE DE RESULTADOS

FONDO SOLIDARIO DE JUBILADOS DE LA UNSJ

Llamamos potencia a todo producto de factores iguales. Por ejemplo: 3 4 =

Por qué es importante la planificación?

Explicación de la tarea 3 Felipe Guerra

CONSENTIMIENTO INFORMADO PARA PARTICIPAR EN UN REGISTRO DE INVESTIGACIÓN DE LA DIABETES

GUÍA PARA LOS PROCEDIMIENTOS DE TEMOR CREÍBLE Y TEMOR RAZONABLE

MODELOS DE RECUPERACION

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2015 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 1: MATRICES. Junio, Ejercicio 1, Opción B

Universidad del País Vasco

Matemáticas para la Computación

Universidad Carlos III de Madrid Teoría de Juegos Lista de Ejercicios de Juegos Repetidos y Bayesianos

Por qué tomar muestras? Si queremos conocer una población, Por qué no tomar una muestra de toda la población?, Por qué no hacer un censo?

Aire ambiente: No se recogieron muestras en esta comunidad.

Conclusiones. Particionado Consciente de los Datos

FUNDAMENTOS DEL ANÁLISIS DE WEIBULL Por Robert B. Abernethy, FL, USA

Créditos académicos. Ignacio Vélez. Facultad de Ingeniería Industrial. Politécnico Grancolombiano

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio

IV. DISCUSIÓN. El estrés ha sido objeto de estudio a través de un largo periodo de tiempo y aún

Métodos generales de generación de variables aleatorias

DISTRIBUCIONES DISCRETAS DE PROBABILIDAD

Probabilidad: problemas resueltos

Capitulo V Administración de memoria

1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B(1, p), donde

1 El plan de contingencia. Seguimiento

TEMA 3 PROFESOR: M.C. ALEJANDRO GUTIÉRREZ DÍAZ 2 3. PROCESAMIENTO DE CONSULTAS DISTRIBUIDAS

E.M.V y Regresión Logística

Transcripción:

Curso de Inteligencia Artificial Introducción al Aprendizaje Automático Gibran Fuentes Pineda IIMAS, UNAM

Definición El aprendizaje automático es el estudio de los metodos para programar las computadoras para que aprendan Thomas G. Dietterich Un programa aprende de la experiencia E con respecto a la tarea T y una medida de rendimiento P, si el rendimiento en T medido por P mejora con E Tom M. Mitchell, Machine Learning

Aplicaciones Aprender a manejar un auto T: manejar en carreteras usando visión por computadora P: promedio de distancia antes de que ocurra un error E: imágenes y comandos de manejo observadas en un conductor humano

Aplicaciones Reconocimiento de escritura

Tipos de Aprendizaje Supervisado Todos los datos de entrenamiento tienen sus correspondientes salidas deseadas Semi-supervisado Contiene sólo algunas salidas deseadas No supervisado No incluyen salidas deseadas Por Refuerzo No hay datos de entrenamiento Busca acciones que maximicen la recompensa

Esquema General Fase de Entrenamiento Ejemplos Algoritmo de aprendizaje Modelo

Esquema General Fase de Entrenamiento Ejemplos Algoritmo de aprendizaje Modelo Fase de Prueba Datos nuevos Modelo Aprendido Valores de salida

Clasificación y Regresión Clasificación X 2 =Edad 1 Salida discreta finita 0 Redes neuronales, etc X 1 =Tamaño

Clasificación y Regresión Clasificación Salida discreta finita Redes neuronales, etc Regresión Salida continua o infinita Regresión lineal, etc

Diseño Descripción del problema Recopilación de datos de entrenamiento Preprocesamiento de los datos de entrenamiento Codificación de datos de entrenamiento Elección de modelo de aprendizaje Codificación de salidas Optimización

Overfitting Underfitting Overfitting Fair Fitting

La Maldición de la Dimensionalidad Crecimiento exponencial en el número de datos requeridos para muestrar un espacio con una precisión dada Overfitting Complejidad computacional

Reducción de Dimensiones Evitar características no necesarias No discriminantes Dependientes Selección de características: Elegir un subconjunto de características distintivas Fisher Linear Discriminant Principal Component Analysis Extracción de características: Crear nuevas características a partir de las existentes

Incertidumbre En muchos problemas no es posible determinar la situación completa del entorno Prescencia de ruido No es posible predecir lo que pasará al realizar una acción La complejidad de algunos problemas puede ser extremadamente grande

La Pregunta Lloverá mañana? Basado en frecuencias Basado en evidencias Quién ganará el campeonato? Toluca o América o Pumas

Teoría de Probabilidades Es una forma matemática de describir la incertidumbre Dos elementos principales: Espacio de muestreo Ley de la probabilidad

Teoría de Probabilidades Existe una probabilidad del 90% que el medicamento X funcione En 9 de 10 casos funciona Existe una probabilidad del 90% que la Iliada y la Odisea fueron escritos por el mismo autor Una creencia

Espacio de Muestreo Todos los posibles resultados de un experimento exhaustivamente Lanzar una moneda al aire Lanzar un dado Ω={1,2,3, 4,5,6} Lanzar tres moneda al aire Ω={A, S } Ω={AAA, AAS, ASA, SAA, ASS, SAS,SSA, SSS } La primera palabra de una oración Ω={A,ábaco, Ana,azar, } Que una persona diga una oración Ω={S S sea una oración válida}

Experimento Un proceso con varios posibles resultados Muy similar a un máquina no determinista Tipos de experimentos Juegos de azar Procesos económicos o políticos Efectos de medicamentos Al resultado ocurrido se le conoce como evento

Algunas Propiedades 0 P( A) 1 P(cierto)=1, P( falso)=0 P(cierto)=1, P( falso)=0 Si A es un subconjunto de B entonces P( A) P(B) P( A B)=P( A)+P(B) P( A B) P( A U B)=P( A)+P(B)si A y B son disjuntos P(Ω)=1 P( A B) P( A)+P(B) P( A B C)=P( A)+P( A c B)+P( A c B c C)

Divide y Vencerás La probabilidad de un evento complejo S es la suma de las probabilidades de sus elementos P({A 1, A 2,, A n })=P( A 1 )+P( A 2 )+ +P( A n )

El Juego Definir un modelo, es decir, un espacio de muestreo y sus probabilidades Dado un modelo derivar probabilidades de ciertos eventos

Probabilidad Condicional Nos permite razonar con información parcial Lanzamos 3 monedas al aire, sabemos que la segunda y tercera fueron SOL cual es la probabilidad que la primera sea AGUILA P( A 1 X 2 X 3 X 1 S 2 S 3 ) Probabilidad que una persona tenga caries si sabemos que le duele la muela P(caries dolor de muelas)

Enfoque Frecuentista Lanzar tres monedas al aire 5 veces AAS, ASS,SAA, ASA, ASS Cuál es la probabilidad que al menos dos monedas salgan sol?

Enfoque Frecuentista Lanzar tres monedas al aire 5 veces AAS, ASS,SAA, ASA, ASS Cuál es la probabilidad que al menos dos monedas salgan sol? P (al menos dos soles)=3/5

Enfoque Frecuentista Lanzar tres monedas al aire 5 veces AAS, ASS,SAA, ASA, ASS Cuál es la probabilidad que al menos dos monedas salgan sol? P (al menos dos soles)=3/5 Cuál es la probabilidad de que la primera sea águila?

Enfoque Frecuentista Lanzar tres monedas al aire 5 veces AAS, ASS,SAA, ASA, ASS Cuál es la probabilidad que al menos dos monedas salgan sol? P (al menos dos soles)=3/5 Cuál es la probabilidad de que la primera sea águila? P ( primera águila)=1/5

La Regla de la Suma Probabilidad que X tome valor xi y Y tome valor y j P( X =x i,y = y j )= n ij N c i y i n ij r i x i

La Regla de la Suma Probabilidad que X tome valor xi y Y tome valor y j P( X =x i,y = y j )= n ij N Probabilidad que X tome valor xi sin importar el valor de Y P( X =x i )= c i N Como la probabilidad de ci es la suma de las probabilidades de cada una de sus celdas L P( X =x i )= j=1 P ( X =x i,y = y i ) y i c i n ij r i x i

La Regla del Producto La probabilidad condicional se puede obtener encontrando la fracción de elementos de la columna c i que caen en la celda i,j. P(Y = y i X =x i )= n ij c i c i P( X =x i,y = y j )= n ij N = n ij c i c i N y i n ij x i r i P( X =x i,y = y j )=P(Y = y i X =x i ) P( X =x i )

Regla de Bayes Relaciona las probabilidades en una proposición antes y después considerar evidencia A Posteriori Probabilidad de la hipótesis dada cierta evidencia P( A B)= Verosimilitud Probabilidad de la evidencia dada la hipótesis P (B A) P ( A) P(B) A Priori Probabilidad de la hipótesis antes de la evidencia Marginal Probabilidad de la evidencia bajo todas las posibles hipótesis

Regla de Bayes: Intuición Relaciones causa-efecto Un mamografía muestra una mancha La mancha es el efecto o la evidencia, la causa puede ser un tumor maligno, un tumor no maligno u otra causa Durante el diagnóstico vemos la mancha en la mamografía y nos gustaría saber la probabilidad de que sea un tumor

Regla de Bayes: Intuición Causas={A 1, A 2, A 3 } Evidencia=B P( A i B)= P(B A i)p( A i ) P(B)

El Problema Según Bayes P(C M p )= P(M p C)P(C) P(M p )

El Problema Según Bayes P(C M p )= P (M p C) P (C ) P (M p ) P( M p )?

El Problema Según Bayes P(C M p )= P (M p C) P (C ) P (M p ) P( M p )=P( M p C )+ P( M p nc ) P( M p )=P( M p C ) P(C)+P (M p nc) P (nc) P( M p )=0.8 0.01+0.096 0.99=0.103 P(C M p )= 0.8 0.01 0.103 =0.0769

El Problema El contexto 1% de las mujeres mayores de 40 años que se checan regularmente tiene cancer 80% de estás mujeres recibirán el resultado de una mamografía positiva 9.6% de la mujeres sin cancer también recibirán una mamografía positiva Una mujer de 45 años recibe positivo el resultado de una mamografía. Cúal es la probabilidad de que tenga cancer?

Los Hechos Alrededor de 15% de los doctores razonan adecuadamente este problema. Un cambio en la escala puede elevar a 46% la cantidad de doctores que razonan adecuadamente el problema.

Revisando Datos P (C )=0.01 P (Mp C )=0.8 P (Mp nc )=0.096

Independencia Dos eventos son independientes cuando: P( A B)=P ( A) Lo que lleva a P( A B)=P( A) P(B) Fácil! Si A es producido por una máquina 1 y B por otra máquina 2, son independientes

Independencia: Concepciones Erróneas En términos del espacio de muestreo es un error pensar que A y B son independientes si son disjuntos. Lanzo dos monedas al aire es la primera moneda independiente de la segunda? = AS,SA,SS,SA P(X1 X2)=1/4 P(X1) =1/2 P(X2)=1/2

Asumir Independencia Asumir independencia ayuda a simplificar los cálculos Muchos modelos probabilísticos usados en aprendizaje automático asumen independencia

Variable Aleatoria Hasta ahora la función P ha sido definida para aceptar conjuntos de Idea: estandarizar el argumento de P Un variable aleatoria hace este trabajo, es una función de a R

Variable Aleatoria Todos los posibles resultados de un experimento exhaustivamente Lanzar una moneda al aire Ω={A, S }, X ={1,0} Lanzar un dado Ω={1,2,3,4,5,6}, X ={1, 2,3,4,5,6} Lanzar tres moneda al aire Ω={AAA, AAS, ASA, SAA, ASS,SAS, SSA, SSS } X ={0,1,2,3}

Modelos Discriminativos vs Generativos Problema: Clasificar frutas Estrategia Generativa Modelar cada clase de fruta para determinar cuál es Estrategia Discriminativa Determinar las diferencias entre las clases de frutas

Modelos Discriminativos Entrenamiento: Estiman probabilidades a posteriori No intentan modelar los datos Definen fronteras de decisión Reconocimiento: Predicen la clase a partir de las fronteras de decisión Ejemplos: SVMs, Neural Networks, etc.

SVM Lineal Puede verse como la separación de clases en el espacio de características por un hiperplano

Qué Hiperplano Elegir? Muchas posibles soluciones

Qué Hiperplano Elegir? Muchas posibles soluciones Utiliza los vectores de soporte que maximizan el margen X WX b=1 WX b=0 WX b= 1 2 X 1

Modelos Generativos Entrenamiento: Modelan distribuciones conjuntas sobre todas las entradas y salidas Modelo aproximado de cada clase Es posible generar datos sintéticos muestreando la distribución conjunta de probabilidad Reconocimiento: Asignan la clase con mayor probabilidad Ejemplos: Naive Bayes, Modelos Ocultos de Markov, etc.

Naive Bayes Usar la regla de Bayes para clasificación Probabilidad de la clase dada cierta característica Qué tan probable es la característica en la clase P(C i X )= P ( X C i) P (C i ) P ( X ) Qué tan probable es la clase Qué tan probable es la característica

Ejemplo Determinar si una persona es mujer u hombre dado su nombre P (mujer maria)= P (hombre maria)= P(maria mujer ) P(mujer) P(maria) P (maria hombre) P (hombre ) P (maria) Nombre María Pedro María Inés Aurora Roberto María Elsa Sexo Mujer Hombre Hombre Mujer Mujer Hombre Mujer Mujer

Más Características Presuposiciones: Todas la características son independientes dada la clase Todas las características son igualmente importantes Bayes con n características P(C i X 1, X n )= P( X 1 C i ) P ( X n C i ) P( X 1 ) P ( X n ) P(C i )