Un sistema de clasificación y aprendizaje activo mutliclase con selección de características
|
|
- Sofia Escobar Fuentes
- hace 6 años
- Vistas:
Transcripción
1 Un sistema de clasificación y aprendizaje activo mutliclase con selección de características Pablo Ruiz Matarán Grupo de Procesamiento de Información Visual Departamento de Ciencias de la Computación e Inteligencia Artificial CITICoffee 27 de Abril 2015
2 Problemas tratados durante la tesis MODELOS BAYESIANOS Recuperación de video en bases de datos Restauración de imágenes Fotografía Computacional Clasificación
3 Problemas tratados durante la tesis MODELOS BAYESIANOS Recuperación de video en bases de datos Restauración de imágenes Fotografía Computacional Clasificación
4 Motivación Vamos a suponer que tenemos las siguientes muestras 2 Clase 1 Clase 2 Clase 3 Clase
5 Motivación 2 Clase 1 Clase 2 Clase 3 Clase
6 Motivación 2 Clase 1 Clase 2 Clase 3 Clase
7 Motivación Usualmente se recurre a un PREPROCESADO usando técnicas de selección de caracterís;cas: Búsqueda de correlaciones entre las bandas PCA Herramientas de visualización de datos etc
8 Motivación Podríamos construir un clasificador que seleccionara las caracterís;cas de forma automá;ca?
9 Bayesian Classification and Active Learning Using lp-priors. Application to Image Segmentation P. Ruiz, N. Pérez de la Blanca, R. Molina, and A.K. Katsaggelos, 22th European Signal Processing Conference (EUSIPCO 2014), Lisbon (Portugal), 2014
10 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales
11 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales
12 1. Modelización Bayesiana En un problema clásico de clasificación multiclase, tenemos acceso a un conjunto de entrenamiento y sus etiquetas: Y = K es el número de clases en el problema de clasificación. B es el número de bandas. X =[x 1, x 2,...,x N ] 2 R B N y 1 (x 1 ) y 1 (x 2 )... y 1 (x N ) y 2 (x 1 ) y 2 (x 2 )... y 2 (x N ) y K (x 1 ) y K (x 2 )... y K (x N ) N es el número de muestras de entrenamiento {0, 1}K N 5
13 1. Modelización Bayesiana Para modelar el clasificador usamos una función softmax: p(y W) = NY KY i=1 k=1! exp(wk T x yk (x i ) i + w k0 ) P K j=1 exp(wt j x i + w k0 ) El objetivo es estimar los coeficientes adaptativos W X = apple x 1 x 2... x N
14 1. Modelización Bayesiana Para modelar el clasificador usamos una función softmax: p(y W) = NY KY i=1 k=1! exp(wk T x yk (x i ) i) P K j=1 exp(wt j x i) El objetivo es estimar los coeficientes adaptativos W X = apple x 1 x 2... x N
15 1. Modelización Bayesiana Como conseguimos que el sistema haga selección de características? wk T X 2 [w k0,w k1,...,w ki,...,w kn ] x 11 x x 1N x i1 x i2... x in x B1 x B2... x BN 3 7 5
16 1. Modelización Bayesiana Como conseguimos que el sistema haga selección de características? Vamos a imponer que la mayor parte de los coeficientes adaptativos W sea 0
17 1. Modelización Bayesiana Pseudo-normas `2 : kw k k 2 = `p con 0 <papple1 BX i=0! 1/2 wki 2 2 w k w k1
18 1. Modelización Bayesiana Pseudo-normas `2 : kw k k 2 = `p con 0 <papple1 BX i=0 w 2 ki! 1/2 2 w k w k1
19 1. Modelización Bayesiana Pseudo-normas `p con 0 <papple1 `2 : kw k k 2 = BX! 1/2 wki 2 `p : kw k k p =! 1/p BX w ki p,p=0.6 i=0 i=0 2 2 w k2 0 w k w k w k1
20 1. Modelización Bayesiana Pseudo-normas `p con 0 <papple1 `2 : kw k k 2 = 1/2 BX wki! 2 `p : kw k k p =! 1/p BX w ki p,p=0.6 i=0 i=0 2 2 w k2 0 w k2 0 w k1 = w k w k1
21 1. Modelización Bayesiana Modelo a priori p(w ) = KY k=1 p(w k k ) / KY k=1 B/p K exp " k B X i=0 w ki p #
22 1. Modelización Bayesiana k Para estimar los parámetros consideramos distribuciones a priori sobre ellos p( k )= ( k a k,b k ) Distribuciones Gamma a=1,b=0.5 a=2,b=0.5 a=3,b=0.5 a=5,b= E[ k ]= a k b k Var[ k ]= a k b 2 k
23 1. Modelización Bayesiana Finalmente la distribución conjunta de probabilidad factoriza como: p(, W, Y) =p( )p(w )p(y W)
24 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales
25 2. Inferencia Variacional Nuestro objetivo sería calcular la distribución a posteriori: p(, W Y) = p(y, W, ) p(y) Sin embargo alternativa. p(y) no puede ser calculada, así que buscamos una Divergencia de Kullback-Leibler: Z Z KL(q(, W)kp(, W Y)) = q(, W) log Siempre es mayor o igual que 0 q(, W) d dw + const p(y,, W) Vale 0 si y solo sí q(, W) =p(, W Y)
26 2. Inferencia Variacional Esto conduce al siguiente algoritmo iterativo: Algorithm 1 Fase de Entrenamiento Require: 0 =(1,...,1) T. 1: repeat 2: Calcular q(w). 3: Calcular q( k ),k =1,...,K. 4: until convergence en particular, encontramos las estimaciones que buscábamos: hw k i,k =1,...,K h k i,k =1,...,K
27 2. Inferencia Variacional Dada una nueva muestra podemos calcular las probabilidades de pertenencia a cada una de las clases x 0.8 p(c k x )= exp(hw k i T x ) P K i=1 exp(hw ii T x ) p(c k x * ) C k x es asignada a la clase con mayor probabilidad
28 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales
29 3. Aprendizaje Activo Sistema de Aprendizaje Activo Conjunto Urna (Muestras NO E;quetadas) Selección de la mejor muestra Clasificador E;queta Conjunto Entrenamiento (Muestras E;quetadas) Oráculo Clasificador Final
30 3. Aprendizaje Activo Usando las probabilidades de pertenencia a cada clase proponemos dos métodos de Aprendizaje Activo: MAXIMUM ENTROPY CRITERIA p(c k x 1 ) p(c k x 2 ) C k C k Entropy = 0.91 Max = 0.7 Entropy = 1.39 Max = 0.25 x N+1 = arg max x KX p(c k x ) log p(c k x ) k=1
31 3. Aprendizaje Activo Usando las probabilidades de pertenencia a cada clase proponemos dos métodos de Aprendizaje Activo: MINIMUM PROBABILITY CRITERIA p(c k x 1 ) p(c k x 2 ) C k C k Entropy = 1.19 Max = 0.53 Entropy = 1.12 Max = 0.42 x N+1 = arg min x (max k (p(c k x )))
32 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales
33 4. Resultados Experimentales Experimento Sintético Objetivo: Segmentar los 3 rectángulos de la imagen. 3 clases (una por cada rectángulo) 60 x 60 pixels = 3600 muestras Todos los píxeles son generados aleatoriamente en el espacio RGB, usando 3 distribuciones gaussianas diferentes. Medias: izquierda= (0.9,0.5,0.1) T medio = (0.5,0.5,0.5) T derecha= (0.1,0.5,0.9) T Desviaciones típicas(las mismas para las tres clases): Red = 0.05, Green = 0.5, Blue = 0.05
34 4. Resultados Experimentales Experimento Sintético Objetivo: Segmentar los 3 rectángulos de la imagen. 3 clases (una por cada rectángulo) 60 x 60 pixels = 3600 muestras Todos los píxeles son generados aleatoriamente en el espacio RGB, usando 3 distribuciones gaussianas diferentes. Nótese que la banda del la segunda componente no tiene información relevante para clasificar
35 4. Resultados Experimentales Experimento Sintético Configuración Conjunto de entrenamiento: 12 muestras (4 de cada clase) Conjunto de test: 1500 muestras (500 de cada clase) El experimento se repite 10 veces con diferentes conjuntos de entrenamiento. Método comparado: SVM - Núcleo Gaussiano que obtiene los mejores resultados - Se buscan los parámetros que mejor resultado obtienen - Mejor resultado: Kappa-index = 0.95
36 4. Resultados Experimentales Experimento sintético Resultados: p apple index (SVM: Kappa-index = 0.95) Los coeficientes adaptativos en la banda del verde son 0
37 4. Resultados Experimentales Experimento Real Image Segmenta;on Dataset UCI Machine Learning Repository [1] El OBJETIVO es clasificar los píxeles de una imagen en 7 clases: BRICKFACE, SKY, FOLIAGE, CEMENT, WINDOW, PATH and GRASS. Cada muestra es un vector de 19 componentes, representando diferentes atributos medidos en un vecindario 3x3 del pixel de interés. [1] K. Bache and M. Lichman, UCI machine learning repository, 2013.
38 4. Resultados Experimentales Experimento Real Configuración Conjunto de entrenamiento: 126 muestras (18 de cada clase) Conjunto de test: 1050 muestras (150 de cada clase) El experimento se repite 10 veces con diferentes conjuntos de entrenamiento. Método Comparado: SVM - Núcleo Gaussiano que obtiene los mejores resultados - Se buscan los parámetros que mejor resultado obtienen SVM Mejores parámetros Kappa index Método Propuesto p = 1 Método Propuesto p =
39 4. Resultados Experimentales Experimento Real W Componente: 9 Atributo: gradiente horizontal medio
40 4. Resultados Experimentales Experimento Real W Componente: 12 Atributo: raw-rojo medio
41 4. Resultados Experimentales Experimento Real W Componente: 14 Atributo: raw-verde medio
42 4. Resultados Experimentales Experimento Real W Componente: 15 Atributo: exceso de rojo
43 4. Resultados Experimentales Experimento Real W Componente: 17 Atributo: exceso de verde
44 4. Resultados Experimentales Experimento Real W Componente: 18 Atibuto: media
45 4. Resultados Experimentales Experimento Real W Componente: 20 Atributo: hue medio
46 4. Resultados Experimentales Experimento Real W Componente: 4 Atributo: tamaño del vecindario El mismo valor (9) para todas las muestras
47 4. Resultados Experimentales Experimento Real W El sesgo se va a 0. Si quitamos la componente 4, obtenemos los mismos valores en la componente 1 pero multiplicados por 9
48 4. Resultados Experimentales Resultados de Aprendizaje Activo Conjuntos SYNTHETIC DATASET REAL DATASET Initial Training Set 6 (2 for each class) 21 (3 for each class) Pool Set 1500 (500 for each class) 1050 (150 for each class) Test Set 1500 (500 for each class) 1050 (150 for each class) Métodos Comparados SVM Margin Sampling (SVM-MS) [1] SVM Multiclass-Level Uncertainty (SVM-MCLU) [2] SVM Entropy-query-by-bagging (SVM-EQB)[3] [1] B. Seales, Ac#ve Learning, Morgan & Claypool, [2] B. Demir, C. Persello and L. Bruzzone, Batch- mode ac;ve- learning methods for the interac;ve classifica;on of remote sensing images, IEEE Trans. on Geoscience and Remote Sensing, vol. 49, no. 3, , [3] D. Tuia, F. Ratle, F. Pacifici, M.F. Kanevski and W.J. Emery, Ac;ve learning methods for remote sensing image classifica;on, IEEE Transac#ons on Geoscience and Remote Sensing, vol. 47, no. 7, , 2009.
49 4. Resultados Experimentales 1 Kappa index Learning Curve for Synthetic Dataset Kappa index 0.95 Random 0.9 MIN PRO 0.85 MAX ENTRO 0.8 SVM MS [2] SVM MCLU [3] 0.75 SVM EQB [4] Samples in training set 1 Kappa index Learning Curve for Real Dataset 0.9 Kappa index Samples in training set
50 preguntas?
APRENDIZAJE PROBABILÍSTICO NAIVE BAYES
1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;
Más detallesTema 15: Combinación de clasificadores
Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial
Más detallesModelización e Inferencia Bayesiana aplicada a Clasificación y Procesamiento de Imágenes
Modelización e Inferencia Bayesiana aplicada a Clasificación y Procesamiento de Imágenes Rafael Molina Universidad de Granada http://decsai.ugr.es/~rms rms@decsai.ugr.es Rafael Molina EVIA 2014 1 Resumen
Más detallesAuxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Más detallesRandom Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia)
Teoría y ejemplos 1 1 Departamiento de Ingenería Matemática Doble titulo Ecole Centrale de Nantes (Francia) Conferencia 9, GLAM, 2016 Outline 1 Árboles de decisión Construcción 2 3 Rotation forest Gradient
Más detallesRedes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile
Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks
Más detallesTópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones
Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 (2da. parte) Algoritmos para Reconocimiento de Patrones 20 de Octubre de 2010 1. Objetivos Introducir conceptos básicos de aprendizaje
Más detallesCaracterización de Imágenes
de Imágenes Visión Artificial Andrea Rueda Pontificia Universidad Javeriana Departamento de Ingeniería de Sistemas Caracterizar: "determinar los atributos peculiares de alguien o de algo, de modo que claramente
Más detallesTécnicas de aprendizaje sobre series temporales
Técnicas de aprendizaje sobre series temporales Contenido 1. Motivación. 2. Ejemplo del Problema. 3. Aproximaciones al problema de clasificación de series temporales. 4. Aprendizaje de reglas. 5. Boosting
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesAprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo
2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesComparación de dos métodos de aprendizaje sobre el mismo problema
Comparación de dos métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2.
Más detallesGUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detallesESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA
ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA Rubén Solera Ureña, Fernando Pérez-Cruz, Fernando Díaz de María Universidad Carlos III de Madrid Departamento
Más detallesModelos Estadísticos de Crimen
Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos
Más detallesCaracterización del funcionamiento adecuado de equipos aplicando redes neuronales
Caracterización del funcionamiento adecuado de equipos aplicando redes neuronales Angel Marín, Nuria López, Miguel Ángel Rodríguez y Antonio José Fernández Iberdrola Ingeniería y Construcción, SAU ÍNDICE
Más detallesAnálisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades
Más detallesTema 7: Aprendizaje de árboles de decisión
Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de
Más detallesRECONOCIMIENTO DE PAUTAS
RECONOCIMIENTO DE PAUTAS ANÁLISIS DISCRIMINANTE (Discriminant analysis) Reconocimiento de pautas supervisado si se cuenta con objetos cuya pertenencia a un grupo es conocida métodos: análisis de discriminantes
Más detallesEstadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con
Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental
Más detallesTema 5. Análisis de regresión (segunda parte) Estadística II, 2010/11
Tema 5 Análisis de regresión (segunda parte) Estadística II, 2010/11 Contenidos 5.1: Diagnóstico: Análisis de los residuos 5.2: La descomposición ANOVA (ANalysis Of VAriance) 5.3: Relaciones no lineales
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesCURSO: ANALISIS ESTADISTICO DE RIESGOS
MANAGEMENT CONSULTORES CURSO: ANALISIS ESTADISTICO DE RIESGOS Cnel. R.L. Falcón 1435 C1406GNC 35 Buenos Aires, Argentina Tel.: 054-11-15-5468-3369 Fax: 054-11-4433-4202 Mail: acaminos@mgmconsultores.com.ar
Más detallesAplicación de un Filtro Stack en Imágenes con Ruido Speckle
Aplicación de un Filtro Stack en Imágenes con Ruido Speckle María E Buemi, Juliana Gambini, Marta Mejail y Julio Jacobo Berllés Departamento de Computación,FCEyN,UBA,Buenos Aires,Argentina {mebuemi; jgambini;
Más detallesAplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural.
Capítulo 5 Evaluación En muchas ocasiones requerimos hacer una evaluación muy precisa de nuestros algoritmos de aprendizaje computacional porque los vamos a utilizar en algún tipo de aplicación que así
Más detallesTema 2. Introducción a la Estadística Bayesiana
2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:
Más detallesGeneración de números aleatorios con distribución uniforme
Generadores de Números Aleatorios 1 Existen en la actualidad innumerables métodos para generar números aleatorios En la literatura disponible se pueden encontrar gran cantidad de algoritmos. Generación
Más detallesCoeficiente de Correlación
Coeficiente de Correlación Al efectuar un análisis de regresión simple (de dos variables) necesitamos hacer las siguientes suposiciones. Que las dos variables son mensurables Que la relación entre las
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesTema AA-4: Sesgo inductivo
Razonamiento Automático Curso 2002 2003 Tema AA-4: Sesgo inductivo Miguel A. Gutiérrez Naranjo José A. Alonso Jiménez Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
Más detallesTema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
Más detallesTema 8: Árboles de decisión
Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
Más detallesPor ejemplo, si se desea discriminar entre créditos que se devuelven o que presentan
Regresión Logística Introducción El problema de clasificación en dos grupos puede abordarse introduciendo una variable ficticia binaria para representar la pertenencia de una observación a uno de los dos
Más detallesIAAE - Inteligencia Artificial Aplicada a la Ingeniería
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2016 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA
Más detallesComparativa de Aproximaciones a SVM Semisupervisado Multiclase para Clasificación de Páginas Web
Comparativa de Aproximaciones a SVM Semisupervisado Multiclase para Clasificación de Páginas Web A Comparison of Approaches to Semi-supervised Multiclass SVM for Web Page Classification Arkaitz Zubiaga,
Más detallesTécnicas de inteligencia artificial. Visión Artificial Visión 3D
Técnicas de inteligencia artificial Visión Artificial Visión 3D Indice Introducción Visión estéreo Introducción Cuando usamos una cámara, perdemos la información 3D x y z y x z y x Sin embargo, la información
Más detallesPráctica 3: Realce de imágenes
Prácticas de laboratorio Práctica 3: Realce de imágenes 1. DESCRIPCIÓN Y REALIZACIÓN DEL PROBLEMA Se trata de desarrollar un conjunto sencillo de algoritmos en C para ejecutar operaciones de REALCE por
Más detallesVisión por computadora Computer vision
Visión por computadora Computer vision Conjunto de algoritmos que permiten obtener una representación visual del mundo, suficiente para la realización de una tarea dada. Representación visual El mundo:
Más detallesINTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión
INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------
Más detallesClasificación Bayesiana de textos y páginas web
Clasificación Bayesiana de textos y páginas web Curso de doctorado: Ingeniería Lingüística aplicada al Procesamiento de Documentos Víctor Fresno Fernández Introducción Enorme cantidad de información en
Más detallesJulio Deride Silva. 4 de junio de 2010
Curvas ROC y Regresión Lineal Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 4 de junio de 2010 Tabla de Contenidos Curvas ROC y Regresión Lineal
Más detallesControl Automático. Compensadores de adelanto en el dominio de la frecuencia
Control Automático Compensadores de adelanto en el dominio de la frecuencia Contenido Introducción Estrategia Ecuaciones del compensador de adelanto Cálculo de un compensador de adelanto para corrección
Más detallesPRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detallesEstimación de homografías
Estimación de homografías Visión en Robótica 1er cuatrimestre de 2013 1 Introducción del problema Una homografía es una transformación proyectiva que determina una correspondencia entre puntos El problema
Más detallesANÁLISIS DE DATOS. Jesús García Herrero
ANÁLISIS DE DATOS Jesús García Herrero ANALISIS DE DATOS EJERCICIOS Una empresa de seguros de automóviles quiere utilizar los datos sobre sus clientes para obtener reglas útiles que permita clasificar
Más detallesItinerario: Inteligencia Computacional
Máster Universitario en Investigación e Innovación en Tecnologías de la Información y las Comunicaciones Itinerario: Inteligencia Computacional Escuela Politécnica Superior Universidad Autónoma de Madrid
Más detallesVisión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento
Visión de Alto Nivel Dr. Luis Enrique Sucar INAOE esucar@inaoep.mx ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento 1 Visión de Alto Nivel orillas Representación del mundo textura color Descripción
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesLicense Plate Detection using Neural Networks
License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net
Más detallesFILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES. Jesús López de la Cruz Grupo 10
FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES Jesús López de la Cruz Grupo 10 Problema Soluciones anteriores Algoritmo HFC Explicación visual Problema Tenemos una imagen
Más detallesAlvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012
Contenido Motivación Métodos computacionales Integración de Montecarlo Muestreo de Gibbs Rejection Muestreo Importante Metropolis - Hasting Markov Chain Montecarlo Method Complemento ejemplos libro: Bayesian
Más detalles[20380] Visió per Computador Prueba 2 (2013) Teoria (10p) (una pregunta test fallada descuenta 1/4 de pregunta acertada)
102784 [20380] Visió per Computador Prueba 2 (2013) Teoria (10p) (una pregunta test fallada descuenta 1/4 de pregunta acertada) 1. En cuál de estas posibles aplicaciones podríamos utilizar una característica
Más detallesJUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Más detallesTareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
Más detallesACTIVIDAD 2: La distribución Normal
Actividad 2: La distribución Normal ACTIVIDAD 2: La distribución Normal CASO 2-1: CLASE DE BIOLOGÍA El Dr. Saigí es profesor de Biología en una prestigiosa universidad. Está preparando una clase en la
Más detallesArboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile
Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión Algoritmo de Hunt (I) Nodo interior Nodo por expandir Nodo hoja Algoritmo de Hunt
Más detallesEjercicios con Imágenes de Radar
National Aeronautics and Space Administration ARSET Applied Remote Sensing Training http://arset.gsfc.nasa.gov @NASAARSET Ejercicios con Imágenes de Radar July 14, 2016 www.nasa.gov Objetivo El objetivo
Más detallesActividad: Qué proporción del área terrestre de Puerto Rico está urbanizada?
Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada? Introducción En planificación el área urbanizada corresponde a la superficie de un terreno donde se han construido residencias
Más detallesAplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés
Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Amaro Camargo Erika, Reyes García Carlos A. Instituto Nacional de Astrofísica, Óptica
Más detallesIntervalos de confianza con STATGRAPHICS
Intervalos de confianza con STATGRAPHICS Ficheros empleados: TiempoaccesoWeb.sf3 ; TiempoBucle.sf3; 1. Ejemplo 1: Tiempo de acceso a una página Web Se desean construir intervalos de confianza para la media
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesImplementación Hardware de Aplicaciones de la Pirámide
Implementación Hardware de Aplicaciones de la Pirámide Marco Aurelio Nuño Maganda 1, Miguel Arias Estrada 1, Claudia Feregrino Uribe 1 1 Instituto Nacional de Astrofísica, Óptica y Electrónica. Luis Enrique
Más detallesVisión. Sesión 4: Búsqueda y tracking de modelos 2D en imágenes. Departamento CCIA http://www.jtech.ua.es/vision/2011/
Visión Sesión 4: Búsqueda y tracking de modelos 2D en imágenes Departamento CCIA http://www.jtech.ua.es/vision/2011/ Hoy Detección de aristas Transformada de Hough Componentes conectadas Alineación de
Más detallesIIC Sistemas Recomendadores
Filtrado Basado en Contenido II IIC 3633 - Sistemas Recomendadores Denis Parra Profesor Asistente, DCC, PUC CHile Page 1 of 22 TOC En esta clase 1. Representación y Aprendizaje del Modelo de Usuario 1.
Más detallesObtención de los Colores Dominantes de una Imagen
JCEE '07 1 Obtención de los Colores Dominantes de una Imagen M. Corbalán JCEE '07 2 Índice 1) Que se entiende por colores dominantes 2) Qué interés puede tener obtenerlos 3) Objetivo: Cómo se pueden obtener
Más detallesTema 7: Sesgo inductivo
Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC
Más detallesEL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)
EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento
Más detallesMétodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013
Métodos de Clasificación sin Métrica Reconocimiento de Patrones- 03 Métodos de Clasificación sin Métrica Datos nominales sin noción de similitud o distancia (sin orden). Escala nominal: conjunto de categorías
Más detallesTEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Más detallesKinBehR KINect for human BEHaviour Recognition
KinBehR KINect for human BEHaviour Recognition Tecnologías y Sistemas de la Información Alumno: Rubén Cantarero Navarro Directores: María José Santofimia Romero y Juan Carlos López López Contexto 2 KinBehR
Más detallesEstadística Espacial en Ecología del Paisaje
Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas
Más detallesAlgoritmos de Modelación (o las máquinas de chorizos) Enrique Martínez-Meyer
Algoritmos de Modelación (o las máquinas de chorizos) Enrique Martínez-Meyer emm@ib.unam.mx El proceso del modelado de nichos Step 3 Step 1 Collate GIS database of environmental layers (e.g. temperature,
Más detallesIntroducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60
Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia
Más detalles3 ANALISIS DESCRIPTIVO DE LOS DATOS
3 ANALISIS DESCRIPTIVO DE LOS DATOS 3.1 La tabulación de los datos 3.1.1 Tabla de distribución de frecuencias. 3.1.2 El histograma. 3.2 Medidas de tendencia central 3.2.1 La media. 3.2.2 La mediana. 3.2.3
Más detallesSon una clase particular de los algoritmos evolutivos.
Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver
Más detallesAl reemplazar la varianza muestral en la fórmula obtenemos otra expresión de la distribución chi-cuadrada:
ESTIMACIÓN POR INTERVALO PARA LA VARIANZA Ya estudiamos la estimación por intervalo para la media poblacional. Ahora extenderemos lo aprendido a la varianza. Cuándo creen que es importante estimar los
Más detallesEjercicio 1 (20 puntos)
ESTADISTICA Y SUS APLICACIONES EN CIENCIAS SOCIALES. Examen Montevideo, 15 de diciembre de 2015. Nombre: C.I.: EXAMEN Libre Reglamentado El examen consta de dos partes. La primera parte debe ser realizada
Más detallesLocalización. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides
M.Sc. Kryscia Ramírez Benavides Problemas de Navegación de los Robots Dónde estoy?. Dónde he estado? Mapa de decisiones. A dónde voy? Planificación de misiones. Cuál es la mejor manera de llegar? Planificación
Más detallesINDICE. Prólogo a la Segunda Edición
INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.
Más detalles07 Estimación puntual e introducción a la estadística inferencial
07 Estimación puntual e introducción a la estadística inferencial Diego Andrés Alvarez Marín Profesor Asistente Universidad Nacional de Colombia Sede Manizales 1 Contenido Qué es la estadística inferencial?
Más detallesTécnicas de Minería de Datos
Técnicas de Minería de Datos Act. Humberto Ramos S. 1 Qué es Minería de datos? El desarrollo de dispositivos tecnológicos para acumular datos a bajo costo. Acumulación o registro de gran cantidad de datos.
Más detallesDESARROLLO DE MÉTODOS DE BÚSQUEDA EN BD DE IMÁGENES CON JAVAVIS
DESARROLLO DE MÉTODOS DE BÚSQUEDA EN BD DE IMÁGENES CON JAVAVIS AUTORA MARTA FERNÁNDEZ DÍAZ TUTOR MIGUEL ANGEL CAZORLA QUEVEDO DEPARTAMENTO CIENCIA DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL CURSO 2004-2005
Más detallesTema 3: El Método Simplex. Algoritmo de las Dos Fases.
Tema 3: El Método Simplex Algoritmo de las Dos Fases 31 Motivación Gráfica del método Simplex 32 El método Simplex 33 El método Simplex en Formato Tabla 34 Casos especiales en la aplicación del algoritmo
Más detallesVARIABLES ALEATORIAS CONTINUAS
VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p
Más detalles1. DML. Las consultas de resumen
1.1 Introducción 1. DML. Las consultas de resumen Una de las funcionalidades de la sentencia SELECT es el permitir obtener resúmenes de los datos contenidos en las columnas de las tablas. Para poder llevarlo
Más detallesCapítulo 4 Exploración del ambiente.
Capítulo 4 Exploración del ambiente. Para explorar el ambiente se tomó como base el vehículo explorador de Braitenberg, la idea es tomar este comportamiento y adaptarlo al uso de una cámara de video, esto
Más detallesConstrucción de imágenes de súper-resulución usando un metodo probabilista
Construcción de imágenes de súper-resulución usando un metodo probabilista Pável Herrera Domínguez Instituto Nacional de Astronomia Optica y Electronica Abstract. La generación de imágenes de súper-resolución
Más detallesINFORME TAREA N 4 CLUSTERING
Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Eléctrica EL4106 Inteligencia Computacional INFORME TAREA N 4 CLUSTERING Nombre Alumno : Profesor : Profesor Auxiliar
Más detallesApéndice A: Funciones del programa LightPAP
Apéndice A: Funciones del programa LightPAP A continuación se van a explicar las funciones principales que se han desarrollado para esta aplicación. 1 calcula_prop.m function [nc,cv,posicion,tinta,saturacion,luminancia]
Más detallesMETODOS ESTADÍSTICOS
METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.
Más detallesEvaluando las Hipótesis Inductivas. Tomás Arredondo Vidal 8/9/2011
Evaluando las Hipótesis Inductivas Tomás Arredondo Vidal 8/9/2011 Evaluando las Hipótesis Inductivas Contenidos Estimando la Precisión Comparando Hipótesis Comparando Algoritmos de Clasificación Evaluando
Más detalles2 de mar de 2004 Codificación de imágenes y v ideo
Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N
Más detallesClasificación Semi-Supervisada de Documentos
Clasificación Semi-Supervisada de Documentos Roxana K. Aparicio Carrasco Ciencias e Ingeniería de la Información y la Computación, Universidad de Puerto Rico Mayagüez, 00681-5000, Puerto Rico roxana.aparicio@ece.uprm.edu
Más detallesAnálisis Inteligente de Datos: Introducción
Análisis Inteligente de Datos: cvalle@inf.utfsm.cl Departamento de Informática - Universidad Técnica Federico Santa María Santiago, Marzo 2009 Temario 1 Temario 1 Preguntas Relevantes Por qué análisis
Más detallesUnidad IV: Distribuciones muestrales
Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia
Más detalles