Un sistema de clasificación y aprendizaje activo mutliclase con selección de características

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Un sistema de clasificación y aprendizaje activo mutliclase con selección de características"

Transcripción

1 Un sistema de clasificación y aprendizaje activo mutliclase con selección de características Pablo Ruiz Matarán Grupo de Procesamiento de Información Visual Departamento de Ciencias de la Computación e Inteligencia Artificial CITICoffee 27 de Abril 2015

2 Problemas tratados durante la tesis MODELOS BAYESIANOS Recuperación de video en bases de datos Restauración de imágenes Fotografía Computacional Clasificación

3 Problemas tratados durante la tesis MODELOS BAYESIANOS Recuperación de video en bases de datos Restauración de imágenes Fotografía Computacional Clasificación

4 Motivación Vamos a suponer que tenemos las siguientes muestras 2 Clase 1 Clase 2 Clase 3 Clase

5 Motivación 2 Clase 1 Clase 2 Clase 3 Clase

6 Motivación 2 Clase 1 Clase 2 Clase 3 Clase

7 Motivación Usualmente se recurre a un PREPROCESADO usando técnicas de selección de caracterís;cas: Búsqueda de correlaciones entre las bandas PCA Herramientas de visualización de datos etc

8 Motivación Podríamos construir un clasificador que seleccionara las caracterís;cas de forma automá;ca?

9 Bayesian Classification and Active Learning Using lp-priors. Application to Image Segmentation P. Ruiz, N. Pérez de la Blanca, R. Molina, and A.K. Katsaggelos, 22th European Signal Processing Conference (EUSIPCO 2014), Lisbon (Portugal), 2014

10 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales

11 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales

12 1. Modelización Bayesiana En un problema clásico de clasificación multiclase, tenemos acceso a un conjunto de entrenamiento y sus etiquetas: Y = K es el número de clases en el problema de clasificación. B es el número de bandas. X =[x 1, x 2,...,x N ] 2 R B N y 1 (x 1 ) y 1 (x 2 )... y 1 (x N ) y 2 (x 1 ) y 2 (x 2 )... y 2 (x N ) y K (x 1 ) y K (x 2 )... y K (x N ) N es el número de muestras de entrenamiento {0, 1}K N 5

13 1. Modelización Bayesiana Para modelar el clasificador usamos una función softmax: p(y W) = NY KY i=1 k=1! exp(wk T x yk (x i ) i + w k0 ) P K j=1 exp(wt j x i + w k0 ) El objetivo es estimar los coeficientes adaptativos W X = apple x 1 x 2... x N

14 1. Modelización Bayesiana Para modelar el clasificador usamos una función softmax: p(y W) = NY KY i=1 k=1! exp(wk T x yk (x i ) i) P K j=1 exp(wt j x i) El objetivo es estimar los coeficientes adaptativos W X = apple x 1 x 2... x N

15 1. Modelización Bayesiana Como conseguimos que el sistema haga selección de características? wk T X 2 [w k0,w k1,...,w ki,...,w kn ] x 11 x x 1N x i1 x i2... x in x B1 x B2... x BN 3 7 5

16 1. Modelización Bayesiana Como conseguimos que el sistema haga selección de características? Vamos a imponer que la mayor parte de los coeficientes adaptativos W sea 0

17 1. Modelización Bayesiana Pseudo-normas `2 : kw k k 2 = `p con 0 <papple1 BX i=0! 1/2 wki 2 2 w k w k1

18 1. Modelización Bayesiana Pseudo-normas `2 : kw k k 2 = `p con 0 <papple1 BX i=0 w 2 ki! 1/2 2 w k w k1

19 1. Modelización Bayesiana Pseudo-normas `p con 0 <papple1 `2 : kw k k 2 = BX! 1/2 wki 2 `p : kw k k p =! 1/p BX w ki p,p=0.6 i=0 i=0 2 2 w k2 0 w k w k w k1

20 1. Modelización Bayesiana Pseudo-normas `p con 0 <papple1 `2 : kw k k 2 = 1/2 BX wki! 2 `p : kw k k p =! 1/p BX w ki p,p=0.6 i=0 i=0 2 2 w k2 0 w k2 0 w k1 = w k w k1

21 1. Modelización Bayesiana Modelo a priori p(w ) = KY k=1 p(w k k ) / KY k=1 B/p K exp " k B X i=0 w ki p #

22 1. Modelización Bayesiana k Para estimar los parámetros consideramos distribuciones a priori sobre ellos p( k )= ( k a k,b k ) Distribuciones Gamma a=1,b=0.5 a=2,b=0.5 a=3,b=0.5 a=5,b= E[ k ]= a k b k Var[ k ]= a k b 2 k

23 1. Modelización Bayesiana Finalmente la distribución conjunta de probabilidad factoriza como: p(, W, Y) =p( )p(w )p(y W)

24 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales

25 2. Inferencia Variacional Nuestro objetivo sería calcular la distribución a posteriori: p(, W Y) = p(y, W, ) p(y) Sin embargo alternativa. p(y) no puede ser calculada, así que buscamos una Divergencia de Kullback-Leibler: Z Z KL(q(, W)kp(, W Y)) = q(, W) log Siempre es mayor o igual que 0 q(, W) d dw + const p(y,, W) Vale 0 si y solo sí q(, W) =p(, W Y)

26 2. Inferencia Variacional Esto conduce al siguiente algoritmo iterativo: Algorithm 1 Fase de Entrenamiento Require: 0 =(1,...,1) T. 1: repeat 2: Calcular q(w). 3: Calcular q( k ),k =1,...,K. 4: until convergence en particular, encontramos las estimaciones que buscábamos: hw k i,k =1,...,K h k i,k =1,...,K

27 2. Inferencia Variacional Dada una nueva muestra podemos calcular las probabilidades de pertenencia a cada una de las clases x 0.8 p(c k x )= exp(hw k i T x ) P K i=1 exp(hw ii T x ) p(c k x * ) C k x es asignada a la clase con mayor probabilidad

28 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales

29 3. Aprendizaje Activo Sistema de Aprendizaje Activo Conjunto Urna (Muestras NO E;quetadas) Selección de la mejor muestra Clasificador E;queta Conjunto Entrenamiento (Muestras E;quetadas) Oráculo Clasificador Final

30 3. Aprendizaje Activo Usando las probabilidades de pertenencia a cada clase proponemos dos métodos de Aprendizaje Activo: MAXIMUM ENTROPY CRITERIA p(c k x 1 ) p(c k x 2 ) C k C k Entropy = 0.91 Max = 0.7 Entropy = 1.39 Max = 0.25 x N+1 = arg max x KX p(c k x ) log p(c k x ) k=1

31 3. Aprendizaje Activo Usando las probabilidades de pertenencia a cada clase proponemos dos métodos de Aprendizaje Activo: MINIMUM PROBABILITY CRITERIA p(c k x 1 ) p(c k x 2 ) C k C k Entropy = 1.19 Max = 0.53 Entropy = 1.12 Max = 0.42 x N+1 = arg min x (max k (p(c k x )))

32 Outline 1. Modelización Bayesiana del problema 2. Inferencia Variacional 3. Aprendizaje Activo 4. Resultados Experimentales

33 4. Resultados Experimentales Experimento Sintético Objetivo: Segmentar los 3 rectángulos de la imagen. 3 clases (una por cada rectángulo) 60 x 60 pixels = 3600 muestras Todos los píxeles son generados aleatoriamente en el espacio RGB, usando 3 distribuciones gaussianas diferentes. Medias: izquierda= (0.9,0.5,0.1) T medio = (0.5,0.5,0.5) T derecha= (0.1,0.5,0.9) T Desviaciones típicas(las mismas para las tres clases): Red = 0.05, Green = 0.5, Blue = 0.05

34 4. Resultados Experimentales Experimento Sintético Objetivo: Segmentar los 3 rectángulos de la imagen. 3 clases (una por cada rectángulo) 60 x 60 pixels = 3600 muestras Todos los píxeles son generados aleatoriamente en el espacio RGB, usando 3 distribuciones gaussianas diferentes. Nótese que la banda del la segunda componente no tiene información relevante para clasificar

35 4. Resultados Experimentales Experimento Sintético Configuración Conjunto de entrenamiento: 12 muestras (4 de cada clase) Conjunto de test: 1500 muestras (500 de cada clase) El experimento se repite 10 veces con diferentes conjuntos de entrenamiento. Método comparado: SVM - Núcleo Gaussiano que obtiene los mejores resultados - Se buscan los parámetros que mejor resultado obtienen - Mejor resultado: Kappa-index = 0.95

36 4. Resultados Experimentales Experimento sintético Resultados: p apple index (SVM: Kappa-index = 0.95) Los coeficientes adaptativos en la banda del verde son 0

37 4. Resultados Experimentales Experimento Real Image Segmenta;on Dataset UCI Machine Learning Repository [1] El OBJETIVO es clasificar los píxeles de una imagen en 7 clases: BRICKFACE, SKY, FOLIAGE, CEMENT, WINDOW, PATH and GRASS. Cada muestra es un vector de 19 componentes, representando diferentes atributos medidos en un vecindario 3x3 del pixel de interés. [1] K. Bache and M. Lichman, UCI machine learning repository, 2013.

38 4. Resultados Experimentales Experimento Real Configuración Conjunto de entrenamiento: 126 muestras (18 de cada clase) Conjunto de test: 1050 muestras (150 de cada clase) El experimento se repite 10 veces con diferentes conjuntos de entrenamiento. Método Comparado: SVM - Núcleo Gaussiano que obtiene los mejores resultados - Se buscan los parámetros que mejor resultado obtienen SVM Mejores parámetros Kappa index Método Propuesto p = 1 Método Propuesto p =

39 4. Resultados Experimentales Experimento Real W Componente: 9 Atributo: gradiente horizontal medio

40 4. Resultados Experimentales Experimento Real W Componente: 12 Atributo: raw-rojo medio

41 4. Resultados Experimentales Experimento Real W Componente: 14 Atributo: raw-verde medio

42 4. Resultados Experimentales Experimento Real W Componente: 15 Atributo: exceso de rojo

43 4. Resultados Experimentales Experimento Real W Componente: 17 Atributo: exceso de verde

44 4. Resultados Experimentales Experimento Real W Componente: 18 Atibuto: media

45 4. Resultados Experimentales Experimento Real W Componente: 20 Atributo: hue medio

46 4. Resultados Experimentales Experimento Real W Componente: 4 Atributo: tamaño del vecindario El mismo valor (9) para todas las muestras

47 4. Resultados Experimentales Experimento Real W El sesgo se va a 0. Si quitamos la componente 4, obtenemos los mismos valores en la componente 1 pero multiplicados por 9

48 4. Resultados Experimentales Resultados de Aprendizaje Activo Conjuntos SYNTHETIC DATASET REAL DATASET Initial Training Set 6 (2 for each class) 21 (3 for each class) Pool Set 1500 (500 for each class) 1050 (150 for each class) Test Set 1500 (500 for each class) 1050 (150 for each class) Métodos Comparados SVM Margin Sampling (SVM-MS) [1] SVM Multiclass-Level Uncertainty (SVM-MCLU) [2] SVM Entropy-query-by-bagging (SVM-EQB)[3] [1] B. Seales, Ac#ve Learning, Morgan & Claypool, [2] B. Demir, C. Persello and L. Bruzzone, Batch- mode ac;ve- learning methods for the interac;ve classifica;on of remote sensing images, IEEE Trans. on Geoscience and Remote Sensing, vol. 49, no. 3, , [3] D. Tuia, F. Ratle, F. Pacifici, M.F. Kanevski and W.J. Emery, Ac;ve learning methods for remote sensing image classifica;on, IEEE Transac#ons on Geoscience and Remote Sensing, vol. 47, no. 7, , 2009.

49 4. Resultados Experimentales 1 Kappa index Learning Curve for Synthetic Dataset Kappa index 0.95 Random 0.9 MIN PRO 0.85 MAX ENTRO 0.8 SVM MS [2] SVM MCLU [3] 0.75 SVM EQB [4] Samples in training set 1 Kappa index Learning Curve for Real Dataset 0.9 Kappa index Samples in training set

50 preguntas?

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES 1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;

Más detalles

Tema 15: Combinación de clasificadores

Tema 15: Combinación de clasificadores Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

Modelización e Inferencia Bayesiana aplicada a Clasificación y Procesamiento de Imágenes

Modelización e Inferencia Bayesiana aplicada a Clasificación y Procesamiento de Imágenes Modelización e Inferencia Bayesiana aplicada a Clasificación y Procesamiento de Imágenes Rafael Molina Universidad de Granada http://decsai.ugr.es/~rms rms@decsai.ugr.es Rafael Molina EVIA 2014 1 Resumen

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia)

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia) Teoría y ejemplos 1 1 Departamiento de Ingenería Matemática Doble titulo Ecole Centrale de Nantes (Francia) Conferencia 9, GLAM, 2016 Outline 1 Árboles de decisión Construcción 2 3 Rotation forest Gradient

Más detalles

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks

Más detalles

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 (2da. parte) Algoritmos para Reconocimiento de Patrones 20 de Octubre de 2010 1. Objetivos Introducir conceptos básicos de aprendizaje

Más detalles

Caracterización de Imágenes

Caracterización de Imágenes de Imágenes Visión Artificial Andrea Rueda Pontificia Universidad Javeriana Departamento de Ingeniería de Sistemas Caracterizar: "determinar los atributos peculiares de alguien o de algo, de modo que claramente

Más detalles

Técnicas de aprendizaje sobre series temporales

Técnicas de aprendizaje sobre series temporales Técnicas de aprendizaje sobre series temporales Contenido 1. Motivación. 2. Ejemplo del Problema. 3. Aproximaciones al problema de clasificación de series temporales. 4. Aprendizaje de reglas. 5. Boosting

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo 2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Comparación de dos métodos de aprendizaje sobre el mismo problema

Comparación de dos métodos de aprendizaje sobre el mismo problema Comparación de dos métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2.

Más detalles

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA

ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA Rubén Solera Ureña, Fernando Pérez-Cruz, Fernando Díaz de María Universidad Carlos III de Madrid Departamento

Más detalles

Modelos Estadísticos de Crimen

Modelos Estadísticos de Crimen Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos

Más detalles

Caracterización del funcionamiento adecuado de equipos aplicando redes neuronales

Caracterización del funcionamiento adecuado de equipos aplicando redes neuronales Caracterización del funcionamiento adecuado de equipos aplicando redes neuronales Angel Marín, Nuria López, Miguel Ángel Rodríguez y Antonio José Fernández Iberdrola Ingeniería y Construcción, SAU ÍNDICE

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades

Más detalles

Tema 7: Aprendizaje de árboles de decisión

Tema 7: Aprendizaje de árboles de decisión Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de

Más detalles

RECONOCIMIENTO DE PAUTAS

RECONOCIMIENTO DE PAUTAS RECONOCIMIENTO DE PAUTAS ANÁLISIS DISCRIMINANTE (Discriminant analysis) Reconocimiento de pautas supervisado si se cuenta con objetos cuya pertenencia a un grupo es conocida métodos: análisis de discriminantes

Más detalles

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental

Más detalles

Tema 5. Análisis de regresión (segunda parte) Estadística II, 2010/11

Tema 5. Análisis de regresión (segunda parte) Estadística II, 2010/11 Tema 5 Análisis de regresión (segunda parte) Estadística II, 2010/11 Contenidos 5.1: Diagnóstico: Análisis de los residuos 5.2: La descomposición ANOVA (ANalysis Of VAriance) 5.3: Relaciones no lineales

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

CURSO: ANALISIS ESTADISTICO DE RIESGOS

CURSO: ANALISIS ESTADISTICO DE RIESGOS MANAGEMENT CONSULTORES CURSO: ANALISIS ESTADISTICO DE RIESGOS Cnel. R.L. Falcón 1435 C1406GNC 35 Buenos Aires, Argentina Tel.: 054-11-15-5468-3369 Fax: 054-11-4433-4202 Mail: acaminos@mgmconsultores.com.ar

Más detalles

Aplicación de un Filtro Stack en Imágenes con Ruido Speckle

Aplicación de un Filtro Stack en Imágenes con Ruido Speckle Aplicación de un Filtro Stack en Imágenes con Ruido Speckle María E Buemi, Juliana Gambini, Marta Mejail y Julio Jacobo Berllés Departamento de Computación,FCEyN,UBA,Buenos Aires,Argentina {mebuemi; jgambini;

Más detalles

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural.

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural. Capítulo 5 Evaluación En muchas ocasiones requerimos hacer una evaluación muy precisa de nuestros algoritmos de aprendizaje computacional porque los vamos a utilizar en algún tipo de aplicación que así

Más detalles

Tema 2. Introducción a la Estadística Bayesiana

Tema 2. Introducción a la Estadística Bayesiana 2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:

Más detalles

Generación de números aleatorios con distribución uniforme

Generación de números aleatorios con distribución uniforme Generadores de Números Aleatorios 1 Existen en la actualidad innumerables métodos para generar números aleatorios En la literatura disponible se pueden encontrar gran cantidad de algoritmos. Generación

Más detalles

Coeficiente de Correlación

Coeficiente de Correlación Coeficiente de Correlación Al efectuar un análisis de regresión simple (de dos variables) necesitamos hacer las siguientes suposiciones. Que las dos variables son mensurables Que la relación entre las

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Tema AA-4: Sesgo inductivo

Tema AA-4: Sesgo inductivo Razonamiento Automático Curso 2002 2003 Tema AA-4: Sesgo inductivo Miguel A. Gutiérrez Naranjo José A. Alonso Jiménez Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Por ejemplo, si se desea discriminar entre créditos que se devuelven o que presentan

Por ejemplo, si se desea discriminar entre créditos que se devuelven o que presentan Regresión Logística Introducción El problema de clasificación en dos grupos puede abordarse introduciendo una variable ficticia binaria para representar la pertenencia de una observación a uno de los dos

Más detalles

IAAE - Inteligencia Artificial Aplicada a la Ingeniería

IAAE - Inteligencia Artificial Aplicada a la Ingeniería Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2016 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA

Más detalles

Comparativa de Aproximaciones a SVM Semisupervisado Multiclase para Clasificación de Páginas Web

Comparativa de Aproximaciones a SVM Semisupervisado Multiclase para Clasificación de Páginas Web Comparativa de Aproximaciones a SVM Semisupervisado Multiclase para Clasificación de Páginas Web A Comparison of Approaches to Semi-supervised Multiclass SVM for Web Page Classification Arkaitz Zubiaga,

Más detalles

Técnicas de inteligencia artificial. Visión Artificial Visión 3D

Técnicas de inteligencia artificial. Visión Artificial Visión 3D Técnicas de inteligencia artificial Visión Artificial Visión 3D Indice Introducción Visión estéreo Introducción Cuando usamos una cámara, perdemos la información 3D x y z y x z y x Sin embargo, la información

Más detalles

Práctica 3: Realce de imágenes

Práctica 3: Realce de imágenes Prácticas de laboratorio Práctica 3: Realce de imágenes 1. DESCRIPCIÓN Y REALIZACIÓN DEL PROBLEMA Se trata de desarrollar un conjunto sencillo de algoritmos en C para ejecutar operaciones de REALCE por

Más detalles

Visión por computadora Computer vision

Visión por computadora Computer vision Visión por computadora Computer vision Conjunto de algoritmos que permiten obtener una representación visual del mundo, suficiente para la realización de una tarea dada. Representación visual El mundo:

Más detalles

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------

Más detalles

Clasificación Bayesiana de textos y páginas web

Clasificación Bayesiana de textos y páginas web Clasificación Bayesiana de textos y páginas web Curso de doctorado: Ingeniería Lingüística aplicada al Procesamiento de Documentos Víctor Fresno Fernández Introducción Enorme cantidad de información en

Más detalles

Julio Deride Silva. 4 de junio de 2010

Julio Deride Silva. 4 de junio de 2010 Curvas ROC y Regresión Lineal Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 4 de junio de 2010 Tabla de Contenidos Curvas ROC y Regresión Lineal

Más detalles

Control Automático. Compensadores de adelanto en el dominio de la frecuencia

Control Automático. Compensadores de adelanto en el dominio de la frecuencia Control Automático Compensadores de adelanto en el dominio de la frecuencia Contenido Introducción Estrategia Ecuaciones del compensador de adelanto Cálculo de un compensador de adelanto para corrección

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

Estimación de homografías

Estimación de homografías Estimación de homografías Visión en Robótica 1er cuatrimestre de 2013 1 Introducción del problema Una homografía es una transformación proyectiva que determina una correspondencia entre puntos El problema

Más detalles

ANÁLISIS DE DATOS. Jesús García Herrero

ANÁLISIS DE DATOS. Jesús García Herrero ANÁLISIS DE DATOS Jesús García Herrero ANALISIS DE DATOS EJERCICIOS Una empresa de seguros de automóviles quiere utilizar los datos sobre sus clientes para obtener reglas útiles que permita clasificar

Más detalles

Itinerario: Inteligencia Computacional

Itinerario: Inteligencia Computacional Máster Universitario en Investigación e Innovación en Tecnologías de la Información y las Comunicaciones Itinerario: Inteligencia Computacional Escuela Politécnica Superior Universidad Autónoma de Madrid

Más detalles

Visión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento

Visión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento Visión de Alto Nivel Dr. Luis Enrique Sucar INAOE esucar@inaoep.mx ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento 1 Visión de Alto Nivel orillas Representación del mundo textura color Descripción

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

License Plate Detection using Neural Networks

License Plate Detection using Neural Networks License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net

Más detalles

FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES. Jesús López de la Cruz Grupo 10

FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES. Jesús López de la Cruz Grupo 10 FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES Jesús López de la Cruz Grupo 10 Problema Soluciones anteriores Algoritmo HFC Explicación visual Problema Tenemos una imagen

Más detalles

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012 Contenido Motivación Métodos computacionales Integración de Montecarlo Muestreo de Gibbs Rejection Muestreo Importante Metropolis - Hasting Markov Chain Montecarlo Method Complemento ejemplos libro: Bayesian

Más detalles

[20380] Visió per Computador Prueba 2 (2013) Teoria (10p) (una pregunta test fallada descuenta 1/4 de pregunta acertada)

[20380] Visió per Computador Prueba 2 (2013) Teoria (10p) (una pregunta test fallada descuenta 1/4 de pregunta acertada) 102784 [20380] Visió per Computador Prueba 2 (2013) Teoria (10p) (una pregunta test fallada descuenta 1/4 de pregunta acertada) 1. En cuál de estas posibles aplicaciones podríamos utilizar una característica

Más detalles

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

ACTIVIDAD 2: La distribución Normal

ACTIVIDAD 2: La distribución Normal Actividad 2: La distribución Normal ACTIVIDAD 2: La distribución Normal CASO 2-1: CLASE DE BIOLOGÍA El Dr. Saigí es profesor de Biología en una prestigiosa universidad. Está preparando una clase en la

Más detalles

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión Algoritmo de Hunt (I) Nodo interior Nodo por expandir Nodo hoja Algoritmo de Hunt

Más detalles

Ejercicios con Imágenes de Radar

Ejercicios con Imágenes de Radar National Aeronautics and Space Administration ARSET Applied Remote Sensing Training http://arset.gsfc.nasa.gov @NASAARSET Ejercicios con Imágenes de Radar July 14, 2016 www.nasa.gov Objetivo El objetivo

Más detalles

Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada?

Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada? Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada? Introducción En planificación el área urbanizada corresponde a la superficie de un terreno donde se han construido residencias

Más detalles

Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés

Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Amaro Camargo Erika, Reyes García Carlos A. Instituto Nacional de Astrofísica, Óptica

Más detalles

Intervalos de confianza con STATGRAPHICS

Intervalos de confianza con STATGRAPHICS Intervalos de confianza con STATGRAPHICS Ficheros empleados: TiempoaccesoWeb.sf3 ; TiempoBucle.sf3; 1. Ejemplo 1: Tiempo de acceso a una página Web Se desean construir intervalos de confianza para la media

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Implementación Hardware de Aplicaciones de la Pirámide

Implementación Hardware de Aplicaciones de la Pirámide Implementación Hardware de Aplicaciones de la Pirámide Marco Aurelio Nuño Maganda 1, Miguel Arias Estrada 1, Claudia Feregrino Uribe 1 1 Instituto Nacional de Astrofísica, Óptica y Electrónica. Luis Enrique

Más detalles

Visión. Sesión 4: Búsqueda y tracking de modelos 2D en imágenes. Departamento CCIA http://www.jtech.ua.es/vision/2011/

Visión. Sesión 4: Búsqueda y tracking de modelos 2D en imágenes. Departamento CCIA http://www.jtech.ua.es/vision/2011/ Visión Sesión 4: Búsqueda y tracking de modelos 2D en imágenes Departamento CCIA http://www.jtech.ua.es/vision/2011/ Hoy Detección de aristas Transformada de Hough Componentes conectadas Alineación de

Más detalles

IIC Sistemas Recomendadores

IIC Sistemas Recomendadores Filtrado Basado en Contenido II IIC 3633 - Sistemas Recomendadores Denis Parra Profesor Asistente, DCC, PUC CHile Page 1 of 22 TOC En esta clase 1. Representación y Aprendizaje del Modelo de Usuario 1.

Más detalles

Obtención de los Colores Dominantes de una Imagen

Obtención de los Colores Dominantes de una Imagen JCEE '07 1 Obtención de los Colores Dominantes de una Imagen M. Corbalán JCEE '07 2 Índice 1) Que se entiende por colores dominantes 2) Qué interés puede tener obtenerlos 3) Objetivo: Cómo se pueden obtener

Más detalles

Tema 7: Sesgo inductivo

Tema 7: Sesgo inductivo Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013 Métodos de Clasificación sin Métrica Reconocimiento de Patrones- 03 Métodos de Clasificación sin Métrica Datos nominales sin noción de similitud o distancia (sin orden). Escala nominal: conjunto de categorías

Más detalles

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

KinBehR KINect for human BEHaviour Recognition

KinBehR KINect for human BEHaviour Recognition KinBehR KINect for human BEHaviour Recognition Tecnologías y Sistemas de la Información Alumno: Rubén Cantarero Navarro Directores: María José Santofimia Romero y Juan Carlos López López Contexto 2 KinBehR

Más detalles

Estadística Espacial en Ecología del Paisaje

Estadística Espacial en Ecología del Paisaje Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas

Más detalles

Algoritmos de Modelación (o las máquinas de chorizos) Enrique Martínez-Meyer

Algoritmos de Modelación (o las máquinas de chorizos) Enrique Martínez-Meyer Algoritmos de Modelación (o las máquinas de chorizos) Enrique Martínez-Meyer emm@ib.unam.mx El proceso del modelado de nichos Step 3 Step 1 Collate GIS database of environmental layers (e.g. temperature,

Más detalles

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60 Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia

Más detalles

3 ANALISIS DESCRIPTIVO DE LOS DATOS

3 ANALISIS DESCRIPTIVO DE LOS DATOS 3 ANALISIS DESCRIPTIVO DE LOS DATOS 3.1 La tabulación de los datos 3.1.1 Tabla de distribución de frecuencias. 3.1.2 El histograma. 3.2 Medidas de tendencia central 3.2.1 La media. 3.2.2 La mediana. 3.2.3

Más detalles

Son una clase particular de los algoritmos evolutivos.

Son una clase particular de los algoritmos evolutivos. Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver

Más detalles

Al reemplazar la varianza muestral en la fórmula obtenemos otra expresión de la distribución chi-cuadrada:

Al reemplazar la varianza muestral en la fórmula obtenemos otra expresión de la distribución chi-cuadrada: ESTIMACIÓN POR INTERVALO PARA LA VARIANZA Ya estudiamos la estimación por intervalo para la media poblacional. Ahora extenderemos lo aprendido a la varianza. Cuándo creen que es importante estimar los

Más detalles

Ejercicio 1 (20 puntos)

Ejercicio 1 (20 puntos) ESTADISTICA Y SUS APLICACIONES EN CIENCIAS SOCIALES. Examen Montevideo, 15 de diciembre de 2015. Nombre: C.I.: EXAMEN Libre Reglamentado El examen consta de dos partes. La primera parte debe ser realizada

Más detalles

Localización. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides

Localización. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides M.Sc. Kryscia Ramírez Benavides Problemas de Navegación de los Robots Dónde estoy?. Dónde he estado? Mapa de decisiones. A dónde voy? Planificación de misiones. Cuál es la mejor manera de llegar? Planificación

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

07 Estimación puntual e introducción a la estadística inferencial

07 Estimación puntual e introducción a la estadística inferencial 07 Estimación puntual e introducción a la estadística inferencial Diego Andrés Alvarez Marín Profesor Asistente Universidad Nacional de Colombia Sede Manizales 1 Contenido Qué es la estadística inferencial?

Más detalles

Técnicas de Minería de Datos

Técnicas de Minería de Datos Técnicas de Minería de Datos Act. Humberto Ramos S. 1 Qué es Minería de datos? El desarrollo de dispositivos tecnológicos para acumular datos a bajo costo. Acumulación o registro de gran cantidad de datos.

Más detalles

DESARROLLO DE MÉTODOS DE BÚSQUEDA EN BD DE IMÁGENES CON JAVAVIS

DESARROLLO DE MÉTODOS DE BÚSQUEDA EN BD DE IMÁGENES CON JAVAVIS DESARROLLO DE MÉTODOS DE BÚSQUEDA EN BD DE IMÁGENES CON JAVAVIS AUTORA MARTA FERNÁNDEZ DÍAZ TUTOR MIGUEL ANGEL CAZORLA QUEVEDO DEPARTAMENTO CIENCIA DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL CURSO 2004-2005

Más detalles

Tema 3: El Método Simplex. Algoritmo de las Dos Fases.

Tema 3: El Método Simplex. Algoritmo de las Dos Fases. Tema 3: El Método Simplex Algoritmo de las Dos Fases 31 Motivación Gráfica del método Simplex 32 El método Simplex 33 El método Simplex en Formato Tabla 34 Casos especiales en la aplicación del algoritmo

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p

Más detalles

1. DML. Las consultas de resumen

1. DML. Las consultas de resumen 1.1 Introducción 1. DML. Las consultas de resumen Una de las funcionalidades de la sentencia SELECT es el permitir obtener resúmenes de los datos contenidos en las columnas de las tablas. Para poder llevarlo

Más detalles

Capítulo 4 Exploración del ambiente.

Capítulo 4 Exploración del ambiente. Capítulo 4 Exploración del ambiente. Para explorar el ambiente se tomó como base el vehículo explorador de Braitenberg, la idea es tomar este comportamiento y adaptarlo al uso de una cámara de video, esto

Más detalles

Construcción de imágenes de súper-resulución usando un metodo probabilista

Construcción de imágenes de súper-resulución usando un metodo probabilista Construcción de imágenes de súper-resulución usando un metodo probabilista Pável Herrera Domínguez Instituto Nacional de Astronomia Optica y Electronica Abstract. La generación de imágenes de súper-resolución

Más detalles

INFORME TAREA N 4 CLUSTERING

INFORME TAREA N 4 CLUSTERING Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Eléctrica EL4106 Inteligencia Computacional INFORME TAREA N 4 CLUSTERING Nombre Alumno : Profesor : Profesor Auxiliar

Más detalles

Apéndice A: Funciones del programa LightPAP

Apéndice A: Funciones del programa LightPAP Apéndice A: Funciones del programa LightPAP A continuación se van a explicar las funciones principales que se han desarrollado para esta aplicación. 1 calcula_prop.m function [nc,cv,posicion,tinta,saturacion,luminancia]

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

Evaluando las Hipótesis Inductivas. Tomás Arredondo Vidal 8/9/2011

Evaluando las Hipótesis Inductivas. Tomás Arredondo Vidal 8/9/2011 Evaluando las Hipótesis Inductivas Tomás Arredondo Vidal 8/9/2011 Evaluando las Hipótesis Inductivas Contenidos Estimando la Precisión Comparando Hipótesis Comparando Algoritmos de Clasificación Evaluando

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Clasificación Semi-Supervisada de Documentos

Clasificación Semi-Supervisada de Documentos Clasificación Semi-Supervisada de Documentos Roxana K. Aparicio Carrasco Ciencias e Ingeniería de la Información y la Computación, Universidad de Puerto Rico Mayagüez, 00681-5000, Puerto Rico roxana.aparicio@ece.uprm.edu

Más detalles

Análisis Inteligente de Datos: Introducción

Análisis Inteligente de Datos: Introducción Análisis Inteligente de Datos: cvalle@inf.utfsm.cl Departamento de Informática - Universidad Técnica Federico Santa María Santiago, Marzo 2009 Temario 1 Temario 1 Preguntas Relevantes Por qué análisis

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles