Reconocimiento de Formas

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Reconocimiento de Formas"

Transcripción

1 Reconocimiento de Formas Técnicas no Supervisadas: clustering José Martínez Sotoca

2 Objetivo: Estudio de la estructura de un conjunto de datos, división en agrupaciones. Características: Homogeneidad o similitud entre los elementos de su grupo y que al mismo tiempo difieran lo máximo posible de otros grupos. Aprendizaje no supervisado, no se disponen de muestras preclasificadas. Resultados del aprendizaje: Emitir hipótesis sobre los datos. Clasificar nuevos patrones. Comprobar homogeneidad de los datos. Compresión de la información. Etc... 2

3 Aplicaciones en Reconocimiento de Formas: Reducir la dimensionalidad del problema en agrupamientos por características. Reducir el número de datos. Aprender la naturaleza de los datos o clases. Aplicaciones en Inteligencia Artificial: Segmentación de imágenes: agrupamiento en regiones con similitud en alguna característica relevante ( niveles de gris, color, textura, gradiente, etc...) Detección de formas en la imagen: líneas, curvas, etc... 3

4 Planteamiento del Problema Disponemos de un conjunto de muestras sin etiquetar y queremos agruparlas en clases. Hay dos posibilidades: Técnicas paramétricas. Técnicas de agrupamiento (clustering). 4

5 Técnicas Paramétricas Suponemos que se conoce la estructura de probabilidades del problema: Existen c clases. Las probabilidades a priori de cada clase son P(ω j ), j = 1,..., c. Las funciones densidad de probabilidad son p(x ω j, θ j ). 5

6 Técnicas de Agrupamiento Se aplican cuando no se conoce la forma de las densidades de probabilidad o cuando el aplicar un método paramétrico es muy complejo. Se define una función que nos indique, para cada posible partición, lo bien agrupados que están las muestras. Tenemos que definir una medida de similitud (o disimilitud) entre prototipos. El caso ideal (agrupaciones compactas, bien separadas, con tamaños y formas similares) no se da en conjuntos de datos reales. Situación habitual: agrupaciones no disjuntas, con formas y tamaños diferentes. 6

7 Técnicas de Agrupamiento θ 1 : (x 11,..., x 1r ) (x 1, x 2,..., x n ) Algoritmo θ c : (x c1,..., x cs ) de Agrupamiento... 7

8 Medidas de Similitud Existen muchas formas de caracterizar agrupaciones: distancia, ángulo, curvatura, conectividad, etc... No existe un criterio de agrupamiento universalmente aplicable y la elección es parcialmente subjetiva. Es importante le conocimiento empírico que el investigador tenga sobre el proceso que ha generado el conjunto de datos. El problema de la semejanza: Cómo medir la similitud entre muestras? Cómo evaluar el resultado del agrupamiento? Necesidad de establecer una medida de similitud. 8

9 La medida más obvia es la distancia euclídea: Diremos que dos muestras pertenecen a una misma clase si la distancia euclídea entre ellas es menor que una cierta distancia umbral. θ 1 = θ 2 d(x 1, x 2 ) d u Sin embargo, este procedimiento puede llevar a diversos problemas: Si la distancia umbral es demasiado grande, la mayor parte de las muestras quedarán en un mismo agrupamiento (clase). Si la distancia umbral es demasiado pequeña, podemos obtener demasiados agrupamientos: cada prototipo podría llegar a definir una clase distinta. 9

10 Partimos de que el espacio es isotrópico: la agrupaciones definidas son invariantes antes traslaciones y rotaciones. No son invariantes respecto a transformaciones que distorsionen las relaciones de distancia cambios de escala. Ej: un simple reescalado de los ejes de coordenadas puede dar lugar a distintos agrupamientos. Una forma de obtener invarianza es normalizar los datos antes de realizar el agrupamiento. Invarianza respecto a rotaciones: Se puede rotar los ejes de forma que que coincida con los vectores propios de la matriz de covarianza de los datos. Una solución es usar distancia de Mahalanobis: D M2 = (x-µ) T Σ -1 (x-µ) Invariante frente a cambios de escala. A cambio el espacio deja de ser isotrópico. 10

11 Se pueden emplear medidas de semejanza no métricas. Generalmente son funciones simétricas, cuyo valor crece cuando x e y son similares. Ejemplo: Si el ángulo entre dos vectores es una medida de similitud apropiada, entonces el siguiente producto interior normalizado puede ser una medida adecuada: T x y s( x, y) = = cos( ϑ) = cos( angulo( x, y)) x y Invariante respecto a rotaciones. No invariantes en traslaciones y transformaciones lineales. Existen técnicas que no implican medidas matemáticas de similitud (agrupamiento conceptual). Implica categorizar esta similitud y suele tener un coste computacional alto. 11

12 Función Criterio de Agrupamiento Supongamos que tenemos un conjunto X de n muestras x 1,..., x n que queremos repartir en c agrupamientos disjuntos X 1,..., X c. Definiremos una función criterio que mida la calidad del agrupamiento. Podemos clasificar los métodos de agrupamiento en función de la base axiomática empleada: deterministas, estocásticos, difusos. En cada uno de ellos podemos diferenciar los métodos en base al criterio de agrupamiento empleado: Métodos que proporcionan una jerarquía de agrupaciones. Métodos que proporcionan una partición de los datos (optimización de la función objetivo, teoría de grafos). 12

13 Suma de los Errores al Cuadrado Sea n i el número de muestras en X i y sea m i la media de este conjunto. Entonces, J e = c i= 1 x X i x m donde J e es el error cuadrático total en el que se incurre si representamos las muestras de cada conjunto por sus medias. i 2 13

14 Es una función criterio que da buenos resultados cuando los conjuntos forman nubes compactas y están alejados los unos de los otros. Sin embargo, falla cuando existe una gran diferencia de puntos entre los conjuntos. El criterio del error cuadrático puede escribirse como, J e = 1 2 c 2 ' 2 n s donde s = x x i i i n i= 1 x x i X ' i X j donde s es la distancia cuadrada media entre los prototipos de un conjunto. Así, se puede sustituir s por la media, la mediana o la distancia máxima entre los puntos de un conjunto. 1 14

15 Definición del Problema Una vez establecida la función criterio, el problema del agrupamiento queda bien definido: Encontrar la partición del conjunto de muestras que hace que la función criterio sea mínima Esto podría resolverse por enumeración, pero el número de posibles particiones crece de manera exponencial con el número de muestras en la práctica, se emplean métodos aproximados. 15

16 Algoritmo de las Distancias Encadenadas (Chain-Map) Seleccionar una muestra al azar: x i. Ordenar las muestras a partir de x i según la sucesión: x i (0), x i (1), x i (2),..., x i (k), x i (k + 1),..., x i (n 1) donde x i (j) es la muestra más próxima a x i (j 1). Calcular la sucesión de distancias d 1, d 2,..., d n 1 donde d j = x i (j) x i (j 1). Cuando encontremos un d j > d u, crear una clase con las x i (j 1) muestras. 16

17 Algoritmo Chain-Map 9.0 Clase 1 Clase 2 Clase 3 Clase 4 Distancias 4.5 d u 0.0 Muestras 17

18 Algoritmo Chain-Map La distancia umbral d u es el parámetro más problemático: Un umbral bajo dará lugar a clases ficticias. Un umbral alto tenderá a agrupar en una misma clase muestras de clases distintas. La elección de la primera muestra no resulta demasiado sensible, salvo para ciertas distribuciones de clases. θ θ 1 2 θ 3 θ 2 1 θ 2 18

19 Algoritmo Max-Min En cada paso, se calculan las distancias mínimas a las clases ya existentes, de manera que la máxima distancia de entre ellas (que corresponde a la muestra no agrupada que está más alejada de una clase concreta, la cual es a la vez la clase más próxima a ella) se compara con la distancia media entre las clases ya formadas para ver si es posible crear una nueva clase. 19

20 Algoritmo Max-Min Seleccionar una muestra al azar x i, y crear una primera clase θ 1 con dicha muestra. Seleccionar la máxima distancia de las n 1 muestras no agrupadas a x i, y crear una segunda clase θ 2 con la muestra implicada x j (d(x i, x j ) es máxima). Para cada una de las n 2 muestras no agrupadas, x: Calcular las distancias a los centroídes de θ 1 y θ 2 : d(x, z 1 ) y d(x, z 2 ). Tomar la mínima de las distancias entre d(x, z 1 ) y d(x, z 2 ), d min. 20

21 Algoritmo Max-Min De las n 2 distancias mínimas, seleccionar la distancia máxima, d max. Si d max es mayor que la distancia entre las dos clases formadas (es decir, d max > d(z 1, z 2 ) * f (0 < f < 1)), crear una nueva clase θ 3 con la muestra correspondiente a esa distancia máxima. Para cada una de las n 3 muestras no agrupadas, x: Calcular las distancias a los centroídes de θ 1, θ 2 y θ 3 : d(x, z 1 ), d(x, z 2 ) y d(x, z 3 ). Tomar la mínima de las distancias entre d(x, z 1 ), d(x, z 2 ) y d(x, z 3 ), d min. 21

22 Algoritmo Max-Min De las n 3 distancias mínimas, seleccionar la distancia máxima, d max. Si d max es mayor que una fracción de la distancia media entre los prototipos de las clases formadas (es decir, si d max > 1/3 * [d(z 1, z 2 ) + d(z 1, z 3 ) + d(z 2, z 3 )] * f), crear una nueva clase θ 4 con la muestra correspondiente a esa distancia máxima. 22

23 Algoritmo Max-Min Repetir este proceso hasta que no se encuentre ninguna muestra que cumpla la condición d max > distancia media entre clases * f. Asignar los elementos que queden por agrupar a la clase más cercana. 23

24 Algoritmo Max-Min Es muy sensible al parámetro f. Por tanto, en general, se prueba con diferentes valores de f. Combinación heurística de distancias mínimas y máximas. 24

25 Algoritmo Max-Min x 6 x 7 x 5 0 x 2 x 3 x 4 x x 1 Muestra seleccionada al azar: x 4. La muestra más alejada de x 4 es x 0. La máxima de entre las mínimas distancias corresponde a d(x 7, z 1 ). Tomando f = 0 5: d(x 7, z 1 ) > 0 5 * d(z 1, z 2 ) Creamos una tercera clase con x 7. Repetimos el proceso con las tres clases. Como ya no encontramos ninguna muestra que cumpla condición, finaliza el proceso de crear nuevas clases. Asignamos cada una de las muestras no agrupadas a la clase más próxima. 25

26 Algoritmo de las c-medias Debemos conocer a priori el número de clases del problema, c. Es simple, pero muy eficiente. Obviamente, es muy sensible al parámetro c: Un c superior al valor real dará lugar a clases ficticias. Un c inferior al valor real producirá menos clases de las reales. 26

27 Algoritmo de las c-medias Para comprobar que el valor c haya sido seleccionado correctamente, podemos analizar la dispersión estadística de las clases formadas: Cuando las dispersiones sean diferentes entre sí (que alguna de ellas sea muy elevada respecto a las demás), podemos pensar que hemos tomado un c bajo. Si algunas distancias entre clases son demasiado pequeñas respecto a las demás, podemos sospechar que se ha utilizado un c alto. 27

28 Algoritmo de las c-medias Seleccionar c muestras al azar, que constituirán los centroides de las c clases: z 1 (1), z 2 (1),..., z c (1). Distribuir las n muestras entre las c clases, según la mínima distancia euclídea a los c centroides actuales. Actualizar los centroides de las c clases. Comprobar si se ha alcanzado una situación estable, es decir, si se cumple: z i (p + 1) = z i (p) i = 1, 2,..., c 28

29 Algoritmo de las c-medias El objetivo en el cálculo de los nuevos centroides es minimizar la función criterio del error cuadrático para cada clase, es decir, J = x z ( p) i i = 1, K, c i x X ( p) i Esta función se minimiza con la media de X i (p): z 1 ( p + 1) = x i = 1, K c i n ( p), i x X ( p) i 2 29

30 Algoritmo de las c-medias X 1 X Seleccionamos al azar x 1 y x 2. El primer agrupamiento según la mínima distancia será: X 1 (1) = {x 1, x 3 } X 2 (1) = {x 2, x 4, x 5,..., x 19, x 20 } Al actualizar los centroides y redistribuir las muestras: X 1 (2) = {x 1, x 2,..., x 7, x 8 } X 2 (2) = {x 9, x 10,..., x 19, x 20 } Volvemos a actualizar los centroides. En este caso, al redistribuir las muestras, se producen los mismos agrupamientos. Por tanto, se detectaría una posición estable. 30

31 Agrupamiento Jerárquico Se comienza con una partición en la que cada muestra representa una clase distinta. Se van ajustando las clases en función de una cierta medida de similitud (en un orden creciente). De este modo, se obtiene un árbol de agrupamientos, llamado dendograma. 31

32 Agrupamiento Jerárquico Similitud creciente 32

33 Agrupamiento Jerárquico Sea c = n. Si c c, finalizar. Encontrar el par de clases que más se parezcan según la medida de similitud adoptada: X i, X j. Agrupar las clases X i y X j, y decrementar c. Volver al Paso 2. 33

34 34 Agrupamiento Jerárquico Algunas de las funciones de similitud más usadas: ' ), ( ', x x X X min X X d j i x x j i min = ' ), ( max ', max x x X X j i x x X i X j d = = X X x x i j x x j i j i prom n n X X d ' ' 1 ), ( m m X X d j i j i med = ), (

35 Principales métodos jerárquicos aglomerativos Estrategia de distancia mínima (Single-linkage o Nearest- Neighbor): Se busca la distancia mínima entre patrones o de patrones con un agrupamiento previo formándose el dendograma. Es sensible al ruido y a pequeños cambios en los valores de los patrones. Estrategia de distancia máxima (Complete-linkage o Furthest-Neighbor): Se busca las distancia entre patrones más dispares de ambas agrupaciones. La tendencia es a formar agrupaciones compactas e hiperesféricas, con tamaños similares. Distancia promedio (Average-linkage): La distancia entre agrupaciones es un promedio de las distancias de los patrones de una agrupación respecto de la otra. 35

36 Validación del agrupamiento El agrupamiento es real o sólo responde a la estructura impuesta por el algoritmo empleado? 1. Determinar si la distribución de los datos es aleatoria o existe una tendencia a formar agrupaciones. 2. Comprobar la validez de la partición de los datos. (medidas de separación entre las agrupaciones y medidas de cohesión dentro de cada agrupación) 3. Individualmente, qué agrupaciones son validas?. Dentro de una estructura jerárquica de los datos, se desea determinar que agrupaciones formadas son reales. 36

37 Comprobación de la tendencia de agrupamiento: Se define como hipótesis nula si los datos tienen una distribución uniforme y continua con algún conjunto convexo del espacio de características o ventana de muestreo. Técnica: Dividir la ventana de muestreo en celdas de igual tamaño. En un proceso sin agrupamiento y con distribución uniforme el número de puntos de cada celda no debe variar mucho de su valor promedio, mientras que si hay tendencia la agrupamiento existirán celdas muy pobladas y otras casi sin puntos. Validez de las particiones: Cuántas agrupaciones hay en los datos? Las agrupaciones obtenidas son reales? Algunas de estas técnicas: 1. El error cuadrático de un algoritmo de agrupamiento de este tipo siempre decrece a medida que aumenta el número de agrupaciones. Comprobar si el descenso del error resulta significativo. 37

38 2. Si se asume que los patrones han sido extraidos de una mezcla de distribuciones gaussianas, se puede realizar un test de relación de probabilidad para comprobar la hipótesis de C distribuciones mezcla frente a C-1 componentes. (Test chi-cuadrado). 3. Analizar la relación entre la suma de los cuadrados intra-agrupaciones y la suma de cuadrados inter-agrupaciones. El valor esperado de esta relación y su varianza son conocidos bajo la hipotesis nula de que los patrones pertenecen a una distribución gaussiana. La partición de los datos se considerará valida si el valor observado en la relación alcanza un máximo, es decir, los puntos de cada agrupación están poco dispersos y a su vez las diferentes las diferentes agrupaciones están dispersas. Validez individual de las agrupaciones: Una vez determinada la validez de la partición, puede resultar conveniente establecer la validez de cada una de las agrupaciones individualmente. Se puede considerar que una agrupación es buena si las distancias entre los patrones en el interior de la agrupación son pequeñas y las distancias entre estos patrones y los de otras agrupaciones son grandes. 38

39 Agrupamiento difuso Un conjunto convencional A del espacio de puntos X={x 1,...,x n } viene definido por una función característica u A : u A : X {0,1} u A (x) = 1 si x A u A (x) = 0 si x A Un conjunto difuso A es un espacio de puntos caracterizado por una función de pertenencia µ A (x) que asigna a cada punto de X un número real en el intervalo [0,1] que representa el grado de pertenencia del grupo al elemento A. µ A : X [0,1] La función µ A puede verse como un factor de peso que refleja la ambigüedad presente en un conjunto. 39

40 Algoritmo c-medias difuso Sea X={x 1,...,x n } un conjunto de puntos y c N, 2 c n se define las funcionales fuzzy c-means : J m ( U, V ) = n c k = 1 i= 1 donde: 1. U es una c-partición difusa de X. 2. V = {v 1,...,v c } siendo v i el centro o prototipo del subconjunto u i, 1 i c. 3. (d ik ) 2 = x k v i 2 es una norma inducida que marca la distancia entre ambos. 4. m es un exponente de peso. ( u ik ) m ( d ik 2 ) 40

41 Teorema [Bezdek 81]: Supongamos que. es un producto interior fijado m, teniendo X al menos c < n puntos diferentes, y definiendo para todo k los conjuntos I k ={i / 1 i c; d ik =0} Entonces, puede haber un mínimo de J m si 1 u ik = y uik = 1 2 c i I ( m 1) k dik j= 1 d jk Además: v i n u k = 1 = n k = 1 m ik u m ik x k 41

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada Clustering Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Clustering jerárquico 3 Clustering particional 4 Clustering probabilista 5 Conclusiones Introducción Objetivos

Más detalles

Minería de Datos Web. Cursada 2018

Minería de Datos Web. Cursada 2018 Minería de Datos Web Cursada 2018 Proceso de Minería de Texto Clustering de Documentos Clasificación de Documentos Es un método supervisado para dividir documentos en base a categorías predefinidas Los

Más detalles

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA CLUSTERING Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Sistemas de Percepción Visión por Computador

Sistemas de Percepción Visión por Computador Nota: Algunas de las imágenes que aparecen en esta presentación provienen del libro: Visión por Computador: fundamentos y métodos. Arturo de la Escalera Hueso. Prentice Hall. Sistemas de Percepción Visión

Más detalles

Clasificación estadística de patrones

Clasificación estadística de patrones Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de

Más detalles

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias.

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Índice 1 Introducción 1 2 Agrupamientos particionales

Más detalles

Clustering: Algoritmos

Clustering: Algoritmos Clustering: Algoritmos Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Algoritmo: K-medias 3 Algoritmo: BFR 4 Algoritmo: CURE Introducción Acotar el problema Complejidad

Más detalles

RECONOCIMIENTO DE PAUTAS. ANÁLISIS DE CONGLOMERADOS (Cluster Analysis)

RECONOCIMIENTO DE PAUTAS. ANÁLISIS DE CONGLOMERADOS (Cluster Analysis) RECONOCIMIENTO DE PAUTAS ANÁLISIS DE CONGLOMERADOS (Cluster Analysis) Análisis de conglomerados los análisis exploratorios de datos (como PCA) determinan relaciones generales entre datos en ocasiones no

Más detalles

TÉCNICAS DE AGRUPAMIENTO

TÉCNICAS DE AGRUPAMIENTO TÉCNICAS DE AGRUPAMIENTO José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Algoritmo de las C-Medias. Algoritmos de agrupamiento

Más detalles

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir

Más detalles

Introducción Ordenación Clasificación Ord. + Clas. Geobotánica. Tema 12 Ordenación y clasificación

Introducción Ordenación Clasificación Ord. + Clas. Geobotánica. Tema 12 Ordenación y clasificación Introducción Clasificación Ord. + Clas. Geobotánica Tema 12 y clasificación Copyright: 2011 Francisco Alcaraz Ariza. Esta obra está bajo una licencia de Reconocimiento-No Comercial de Creative Commons

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

CLASIFICACIÓN PROBLEMA SOLUCIÓN

CLASIFICACIÓN PROBLEMA SOLUCIÓN Capítulo 7 Análisis Cluster CLASIFICACIÓN Asignar objetos en su lugar correspondiente dentro de un conjunto de categorías establecidas o no. PROBLEMA Dado un conjunto de m objetos (animales, plantas, minerales...),

Más detalles

Repaso de conceptos de álgebra lineal

Repaso de conceptos de álgebra lineal MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso

Más detalles

1. Análisis de Conglomerados

1. Análisis de Conglomerados 1. Análisis de Conglomerados El objetivo de este análisis es formar grupos de observaciones, de manera que todas las unidades en un grupo sean similares entre ellas pero que sean diferentes a aquellas

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Introducción a Aprendizaje no Supervisado

Introducción a Aprendizaje no Supervisado Introducción a Aprendizaje no Supervisado Felipe Suárez, Álvaro Riascos 25 de abril de 2017 2 / 33 Contenido 1. Motivación 2. k-medias Algoritmos Implementación 3. Definición 4. Motivación 5. Aproximación

Más detalles

Aprendizaje No Supervisado

Aprendizaje No Supervisado Aprendizaje Automático Segundo Cuatrimestre de 2015 Aprendizaje No Supervisado Supervisado vs. No Supervisado Aprendizaje Supervisado Clasificación y regresión. Requiere instancias etiquetadas para entrenamiento.

Más detalles

Tema 5: SEGMENTACIÓN (II) I N G E N I E R Í A I N F O R M Á T I C A

Tema 5: SEGMENTACIÓN (II) I N G E N I E R Í A I N F O R M Á T I C A Tema 5: SEGMENTACIÓN (II) 1 I N G E N I E R Í A I N F O R M Á T I C A Tema 5: Segmentación Los algoritmos de segmentación se basan en propiedades básicas de los valores del nivel de gris: 2 - Discontinuidad:

Más detalles

Aprendizaje no supervisado

Aprendizaje no supervisado Aprendizaje no supervisado Algoritmo de K medias Julio Waissman Vilanova Licenciatura en Ciencias de la Computación Universidad de Sonora Curso Inteligencia Artificial Plan del curso Aprendizaje no supervisado

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades

Más detalles

CLUSTERING. Bases de Datos Masivas

CLUSTERING. Bases de Datos Masivas 1 CLUSTERING Bases de Datos Masivas 2 Temas Qué es clustering? K-Means Clustering Hierarchical Clustering QUÉ ES CLUSTERING? 3 Aprendizaje Supervisado vs. No Supervisado 4 Aprendizaje Supervisado: tanto

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Tema 5: SEGMENTACIÓN (II) I N G E N I E R Í A I N F O R M Á T I C A

Tema 5: SEGMENTACIÓN (II) I N G E N I E R Í A I N F O R M Á T I C A Tema 5: SEGMENTACIÓN (II) 1 I N G E N I E R Í A I N F O R M Á T I C A Tema 5: Segmentación Los algoritmos de segmentación se basan en propiedades básicas de los valores del nivel de gris: 2 - Discontinuidad:

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur Aprendizaje de distancias Kilian Q. Weinberger, Lawrence K. Saul: Distance Metric Learning for Large Margin

Más detalles

Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN

Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN 165 ENCUESTA DE COMPORTAMIENTOS Y TIPOLOGÍAS DE VISITANTES EN EUSKADI 166 ANEXO I. CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN

Más detalles

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes ANOVA Análisis de la Varianza Univariante Efectos fijos Muestras independientes De la t a la F En el test de la t de Student para muestras independientes, aprendimos como usar la distribución t para contrastar

Más detalles

Visión artificial y Robótica. Depto. de Ciencia de la Computación e Inteligencia Artificial

Visión artificial y Robótica. Depto. de Ciencia de la Computación e Inteligencia Artificial Visión artificial y Robótica Depto. de Ciencia de la Computación e Inteligencia Artificial Contenidos Sensores 3D Métodos de registro 3D Iterative Closest Points Sensores 3D Permiten obtener la información

Más detalles

Clasificación. Agrupación de las partes de una imagen de forma homogénea

Clasificación. Agrupación de las partes de una imagen de forma homogénea Clasificación Agrupación de las partes de una imagen de forma homogénea Clasificación o clustering Intenta clasificar los píxeles directamente en clases, en función de ciertas características de cada píxel.

Más detalles

Segmentación de imágenes biomédicas

Segmentación de imágenes biomédicas Segmentación de imágenes biomédicas Definición de segmentación La segmentación es la partición de una imagen, en un subconjunto regiones homogéneas en base a una característica (intensidad, textura,...).

Más detalles

Tema 9. Análisis factorial discriminante

Tema 9. Análisis factorial discriminante Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

Universidad Nacional de La Plata

Universidad Nacional de La Plata Universidad Nacional de La Plata Facultad de Ciencias Agrarias y Forestales CÁLCULO ESTADÍSTICO STICO Y BIOMETRÍA CONTENIDOS UNIDAD 3: Introducción al Cálculo de Probabilidades. Experimento aleatorio.

Más detalles

Introducción al Análisis Multivariante

Introducción al Análisis Multivariante al Análisis Multivariante Vectores aleatorios, técnicas de análisis multivariante, distancias estadísticas Curso 2011-2012 Considero que el cerebro de cada cual es como una pequeña pieza vacía que vamos

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO TEMA II ESQUEMA GENERAL Diseño experimental de dos grupos: definición y clasificación Formatos del diseño y prueba de hipótesis Diseño experimental multigrupo: definición Formato del diseño multigrupo

Más detalles

Extracción de Regiones

Extracción de Regiones Visión por Computadora Unidad V Extracción de Regiones Rogelio Ferreira Escutia Contenido ) Conceptos sobre Regiones 2) Binarización mediante detección de umbral 3) Etiquetado de componentes conexas 4)

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Aplicación de la distribución empírica: Tests de bondad de ajuste

Aplicación de la distribución empírica: Tests de bondad de ajuste Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida

Más detalles

INTRODUCCION AL ANALISIS DE CLUSTER

INTRODUCCION AL ANALISIS DE CLUSTER -1- INTRODUCCION AL ANALISIS DE CLUSTER José Luis Vicente Villardón Departamento de Estadística Universidad de Salamanca -- DEFINICION E INTRODUCCION El Análisis de Clusters (o Análisis de conglomerados)

Más detalles

Distribución de probabilidad

Distribución de probabilidad Los experimentos aleatorios originan resultados y los resultados nos permiten tomar decisiones Por ejemplo, en un partido de fútbol si se lanza una moneda y sale cara parte la visita, de lo contrario parte

Más detalles

Índice 1. Introducción Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales. Introducción.

Índice 1. Introducción Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales. Introducción. Índice 1. Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales Procesamiento de imágenes digitales Transformaciones basadas en el histograma Ecualización del

Más detalles

CENTRO UNIVERSITARIO UAEM ZUMPANGO INGENIERO EN COMPUTACIÓN MUESTRAS ALEATORIAS Y DISTRIBUCIONES DE MUESTREO

CENTRO UNIVERSITARIO UAEM ZUMPANGO INGENIERO EN COMPUTACIÓN MUESTRAS ALEATORIAS Y DISTRIBUCIONES DE MUESTREO CENTRO UNIVERSITARIO UAEM ZUMPANGO INGENIERO EN COMPUTACIÓN MUESTRAS ALEATORIAS Y DISTRIBUCIONES DE MUESTREO ELABORÓ: M. EN C. LUIS ENRIQUE KU MOO FECHA: AGOSTO DE 2017 UNIDAD DE APRENDIZAJE PROBABILIDAD

Más detalles

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Introducción Tipos Validación AAMRT Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Miguel Bernal C Quantil 12 de diciembre de 2013 Miguel Bernal C Quantil Matemáticas Aplicadas Contenido

Más detalles

Diplomado BIG DATA ANALITYCS K-Means. Por Ing. Jorge E. Camargo, Ph.D.

Diplomado BIG DATA ANALITYCS K-Means. Por Ing. Jorge E. Camargo, Ph.D. Diplomado BIG DATA ANALITYCS Por Ing. Jorge E. Camargo, Ph.D. Agenda 1. Agrupamiento 2. 3. Medidas de Validación Agrupamiento (Clustering) Dado un conjunto de puntos/datos, cada uno con un conjunto de

Más detalles

Técnicas de agrupamiento (clustering)

Técnicas de agrupamiento (clustering) Técnicas de agrupamiento (clustering) Introducción al Reconocimiento de Patrones IIE - FING - UdelaR 2015 Duda, Hart, Stork. Pattern Classification, capítulo 10. Jain, Duin, Mao. Statistical Pattern Recognition:

Más detalles

Preparación de los datos de entrada

Preparación de los datos de entrada Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:

Más detalles

Qué es? Primer paso Representación en un sistema de coordenadas. numéricos Cada punto muestra el valor de cada pareja de datos (X e Y)

Qué es? Primer paso Representación en un sistema de coordenadas. numéricos Cada punto muestra el valor de cada pareja de datos (X e Y) Gráfico de dispersión Qué es? Primer paso Representación en un sistema de coordenadas cartesianas de los datos numéricos Cada punto muestra el valor de cada pareja de datos (X e Y) Gráfico de dispersión

Más detalles

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:

Más detalles

Comparación de métodos de aprendizaje sobre el mismo problema

Comparación de métodos de aprendizaje sobre el mismo problema Comparación de métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación. Test de

Más detalles

Módulo Minería de Datos Diplomado Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Módulo Minería de Datos Diplomado Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Módulo Minería de Datos Diplomado Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Agrupamiento Dividir los datos en grupos (clusters), de tal forma que los

Más detalles

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema: Tema 4: Variables aleatorias Tema 4: Variables Aleatorias Distribución de Bernouilli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno

Más detalles

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74 Índice 1. Introducción al R 15 1.1. Introducción............................. 15 1.2. El editor de objetos R....................... 18 1.3. Datos en R............................. 19 1.3.1. Vectores...........................

Más detalles

Geometría de Señales Espacios de Hilbert y aproximaciones

Geometría de Señales Espacios de Hilbert y aproximaciones Geometría de Señales Espacios de Hilbert y aproximaciones Temario Teorema de Parseval y Conservación de la Norma. Aproximaciones por proyección Ejemplos Teorema de Parseval Sea x la representación de un

Más detalles

3. Variables aleatorias

3. Variables aleatorias 3. Variables aleatorias Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 3. Variables aleatorias Curso 2009-2010 1 / 33 Contenidos 1 Variables aleatorias y su distribución

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

DISTRIBUCIONES DE PROBABILIDAD

DISTRIBUCIONES DE PROBABILIDAD DISTRIBUCIONES DE PROBABILIDAD VARIABLE ALEATORIA Una variable x valuada numéricamente varía o cambia, dependiendo del resultado particular del experimento que se mida. Por ejemplo, suponga que se tira

Más detalles

Tema 13: Contrastes No Paramétricos

Tema 13: Contrastes No Paramétricos Tema 13: Contrastes No Paramétricos Presentación y Objetivos. La validez de los métodos paramétricos depende de la validez de las suposiciones que se hacen sobre la naturaleza de los datos recogidos. La

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p

Más detalles

Tema 4: Variables Aleatorias

Tema 4: Variables Aleatorias Tema 4: Variables Aleatorias Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Variables Aleatorias Curso 2009-2010 1 / 10 Índice 1 Concepto

Más detalles

18 Experimentos aleatorios. Sucesos y espacio muestral. Frecuencia y probabilidad de un suceso.

18 Experimentos aleatorios. Sucesos y espacio muestral. Frecuencia y probabilidad de un suceso. PRIMER CURSO DE E.S.O Criterios de calificación: 80% exámenes, 10% actividades, 10% actitud y trabajo 1 Números naturales. 2 Potencias de exponente natural. Raíces cuadradas exactas. 3 Divisibilidad. Concepto

Más detalles

MODULARIDAD Y ESTRUCTURA DE COMUNIDADES EN REDES MATI

MODULARIDAD Y ESTRUCTURA DE COMUNIDADES EN REDES MATI MODULARIDAD Y ESTRUCTURA DE COMUNIDADES EN REDES MATI María Isabel Cardeñosa Sánchez Abraham Peña Hoyos 1 Modularidad y estructura de comunidades en redes Introducción Muchos sistemas de interés científico

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN Antonio Morillas A. Morillas: C. no paramétricos (II) 1 1. Contrastes de aleatoriedad. Contraste de rachas. 2. Contrastes de localización 2.1 Contraste

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES. Jesús López de la Cruz Grupo 10

FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES. Jesús López de la Cruz Grupo 10 FILTRO DE COLOR FUZZY BASADO EN EL HISTOGRAMA PARA LA RESTAURACIÓN DE IMÁGENES Jesús López de la Cruz Grupo 10 Problema Soluciones anteriores Algoritmo HFC Explicación visual Problema Tenemos una imagen

Más detalles

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Estadística Grupo V. Tema 10: Modelos de Probabilidad Estadística Grupo V Tema 10: Modelos de Probabilidad Algunos modelos de distribuciones de v.a. Hay variables aleatorias que aparecen con frecuencia en las Ciencias Sociales y Económicas. Experimentos dicotómicos

Más detalles

Máster en Ordenación y Gestión del Desarrollo Territorial y Local. Módulo I MÉTODO Y TÉCNICAS ESTADÍSTICAS PARA EL DESARROLLO TERRITORIAL Y LOCAL

Máster en Ordenación y Gestión del Desarrollo Territorial y Local. Módulo I MÉTODO Y TÉCNICAS ESTADÍSTICAS PARA EL DESARROLLO TERRITORIAL Y LOCAL ANÁLISIS CLUSTERS C U R S O TÉCNICAS MULTIVARIANTES Prof. Dr. Ángel Luís LUCENDO MONEDERO 1 http://www.geografia.us.es/ Tema 2. INTRODUCCIÓN N AL ANÁLISIS CLUSTER 2.1 Consideraciones generales. Clasificación

Más detalles

TEMA 5 Estadística descriptiva. Análisis de datos

TEMA 5 Estadística descriptiva. Análisis de datos TEMA 5 Estadística descriptiva. Análisis de datos Florence Nightingale (1820-1910) 1. Introducción. Modelos matemáticos 2. Métodos numéricos. Resolución de sistemas lineales y ecuaciones no lineales 3.

Más detalles

Tratamiento de imágenes

Tratamiento de imágenes Tratamiento de imágenes Clasificación y Descripción Héctor Alejandro Montes h.a.montes@fi.uaemex.mx http://fi.uaemex.mx/h.a.montes 03/10/15 Héctor Alejandro Montes 1 Advertencia No use estas diapositivas

Más detalles

Simulación a Eventos Discretos. Clase 8: Análisis de resultados

Simulación a Eventos Discretos. Clase 8: Análisis de resultados Simulación a Eventos Discretos Clase 8: Análisis de resultados Muestras independientes Los resultados de una corrida de una simulación estocástica (denominados respuestas), son muestras de alguna distribución.

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales REPRESENTACIÓN Y DESCRIPCIÓN Momentos INTRODUCCIÓN En general, la relación entre una imagen ideal f(x,y) y una imagen observada g(x,y) se describe como g =D( f ) donde D

Más detalles

ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS)

ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS) ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS) AGRUPAMIENTOS Cuál agrupamiento es mejor? MÉTODOS DE AGRUPACIÓN Métodos jerárquicos: Los objetos se agrupan (dividen) i por partes hasta clasificar todos los

Más detalles

INTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas.

INTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas. Tema N 1 Definiciones INTRODUCCION A LA SIMULACION DE MODELOS Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas. La simulación esencialmente es una

Más detalles

Distribuciones multivariadas

Distribuciones multivariadas Distribuciones multivariadas Si X 1,X 2,...,X p son variables aleatorias discretas, definiremos la función de probabilidad conjunta de X como p(x) =p(x 1,x 2,...,x k )=P (X 1 = x 1,X 2 = x 2,...,X p =

Más detalles

Estadística II Tema 1: Distribución normal multivariante

Estadística II Tema 1: Distribución normal multivariante Estadística II Tema 1: Distribución normal multivariante José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Algunas propiedades de los vectores aleatorios Sea X = (X 1,..., X

Más detalles

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema: Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur KNN: VECINO(S) MAS CERCANO(S) K NEAREST NEIGHBORS (KNN) Altura Niño Adulto Mayor Se guardan todos los ejemplos

Más detalles

Estadística Inferencial. Estadística Descriptiva

Estadística Inferencial. Estadística Descriptiva INTRODUCCIÓN Estadística: Ciencia que trata sobre la teoría y aplicación de métodos para coleccionar, representar, resumir y analizar datos, así como realizar inferencias a partir de ellos. Recogida y

Más detalles

Fundamentos de Visión por Computador

Fundamentos de Visión por Computador Fundamentos de Visión por Computador Sistemas Informáticos Avanzados Índice Filtrado en el espacio Filtros lineales Tipos de ruido Filtro media Filtro mediana Filtros gausianos Filtrado en la frecuencia

Más detalles

Métodos de modelado y clasificación de patrones. clasificación de patrones

Métodos de modelado y clasificación de patrones. clasificación de patrones FUNDAMENTOS DEL RECONOCIMIENTO AUTOMÁTICO DE LA VOZ Métodos de modelado y clasificación de patrones Agustín Álvarez Marquina Introducción. Modelado y clasificación de patrones Objetivos: Agrupar el conjunto

Más detalles

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar

Más detalles

Prefacio... xvii. 1 La imaginación estadística... 1

Prefacio... xvii. 1 La imaginación estadística... 1 ÍNDICE Prefacio... xvii 1 La imaginación estadística... 1 Introducción... 1 Pensamiento proporcional... 3 La imaginación estadística... 8 Enlace de la imaginación estadística con la imaginación sociológica...

Más detalles

Técnicas de Inferencia Estadística II. Tema 5. Estadísticos de orden

Técnicas de Inferencia Estadística II. Tema 5. Estadísticos de orden Técnicas de Inferencia Estadística II Tema 5. Estadísticos de orden M. Concepción Ausín Universidad Carlos III de Madrid Grado en Estadística y Empresa Curso 2010/11 Tema 5. Estadísticos de orden Contenidos

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Estimación de Parámetros. Un problema inherente al uso de modelos es el de la selección del modelo.

Estimación de Parámetros. Un problema inherente al uso de modelos es el de la selección del modelo. Estimación de Parámetros Un problema inherente al uso de modelos es el de la selección del modelo. Este problema, cuando se recurre al empleo de familias paramétricas de modelos, se puede plantear en dos

Más detalles

Prof. Dra. Silvia Schiaffino ISISTAN

Prof. Dra. Silvia Schiaffino ISISTAN Clustering ISISTAN sschia@ea.unicen.edu.ar Clustering: Concepto Cluster: un número de cosas o personas similares o cercanas, agrupadas Clustering: es el proceso de particionar un conjunto de objetos (datos)

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

ANALISIS DE CLUSTER CON SPSS: INMACULADA BARRERA

ANALISIS DE CLUSTER CON SPSS: INMACULADA BARRERA ANALISIS DE CLUSTER CON SPSS: INMACULADA BARRERA ANALISIS DE CLUSTER EN SPSS Opción: Analizar Clasificar ANALISIS DE CLUSTER EN SPSS Tres posibles OPCIONES 1.- Cluster en dos etapas 2.- K-means 3.- Jerárquicos

Más detalles