Análisis de Datos. Estimación de distribuciones desconocidas: métodos no paramétricos. Profesor: Dr. Wilfrido Gómez Flores

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Análisis de Datos. Estimación de distribuciones desconocidas: métodos no paramétricos. Profesor: Dr. Wilfrido Gómez Flores"

Transcripción

1 Análisis de Datos Estimación de distribuciones desconocidas: métodos no paramétricos Profesor: Dr. Wilfrido Gómez Flores 1

2 Introducción La estimación de densidad con modelos paramétricos asumen que las formas de las distribuciones son conocidas. Sin embargo, las formas paramétricas más comunes no siempre describen las densidades reales encontradas en la práctica. Adicionalmente, muchas de las distribuciones paramétricas clásicas son unimodales, mientras que en muchos problemas prácticos se tienen distribuciones multimodales. Los métodos no paramétricos pueden ser usados para describir distribuciones arbitrarias, sin asumir que las formas de las densidades son conocidas. Estas técnicas son variaciones de las aproximaciones por histograma de funciones de densidad desconocidas. 2

3 Estimación de densidad no paramétrica Supóngase que N muestras,,x N son tomadas i.i.d. de acuerdo a una distribución p(x). La probabilidad de que K de estas N muestras caigan en una región R está definida por la distribución binomial N p = p K (1 p) N K (1) K donde el MLE para p es ˆp xxxxxxx, = K/N denominado proporción de frecuencia. El valor de probabilidad se asume constante para todo R y es aproximado por: p(x) ˆp(ˆx) 1 K (2) V N donde x ˆx es el punto medio de R y V es el volumen de R. 3

4 Estimación de densidad no paramétrica Si ˆp(x) converge al valor real de p(x), tres condiciones surgen: limv = 0 para que p(x) no varíe significativamente. N lim K = para asegurar que la proporción de frecuencia convergerá a p. N lim K N = 0 indica que aunque un gran número de muestras cae en una N región muy pequeña R, es una fracción insignificante del total de muestras. En la práctica el número de muestras N es finito; por tanto, N y K deben ser suficientemente grandes y V suficientemente pequeño. Esto dependerá de el tipo de función de densidad y el grado de aproximación que se quiera lograr. 4

5 Estimación de densidad no paramétrica Existen dos formas comunes de estimación de densidad no paramétrica que satisfacen las tres condiciones anteriores: Estimación por ventanas de Parzen: especificar V en función de N, tal como V = 1 N. Estimación por K-vecinos más cercanos: especificar K en función de N, tal como K = N. N = 1 N = 4 N = 9 N = 16 N = 100 V = 1 N K = N Métodos de estimación de densidad alrededor de un punto, aquí representado por el centro de cada círculo. 5

6 Ventanas de Parzen: densidad En el caso de D-dimensiones, la región R es un hipercubo, donde h es la longitud de uno de sus bordes, entonces el volumen está dado por: V = h D (3) Sea x i, i=1,,n, los patrones disponibles, entonces el número de muestras K que caen en el hipercubo centrado en x ˆx es: N K = φ D(ˆx, x ) i h i=1 (4) donde D(, ) es una función de distancia (o métrica) y ϕ( ) es una función de ventana definida como: 1 u 1 2 φ(u) = 0 otro caso la cual define un hipercubo unitario centrado en el origen. (5) 6

7 Ventanas de Parzen: densidad + h 2 ˆx 0.5 h (a) h 2 (b) + h 2 En un espacio bidimensional (a) la función ϕ(x i ) es 1 para cada punto x i que cae dentro del cuadro de área unitaria centrado en el origen y será 0 para todo punto fuera de él. (b) La función ϕ(d(x,x ˆx i )/h) es 1 si x i cae dentro del cuadro de área unitaria centrado en x ˆx y 0 en caso contrario. 7

8 Ventanas de Parzen: densidad Entonces, sustituyendo (4) en (2) se obtiene el estimado: ˆp(ˆx) = 1 N N i=1 1 V φ D(ˆx, x ) i h = 1 N N δ(ˆx, x i ) (6) i=1 Efecto del valor de h en p(x): ˆp(ˆx) Si h es muy grande, la amplitud de δ es pequeña y el estimado p(x) ˆp(ˆx) está muy suavizado resultado de la superposición de N funciones muy anchas. Si h es muy pequeña, la amplitud de δ aumenta y el estimado p(x) ˆp(ˆx) es ruidoso resultado de la superposición de N funciones muy agostas. Por tanto, si h 0 entonces δ se aproxima a una delta de Dirac centrada en x ˆx y p(x) ˆp(ˆx) es la superposición de N funciones impulso. 8

9 Ventanas de Parzen: densidad h = 1 h = 0.5 h = 0.2 ˆp(ˆx) ˆp(ˆx) ˆp(ˆx) El valor de h afecta tanto la amplitud como la anchura de p(x). ˆp(ˆx) 9

10 Ventanas de Parzen: densidad La función ventana en (5) trata de aproximar funciones continuas p(x) mediante funciones escalón discontinuas ϕ( ). Se puede generalizar el estimador en (6) mediante funciones suavizantes llamadas kernels, donde un ejemplo típico es el kernel Gaussiano xxxxxx: N (0, I) φ(u) = 1 u2 exp D 2 (2π) 2 (7) Entonces, la función de densidad desconocida se aproxima como el promedio de N Gaussianas, cada una centrada en un punto x: ˆx ˆp(ˆx) = 1 N N i=1 1 V φ D(ˆx, x ) i h (8) 10

11 Ventanas de Parzen: densidad 1000 muestras de entrenamiento muestras de entrenamiento x x Función Gaussiana Función escalón x Nótese que si h 0 y N, entonces el resultado de la estimación no sufre desvío y es consistente en relación a la densidad verdadera. x 11

12 Ventanas de Parzen: densidad h = 0.05 h = 1 ˆp(ˆx) ˆp(ˆx) Estimación Parzen de funciones de densidad utilizando kernel Gaussiano a partir de datos con distribución arbitraria. 12

13 Ventanas de Parzen: clasificación En los clasificadores basados en ventanas de Parzen no se requiere una fase explícita de entrenamiento. Dado un patrón de prueba x, se estima la probabilidad de pertenecer a la clase ω i, i=1,,c, como: p(ω i x) = p(ω ) N i i 1 N i h φ D(x, x ) k D h k=1 (9) donde Ni es el número de patrones de entrenamiento en la clase ω i, p(ω i ) es la probabilidad a priori de la clase ω i, y ϕ( ) es una función de ventana. Entonces, la regla de decisión es: Decidir ω i si p(ω i x) > p(ω j x) para todo i j (10) 13

14 Ventanas de Parzen: clasificación Buena generalización Pobre generalización h = h = 0.05 Valores pequeños de h generarán fronteras de decisión sobreajustadas con pobre generalización. Contrariamente, valores grandes producirán clasificadores con mejor generalización. 14

15 K-vecinos más cercanos: densidad En la estimación Parzen en (6), el volumen alrededor de los puntos x ˆx se considera fijo, h D, y el número de muestras K que caen dentro del volumen varía aleatoriamente de un punto x ˆx a otro. En la estimación por K-vecinos más cercanos se invierten los roles, el número de puntos K es fijo y el tamaño del volumen alrededor de x ˆx se ajusta para incluir K puntos. Entonces, en áreas de densidad baja el volumen será grande, contrariamente en áreas de densidad alta el volumen será pequeño. Además del hipercubo, se pueden considerar otros tipos de regiones más generales como hiperesferas. K = 7 ˆx 15

16 K-vecinos más cercanos: densidad Si K es el número de patrones que se encuentran en la vecindad de x, ˆx entonces el estimador de densidad se escribe como: ˆp(ˆx) = K NV (11) donde N es el número total de patrones en el conjunto de datos y V es el volumen alrededor de x. ˆx Considerando una hiperesfera centrada en x, ˆx su volumen es: V =V 0 D(ˆx, x) D (12) donde D(x,x) ˆx es la distancia entre x ˆx y la muestra x más alejada de la vecindad, y V 0 es el volumen de la esfera unitaria D-dimensional definida como: V 0 = π D 2 (D / 2)! si D par 2 D π D 1 2 (D 1 2 )! D! si D impar (13) 16

17 K-vecinos más cercanos: densidad K = 5 K = 25 K = 50 ˆp(ˆx) ˆp(ˆx) ˆp(ˆx) A mayor valor de K el estimado p(x) ˆp(ˆx) es más suavizado. 17

18 K-vecinos más cercanos: densidad V K = 1 K = 5 V V K = 10 K = 20 V A mayor valor de K se requerirá mayor volumen V para cubrir áreas con menor densidad. 18

19 K-vecinos más cercanos: clasificación En los clasificadores basados en los K-vecinos más cercanos no se requiere una fase explícita de entrenamiento. La regla de los K-vecinos más cercanos (knn) clasifica un patrón de prueba x asignándole la etiqueta más frecuente entre sus K muestras de entrenamiento más cercanas (i.e., por voto mayoritario). Si camina como pato, hace como pato y parece un pato, entonces es probable que sea un pato. Por tanto, la regla knn puede verse como una manera de estimar la probabilidades a posteriori p(ω i x). El valor de K debe ser impar para el problema de dos clases y en general no debe ser múltiplo del número de clases C para evitar empates. 19

20 K-vecinos más cercanos: clasificación Algoritmo de clasificación knn I( ) es una función que regresa 1 si su argumento es verdadero y 0 en otro caso. Input: Z datos entrenamiento, K # vecinos, x' patrón de prueba Process: Computar D(x',x), la distancia entre x' y cada patrón (x,y) Z Seleccionar Z K Z, el conjunto de los K patrones más cercanos a x' Output: y ' = arg max v (xi,y i ) Z K I(v = y i ) En este ejemplo hay tres clases y se debe asignar una clase al patrón desconocido x utilizando la regla knn. ω 1 ω 2 Se calcula la distancia a sus K =5 vecinos más cercanos. Cuatro vecinos pertenecen a ω1, ninguno a ω2 y uno a ω3; por tanto, x se asigna a la clase predominante, esto es, ω1. x ω 3 20

21 K-vecinos más cercanos: clasificación Dos clases Tres clases Clasificación de conjuntos de datos no linealmente separables utilizando la regla knn con K=5 vecinos más cercanos. 21

22 K-vecinos más cercanos: clasificación Características del clasificador knn: Para un tamaño N muy grande (N ) y para un número K grande, el desempeño del clasificador knn se aproxima al de un clasificador Bayesiano óptimo. Uno de los mayores problemas del clasificador knn es el gran espacio requerido para las muestras de entrenamiento y la complejidad computacional asociada a la búsqueda de los K vecinos más cercanos. Cambios de escala en las coordenadas del espacio de características modifican el comportamiento del clasificador knn cuando se utiliza la distancia Euclidiana. En el espacio original (izquierda) el punto x está más cerca del punto negro. En el espacio escalado por un factor α=1/3 en el eje (derecha), x está más cerca del punto rojo. x x α 22

23 Clasificación 1NN Un caso particular de la regla knn es la regla del vecino más cercano (K=1), esto es, 1NN. Esta regla divide el espacio de características en celdas que consisten de todos los puntos más cercanos a un patrón de entrenamiento x. Todos los puntos de la celda se etiquetan con la clase de x, a esto se le denomina teselación de Voronoi. x 3 En 2D, la regla 1NN divide el espacio en celdas de Voronoi. En 3D, las celdas son 3D formando la superficie de un cristal. 23

24 Clasificación 1NN: complejidad computacional Teniendo N patrones de entrenamiento y D dimensiones, la búsqueda del vecino más cercano (K=1) es O(ND) xxxxxxx. Existen tres técnicas algorítmicas generales para reducir la complejidad computacional en la búsqueda del vecino más cercano: Computar distancias parciales: calcular la distancia de un subconjunto r de todas las D dimensiones; si la distancia es buena no se requiere más cómputo. Preestructuras: se crea alguna forma de árbol de búsqueda en el cual algunos prototipos son ligados selectivamente. Durante la clasificación, se busca el prototipo raíz más cercano al patrón de prueba y entonces sólo se consideran los prototipos hijos ligados a él. Edición de prototipos: elimina muestras inútiles los cuales están rodeados de patrones de la misma clase. 24

25 Clasificación 1NN: complejidad computacional Algoritmo de edición del vecino más cercano Begin initialize: Z datos entrenamiento, j 0, N # prototipos end Construir el diagrama de Voronoi completo de Z do j j+1; para cada muestras x j Z Encontrar los vecinos Voronoi de x j if un vecino no es de la misma clase que x j, then marcar x j until j=n Remover todos los puntos que no fueron marcados Construir el diagrama de Voronoi de los patrones marcados De acuerdo con este algoritmo, si un patrón contribuye en la frontera de decisión entonces permanece en el conjunto, en otro caso es removido. No garantiza que se encuentre el menor número de puntos; sin embargo, se puede reducir la complejidad computacional sin sacrificar exactitud. 25

26 Clasificación 1NN: complejidad computacional N=400 N=85 Diagramas de Voronoi de un conjunto completo (izquierda) y un conjunto editado (derecha). Se removieron aproximadamente el 80% de los patrones que no contribuyeron a la frontera de decisión entre las clases. 26

27 Clasificación 1NN: complejidad computacional N=400 N=85 Regiones de decisión de un conjunto completo (izquierda) y un conjunto editado (derecha). 27

28 Clasificación 1NN: métricas El clasificador 1NN depende de una métrica o función de distancia entre patrones, donde la distancia Euclidiana es la más utilizada. Una métrica debe satisfacer cuatro propiedades para todos los vectores a, b, y c: No negatividad: D(a,b) 0. Reflexividad: D(a,b)=0 si y sólo si a=b. Simetría: D(a,b)=D(b,a). Desigualdad triangular: D(a,b)+D(b,c) D(a,c). 28

29 Clasificación 1NN: métricas Una clase general de métricas para patrones D-dimensionales es la métrica Minkowski (también llamada norma L q ): L q (a,b) = D i=1 a i b i q 1 q (14) Casos particulares de la norma L q son: L 1, distancia Manhattan o city block; L 2, distancia Euclidiana; y L, distancia Chebyshev. L 1 2 L 1 L 2 L Superficies que consisten de puntos a distancia 1.0 a partir del origen. 29

30 Clasificación 1NN: métricas En problemas de alta dimensionalidad, la norma L 2 se emplea como una extensión natural de su uso tradicional en espacios 2D y 3D. Sin embargo, la norma L q, especialmente para q 3, es incapaz de distinguir entre patrones cercanos y lejanos en altas dimensiones. Considérese el siguiente par de patrones binarios a y b los cuales no poseen atributos en común: Punto x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 a b Ahora considérese el siguiente par de patrones binarios c y d los cuales son casi idénticos: Punto x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 c d Nótese que la distancia Euclidiana L 2 (a,b)=l 2 (c,d)=

31 Clasificación 1NN: métricas Sean D max y D min las distancias más lejana y cercana de Nn puntos al origen. Aggarwal et al. * demostraron teórica y experimentalmente que en espacios de alta dimensionalidad la diferencia D max D min incrementa a razón de xxxxxxxxxxx, r = D 1/2(q 1) independientemente de la distribución de los datos. Esto quiere decir que para L 1 el valor de r diverge hacia, para L 2 r está limitada por constantes y para q 3 r converge hacia 0. Para problemas de búsqueda del vecino más cercano en espacios de alta dimensionalidad, Aggarwal et al. recomiendan utilizar métricas fraccionales, es decir, la norma L q para xxxxxxxx. q 2 (0, 1) *On the Surprising Behavior of Distance Metrics in High Dimensional Space, Database Theory-ICDT 2001, pp

32 Clasificación 1NN: métricas L 1 2 L 1 L 2 L 3 Diferencias D max D min (eje vertical) en función de la dimensionalidad D (eje horizontal) para diferentes métricas calculadas a partir de N= muestras con distribución uniforme en el rango (0,1). 32

33 Sumario de métodos no paramétricos Ventajas: No se requiere asumir ningún tipo de distribución en lo patrones de entrenamiento. Con muestras suficientes, la convergencia a densidades arbitrarias y complejas puede ser alcanzada. Desventajas: El número de muestras requeridas puede ser muy grande a medida que crece la dimensionalidad del espacio de características. Puede haber severos requerimientos de tiempo de cómputo y almacenamiento. 33

TÉCNICAS NO PARAMÉTRICAS DRA. LETICIA FLORES PULIDO

TÉCNICAS NO PARAMÉTRICAS DRA. LETICIA FLORES PULIDO TÉCNICAS NO PARAMÉTRICAS DRA. LETICIA FLORES PULIDO INTRODUCCIÓN En los ejemplos anteriores suponemos que conocemos la forma de la distribución de los datos. En la mayoría de las aplicaciones de este tipo,

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Técnicas Supervisadas Aproximación no paramétrica

Técnicas Supervisadas Aproximación no paramétrica Técnicas Supervisadas Aproximación no paramétrica 2016 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ. de Granada Pattern Classification de Duda, Hart y Storck The Elements of Statistical

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur KNN: VECINO(S) MAS CERCANO(S) K NEAREST NEIGHBORS (KNN) Altura Niño Adulto Mayor Se guardan todos los ejemplos

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

Análisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Teoría de decisión Bayesiana Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de decisión Bayesiana La teoría de probabilidad provee un marco teórico para los procesos de cuantificación y

Más detalles

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.

Más detalles

Introducción a Aprendizaje no Supervisado

Introducción a Aprendizaje no Supervisado Introducción a Aprendizaje no Supervisado Felipe Suárez, Álvaro Riascos 25 de abril de 2017 2 / 33 Contenido 1. Motivación 2. k-medias Algoritmos Implementación 3. Definición 4. Motivación 5. Aproximación

Más detalles

Clasificación estadística de patrones

Clasificación estadística de patrones Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

Bases estadísticas del reconocimiento de patrones

Bases estadísticas del reconocimiento de patrones Bases estadísticas del reconocimiento de patrones César Martínez cmartinez _AT_ fich.unl.edu.ar Inteligencia Computacional FICH-UNL Percepción humana Tarea muuuuy simple: Cuántas llaves hay? Inteligencia

Más detalles

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4 Aprenentatge 0-03 Q Examen Parcial Nombre: (Examen ) Instrucciones. (0 puntos) Este examen dura horas. Responded todas las preguntas en estas hojas. Para las preguntas test poned un circulo alrededor de

Más detalles

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Aprendizaje Automático Segundo Cuatrimestre de 2016 Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Naive Bayes Naive Bayes Dada una nueva instancia con valores de atributos a 1, a 2,..., a n, su

Más detalles

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Máquinas de vectores de soporte Profesor: Dr. Wilfrido Gómez Flores 1 Introducción En el caso de clases linealmente separables, existen infinitos hiperplanos de decisión que separan correctamente

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Curso: Métodos de Monte Carlo. Unidad 2, Sesión 3: Estimación de volúmenes

Curso: Métodos de Monte Carlo. Unidad 2, Sesión 3: Estimación de volúmenes Curso: Métodos de Monte Carlo. Unidad 2, Sesión 3: Estimación de volúmenes Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo,

Más detalles

Aprendizaje Automático

Aprendizaje Automático Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática

Más detalles

Reconocimiento de Formas

Reconocimiento de Formas Reconocimiento de Formas Técnicas No Paramétricas José Martínez Sotoca Índice Introducción. Ventanas de Parzen. Clasificación por Distancia Mínima (CDM). Regla del vecino mas próximo (1-NN / NN). Regla

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades

Más detalles

Análisis del artículo

Análisis del artículo Análisis del artículo Mean Shift: A Robust Approach toward Feature Space Analysis Dorin Comaniciu - Peter Meer R. Omar Chávez Garcia - Pável Herrera Domínguez 25 de mayo de 2009 Conceptos básicos Dorin

Más detalles

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 SISTEMAS LTI En general un

Más detalles

Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2)

Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2) Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2) 1 I N G E N I E R Í A I N F O R M Á T I C A D P T O. M A T E M Á T I C A A P L I C A D A I 2 ÍNDICE: Filtrado espacial Filtros de suavizado Filtros

Más detalles

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos

Más detalles

Aprendizaje inductivo no basado en el error Métodos competitivos supervisados.

Aprendizaje inductivo no basado en el error Métodos competitivos supervisados. Aprendizaje inductivo no basado en el error Métodos competitivos supervisados. Aprendizaje basado en instancias Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido

Más detalles

Análisis de Datos en Física de Partículas

Análisis de Datos en Física de Partículas Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada Clustering Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Clustering jerárquico 3 Clustering particional 4 Clustering probabilista 5 Conclusiones Introducción Objetivos

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Integral de Fourier y espectros continuos

Integral de Fourier y espectros continuos 9 2 2 2 Esta expresión se denomina forma de Angulo fase (o forma armónica) de la serie de Fourier. Integral de Fourier y espectros continuos Las series de Fourier son una herramienta útil para representar

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

SUSTRACCIÓN DE BACKGROUND

SUSTRACCIÓN DE BACKGROUND 17 Capítulo 3. TÉCNICAS DE SUSTRACCIÓN DE BACKGROUND Capítulo 3. TÉCNICAS DE SUSTRACCIÓN DE BACKGROUND La técnica de sustracción de background ("background subtraction") es una técnica bastante utilizada

Más detalles

Clasificador de Redes Neurales

Clasificador de Redes Neurales Clasificador de Redes Neurales Resumen El Clasificador Probabilístico de Redes Neurales (PNN, Probabilistic Neural Network Classifier) ejecuta un método no paramétrico para clasificar observaciones en

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Introducción a la Geometría Computacional. Análisis de Algoritmos

Introducción a la Geometría Computacional. Análisis de Algoritmos Introducción a la Geometría Computacional Análisis de Algoritmos Geometría Computacional La Geometría Computacional surgió a finales de los 70s del área de diseño y análisis de algoritmos. Estudio sistemático

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste Técnicas de Inferencia Estadística II Tema 3. Contrastes de bondad de ajuste M. Concepción Ausín Universidad Carlos III de Madrid Grado en Estadística y Empresa Curso 2010/11 Tema 3. Contrastes de bondad

Más detalles

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2) Contenido 1 2 3 Cópula Empírica Cópula Kernel Resumen Recordemos que una cópula es una función C : I 2 I tal que: 1 Para cualesquiera u, v en I := [0, 1] C(u, 0) = 0 = C(0, v), C(u, 1) = u, C(1, v) = v.

Más detalles

1. El Método de Diferencias Finitas

1. El Método de Diferencias Finitas 1. El Método de Diferencias Finitas Por Guillermo Hernández García El Método consiste en una aproximación de derivadas parciales por expresiones algebraicas envolviendo los valores de la variable dependiente

Más detalles

UNIDAD 4. INFERENCIA ESTADÍSTICA. Prof. Eliana Guzmán U. Semestre A-2015

UNIDAD 4. INFERENCIA ESTADÍSTICA. Prof. Eliana Guzmán U. Semestre A-2015 UNIDAD 4. INFERENCIA ESTADÍSTICA Prof. Eliana Guzmán U. Semestre A-05 INFERENCIA ESTADÍSTICA La teoría de la Inferencia Estadística está conformada por aquellos métodos que permiten hacer generalizaciones,

Más detalles

Tema 1. Introducción a las señales y los sistemas

Tema 1. Introducción a las señales y los sistemas SISTEMAS LINEALES Tema. Introducción a las señales y los sistemas de septiembre de F. JAVIER ACEVEDO javier.acevedo@uah.es TEMA Contenidos. Definiciones. Clasificación de señales. Transformaciones de la

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales REPRESENTACIÓN Y DESCRIPCIÓN Momentos INTRODUCCIÓN En general, la relación entre una imagen ideal f(x,y) y una imagen observada g(x,y) se describe como g =D( f ) donde D

Más detalles

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Introducción Tipos Validación AAMRT Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Miguel Bernal C Quantil 12 de diciembre de 2013 Miguel Bernal C Quantil Matemáticas Aplicadas Contenido

Más detalles

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 Algoritmos para Reconocimiento de Patrones 18 de septiembre de 2014 1. Objetivos Introducir conceptos básicos de aprendizaje automático.

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en color INTRODUCCIÓN La segmentación de imágenes a color se puede realizar mediante técnicas de clasificación supervisada.

Más detalles

Cuadratura Gaussiana basada en polinomios ortogonales.

Cuadratura Gaussiana basada en polinomios ortogonales. Clase No. 20: MAT 251 Cuadratura Gaussiana basada en polinomios ortogonales. Dr. Alonso Ramírez Manzanares CIMAT, A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña

Más detalles

Simulated Annealing & Tabu Search

Simulated Annealing & Tabu Search Simulated Annealing & Tabu Search Arturo Díaz Pérez Sección de Computación Departamento de Ingeniería Eléctrica CINVESTAV-IPN Av. Instituto Politécnico Nacional No. 2508 Col. San Pedro Zacatenco México,

Más detalles

RED NEURONAL DE KOHONEN

RED NEURONAL DE KOHONEN UNIVERSIDAD DE BUENOS AIRES FACULTAD DE INGENIERÍA MAESTRÍA EN SIMULACIÓN NUMÉRICA Y CONTROL TRABAJO PRACTICO 3: RED NEURONAL DE KOHONEN Presentada como requisito parcial para la aprobación del curso Sistemas

Más detalles

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO Año Académico 2000-2001 Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO 1. Dá el enunciado y demuestra el teorema de convergencia del método del punto fijo. (2 puntos) 2. Resuelve el siguiente sistema

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos

Más detalles

Tratamiento de imágenes Relaciones básicas entre píxeles

Tratamiento de imágenes Relaciones básicas entre píxeles Tratamiento de imágenes Relaciones básicas entre píxeles Héctor Alejandro Montes hamontesv@uaemex.mx http://scfi.uaemex.mx/hamontes Advertencia No use estas diapositivas como referencia única de estudio

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales FILTRADO DE LA IMAGEN Filtros espaciales suavizantes INTRODUCCIÓN El uso de máscaras espaciales para el procesamiento de imágenes se denomina filtrado espacial y a las propias

Más detalles

Sesión 7: Campos de Markov

Sesión 7: Campos de Markov Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.

Más detalles

Otras distribuciones multivariantes

Otras distribuciones multivariantes Trabajo A Trabajos Curso -3 Otras distribuciones multivariantes Clase esférica de distribuciones en R p Definición. Dado un vector aleatorio X = X,..., X p t, se dice que se distribuye en la clase esférica

Más detalles

En todo proceso de investigación se generan datos y es la Estadística la disciplina encargada de :

En todo proceso de investigación se generan datos y es la Estadística la disciplina encargada de : En todo proceso de investigación se generan datos y es la Estadística la disciplina encargada de : Organizarlos y resumir Estadística la información Descriptiva Extraer conclusiones acerca de hipótesis

Más detalles

MATEMÁTICAS ESPECIALES I PRÁCTICA 8 - CLASE 1 Sucesiones y series de funciones. x n, si 0 x 1 1, si x 1. 0, si 0 x < 1

MATEMÁTICAS ESPECIALES I PRÁCTICA 8 - CLASE 1 Sucesiones y series de funciones. x n, si 0 x 1 1, si x 1. 0, si 0 x < 1 PRÁCTICA 8 - CLASE Sucesiones y series de funciones.. Considere la sucesión de funciones reales ϕ n (x) = x n, si 0 x, si x, n. (a) Demostrar que converge puntualmente a ϕ(x) = 0, si 0 x

Más detalles

Capítulo 2. Técnicas de Procesamiento de Imágenes

Capítulo 2. Técnicas de Procesamiento de Imágenes Capítulo 2. Técnicas de Procesamiento de Imágenes 2.1 Binarización La binarización es una de las técnicas más antiguas de procesamiento de imágenes ya que en el pasado, el primer analizador de imágenes

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 SIMULACION x p(x) x h(x) 6 4 5 2 3 Urna /6 2 /6 3 /6 4 /6 5 /6 6 /6 Dado /6 2 /6 3 /6 4 /6 5 /6 6 /6 x p(x) x h(x) s(x) 4 5 2 3 Urna 2 0.2 2 0.2 3 0.2 4 0.2 5 0.2 6 0.0 Dado /6.2 2 /6.2 3 /6.2 4 /6.2 5

Más detalles

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:

Más detalles

Cálculo Numérico III Curso 2010/11

Cálculo Numérico III Curso 2010/11 Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los

Más detalles

Fundamentos de Visión por Computador

Fundamentos de Visión por Computador Fundamentos de Visión por Computador Sistemas Informáticos Avanzados Índice Filtrado en el espacio Filtros lineales Tipos de ruido Filtro media Filtro mediana Filtros gausianos Filtrado en la frecuencia

Más detalles

Los cables flexibles y las cadenas se usan para soportar y transmitir cargas entre miembros.

Los cables flexibles y las cadenas se usan para soportar y transmitir cargas entre miembros. Los cables fleibles y las cadenas se usan para soportar y transmitir cargas entre miembros. En los puentes en suspensión, estos llevan la mayor parte de las cargas. En el análisis de fuerzas, el peso de

Más detalles

Distribuciones de probabilidad Discretas

Distribuciones de probabilidad Discretas Distribuciones de probabilidad Discretas Distribución Uniforme Discreta Definición Una variable aleatoria X, tiene una distribución uniforme discreta, si cada uno de los valores x 1, x 2,.. x n, tiene

Más detalles

Estimación Bayesiana y Máximo a Posteriori

Estimación Bayesiana y Máximo a Posteriori Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

Cuáles son las características aleatorias de la nueva variable?

Cuáles son las características aleatorias de la nueva variable? Apuntes de Estadística II. Ingeniería Industrial. UCAB. Marzo 203 CLASES DE ESTADÍSTICA II CLASE 5) UNA TRANSFORMACIÓN DE DOS VARIABLES. Sea Z = g(, ) una función de las variables aleatorias e, tales que

Más detalles

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta Realzado de Imagen 11 de junio de 2001 Una operación clásica en el procesado de imagen es realzar una imagen de entrada de alguna manera para que la imagen de salida sea más fácil de interpretarla. La

Más detalles

Índice 1. Introducción Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales. Introducción.

Índice 1. Introducción Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales. Introducción. Índice 1. Imagen digital. Formación imagen Histograma de una imagen digital 2. Transformaciones puntuales Procesamiento de imágenes digitales Transformaciones basadas en el histograma Ecualización del

Más detalles

Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS

Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS En esta clase se completa el tema anterior de aprendizaje basados en instancias, enfatizando el aprendizaje de ejemplares. En particular,

Más detalles

Mineria de Datos. Clasificacion supervisada: clasificadores k-nn. Dr. Edgar Acuna Departmento de Matematicas

Mineria de Datos. Clasificacion supervisada: clasificadores k-nn. Dr. Edgar Acuna Departmento de Matematicas Mineria de Datos Clasificacion suervisada: clasificadores k-nn Dr. Edgar Acuna Deartmento de Matematicas Universidad de Puerto Rico- Mayaguez academic.urm.edu/eacuna 1 En el método de los k vecinos mas

Más detalles

Estadística Descriptiva y Probabilidad FORMULARIO

Estadística Descriptiva y Probabilidad FORMULARIO Estadística Descriptiva y Probabilidad FORMULARIO Departament d Estadística i Investigació Operativa Universitat de València Angel Corberán Francisco Montes 2 3 Capítulo 1 Estadística Descriptiva 1.1.

Más detalles

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el

Más detalles

ESTIMACIÓN DE FUNCIONES DE DENSIDAD DE DATOS CORRELACIONADOS Y/O CON VALORES ATÍPICOS

ESTIMACIÓN DE FUNCIONES DE DENSIDAD DE DATOS CORRELACIONADOS Y/O CON VALORES ATÍPICOS Servy, Elsa Cuesta, Cristina Marí, Gonzalo Instituto de Investigaciones Teóricas y Aplicadas, Escuela de Estadística ESTIMACIÓN DE FUNCIONES DE DENSIDAD DE DATOS CORRELACIONADOS Y/O CON VALORES ATÍPICOS

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

Métodos Numéricos I. Curso Colección de Problemas Capítulo 3. Ecuaciones no lineales. Iteración funcional HOJA 1

Métodos Numéricos I. Curso Colección de Problemas Capítulo 3. Ecuaciones no lineales. Iteración funcional HOJA 1 HOJA 1 1. Determinase que la función f(x) = x 3 + 4x 2 10 tiene una única raíz α en I = [1; 2]. Estime teóricamente cuántas iteraciones serán necesarias utilizando el método de bisección, para hallar un

Más detalles

Parámetros Estadísticos básicos, Resumen y Presentación de datos. Jhon Jairo Padilla, PhD.

Parámetros Estadísticos básicos, Resumen y Presentación de datos. Jhon Jairo Padilla, PhD. Parámetros Estadísticos básicos, Resumen y Presentación de datos Jhon Jairo Padilla, PhD. Motivación Los resúmenes y las representaciones de datos son esenciales porque: Enfocan al ingeniero en características

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Revista Colombiana de Estadística ISSN: Universidad Nacional de Colombia Colombia

Revista Colombiana de Estadística ISSN: Universidad Nacional de Colombia Colombia Revista Colombiana de Estadística ISSN: 0120-1751 revcoles_fcbog@unal.edu.co Universidad Nacional de Colombia Colombia Ortíz Pinilla, Jorge; Castro, Amparo; Neira, Tito; Torres, Pedro; Castañeda, Javier

Más detalles