UNIVERSIDAD POLITÉCNICA DE MADRID

Tamaño: px
Comenzar la demostración a partir de la página:

Download "UNIVERSIDAD POLITÉCNICA DE MADRID"

Transcripción

1 UNIVERSIDAD POLITÉCNICA DE MADRID ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE TELECOMUNICACIÓN APLICACIÓN DE TÉCNICAS DE INTELIGENCIA ARTIFICIAL PARA CONTRIBUIR EN LA DETECCIÓN DE MICROCALCIFICACIONES EN MAMOGRAFÍA DIGITALIZADA TESIS DOCTORAL Joel Quintanilla Domínguez M.I. Eléctrica 2015

2

3 DEPARTAMENTO DE SEÑALES, SISTEMAS Y RADIOCOMUNICACIONES Escuela Técnica Superior de Ingenieros de Telecomunicación Universidad Politécnica de Madrid APLICACIÓN DE TÉCNICAS DE INTELIGENCIA ARTIFICIAL PARA CONTRIBUIR EN LA DETECCIÓN DE MICROCALCIFICACIONES EN MAMOGRAFÍA DIGITALIZADA TESIS DOCTORAL Autor: Joel Quintanilla Domínguez M.I. Eléctrica Director: Diego Andina de la Fuente Doctor Ingeniero de Telecomunicación Co-Director: Antonio Vega Corona Doctor Ingeniero de Telecomunicación 2015

4

5 TESIS DOCTORAL APLICACIÓN DE TÉCNICAS DE INTELIGENCIA ARTIFICIAL PARA CONTRIBUIR EN LA DETECCIÓN DE MICROCALCIFICACIONES EN MAMOGRAFÍA DIGITALIZADA AUTOR: DIRECTOR: CO-DIRECTOR: Joel Quintanilla Domínguez Diego Andina de la Fuente Antonio Vega Corona Tribunal nombrado por el Mgfco. y Excmo. Sr. Rector de la Universidad Politécnica de Madrid, el día 30 de enero de PRESIDENTE: José Manuel Ferrández Vicente SECRETARIO: Alexis E. Marcano Cedeño VOCAL: Ascensión Gallardo Antolín VOCAL: Daniel Ruiz Fernández VOCAL: Juan I. Seijas Martínez-Echevarría SUPLENTE: Miguel A. Molero Armenta SUPLENTE: Juan Bautista Grau Olive Realizado el acto de defensa y lectura de tesis el día 19 de febrero de En la E.T.S. de Ingenieros de Telecomunicación. Calificación:

6

7 Dedicatoria A mi esposa: Araceli Charre Liñan A mi hijo: Leonardo Quintanilla Charre I

8

9 Agradecimientos Primero quiero dar gracias DIOS por iluminarme durante esta etapa de mi vida y nunca abandonarme en los momentos difíciles. Quiero agradecer de manera muy especial a mi esposa Araceli Charre Liñan y a mi hijo Leonardo Quintanilla Charre que me permitieron vivir con ellos todos esos momentos que formaron parte de esta gran experiencia. También por su confianza, apoyo, comprensión y enorme paciencia durante el tiempo que estuve lejos. A mis padres J. Jesús Quintanilla Montenegro y Ma. Soledad Domínguez Medrano por brindarme su apoyo incondicional en todo momento y por haberme guiado por este camino. A mis hermanos Faustino Quintanilla D., José Jesús Quintanilla D. y sus familias por creer en mi. A mis suegros y cuñados, Eleazar Charre, Ma. Soledad Liñan, Victor Charre y Omar Charre por la confianza y por cuidar de mi familia durante mi ausencia. También quiero extender un especial agradecimiento a Maribel Mata Amador y a Dña. Juanita Amador. Especialmente a toda mi familia por sus oraciones, por creer en mi y por estar pendiente durante mi estancia en España. Quiero extender un especial y sincero agradecimiento a mis tutores y directores de tesis, el Dr. Diego Andina de la Fuente y el Dr. Antonio Vega Corona. Ya que, una parte importante del desarrollo de esta tesis fue debido a su experiencia profesional, comentarios y consejos. Gracias por la ayuda y el apoyo incondicional. También quiero agradecer a las personas que me acompañaron durante esta etapa de mi vida en los ámbitos profesional y personal, mis compañeros del Grupo de Automatización en Señal y Comunicaciones (GASC): Benjamín Ojeda Magaña (por permitirme aportar y colaborar en el algoritmo de la sub-segmentación), Ma. Guadalupe Cortina Januchs, Alexis E. Marcano Cedeño, Aleksandar Jevtic, José Miguel Barrón Adame, Fulgencio Buendía Buendía y Jesús Herrera. Compañeros muchas gracias por compartir el conocimiento, por sus comentarios y por su valiosa e incomparable amistad. De la misma manera quiero agradecer de una manera muy especial a José García Salas por su valiosa amistad, confianza y apoyo. III

10 También quiero agradecer a Rubén A. García Mendoza y Alejandra Mina Rosales por su amistad e incondicional apoyo. A Nazario Félix y Catalina Ovando por su amistad. Finalmente agradezco al M.I. Joel Herrera Cabral por su amistad y por el apoyo en su momento como director del departamento de TIC de la Universidad Tecnológica del Suroeste de Guanajuato (UTSOE). De la misma manera al actual director de TIC de la UTSOE, compañero y amigo el Ing. José Antonio Gordillo Sosa por su valioso apoyo. A todos mis compañeros del departamento TIC de la UTSOE por su apoyo durante mi ausencia.

11 Agradecimientos Institucionales Agradezco a las instituciones que me apoyaron en el desarrollo de esta tesis: Consejo Nacional de Ciencia y Tecnología (CONACyT) Secretería de Educación Pública (SEP) Banco Santander Grupo de Automatización en Señales y Comunicaciones (GASC) Universidad Politécnica de Madrid Universidad de Guanajuato Universidad Tecnológica del Suroeste de Guanajuato Programa para el Desarrollo Profesional Docente para el Tipo Superior (PRO- DEP) V

12

13 Resumen A nivel mundial, el cáncer de mama es el tipo de cáncer más frecuente además de una de las principales causas de muerte entre la población femenina. Actualmente, el método más eficaz para detectar lesiones mamarias en una etapa temprana es la mamografía. Ésta contribuye decisivamente al diagnóstico precoz de esta enfermedad que, si se detecta a tiempo, tiene una probabilidad de curación muy alta. Uno de los principales y más frecuentes hallazgos en una mamografía, son las microcalcificaciones, las cuales son consideradas como un indicador importante de cáncer de mama. En el momento de analizar las mamografías, factores como la capacidad de visualización, la fatiga o la experiencia profesional del especialista radiólogo hacen que el riesgo de omitir ciertas lesiones presentes se vea incrementado. Para disminuir dicho riesgo es importante contar con diferentes alternativas como por ejemplo, una segunda opinión por otro especialista o un doble análisis por el mismo. En la primera opción se eleva el coste y en ambas se prolonga el tiempo del diagnóstico. Esto supone una gran motivación para el desarrollo de sistemas de apoyo o asistencia en la toma de decisiones. En este trabajo de tesis se propone, se desarrolla y se justifica un sistema capaz de detectar microcalcificaciones en regiones de interés extraídas de mamografías digitalizadas, para contribuir a la detección temprana del cáncer de mama. Dicho sistema estará basado en técnicas de procesamiento de imagen digital, de reconocimiento de patrones y de inteligencia artificial. Para su desarrollo, se tienen en cuenta las siguientes consideraciones: 1. Con el objetivo de entrenar y probar el sistema propuesto, se creará una base de datos de imágenes, las cuales pertenecen a regiones de interés extraídas de mamografías digitalizadas. 2. Se propone la aplicación de la transformada Top-Hat, una técnica de procesamiento digital de imagen basada en operaciones de morfología matemática. La finalidad de aplicar esta técnica es la de mejorar el contraste entre las microcalcificaciones y el tejido presente en la imagen. 3. Se propone un algoritmo novel llamado sub-segmentación, el cual está basado en técnicas de reconocimiento de patrones aplicando un algoritmo de agrupamiento no supervisado, el PFCM (Possibilistic Fuzzy c-means). El objetivo es encontrar las regiones correspondientes a las microcalcificaciones y diferenciarlas del tejido VII

14 sano. Además, con la finalidad de mostrar las ventajas y desventajas del algoritmo propuesto, éste es comparado con dos algoritmos del mismo tipo: el k-means y el FCM (Fuzzy c-means). Por otro lado, es importante destacar que en este trabajo por primera vez la sub-segmentación es utilizada para detectar regiones pertenecientes a microcalcificaciones en imágenes de mamografía. 4. Finalmente, se propone el uso de un clasificador basado en una red neuronal artificial, específicamente un MLP (Multi-layer Perceptron). El propósito del clasificador es discriminar de manera binaria los patrones creados a partir de la intensidad de niveles de gris de la imagen original. Dicha clasificación distingue entre microcalcificación y tejido sano.

15 Abstract Breast cancer is one of the leading causes of women mortality in the world and its early detection continues being a key piece to improve the prognosis and survival. Currently, the most reliable and practical method for early detection of breast cancer is mammography.the presence of microcalcifications has been considered as a very important indicator of malignant types of breast cancer and its detection and classification are important to prevent and treat the disease. However, the detection and classification of microcalcifications continue being a hard work due to that, in mammograms there is a poor contrast between microcalcifications and the tissue around them. Factors such as visualization, tiredness or insufficient experience of the specialist increase the risk of omit some present lesions. To reduce this risk, is important to have alternatives such as a second opinion or a double analysis for the same specialist. In the first option, the cost increases and diagnosis time also increases for both of them. This is the reason why there is a great motivation for development of help systems or assistance in the decision making process. This work presents, develops and justifies a system for the detection of microcalcifications in regions of interest extracted from digitized mammographies to contribute to the early detection of breast cancer. This system is based on image processing techniques, pattern recognition and artificial intelligence. For system development the following features are considered: With the aim of training and testing the system, an images database is created, belonging to a region of interest extracted from digitized mammograms. The application of the top-hat transform is proposed. This image processing technique is based on mathematical morphology operations. The aim of this technique is to improve the contrast between microcalcifications and tissue present in the image. A novel algorithm called sub-segmentation is proposed. The sub-segmentation is based on pattern recognition techniques applying a non-supervised clustering algorithm known as Possibilistic Fuzzy c-means (PFCM). The aim is to find regions corresponding to the microcalcifications and distinguish them from the healthy tissue. Furthermore, with the aim of showing the main advantages and disadvantages this is compared with two algorithms of same type: the k-means and the fuzzy IX

16 c-means (FCM). On the other hand, it is important to highlight in this work for the first time the sub-segmentation is used for microcalcifications detection. Finally, a classifier based on an artificial neural network such as Multi-layer Perceptron is used. The purpose of this classifier is to discriminate from a binary perspective the patterns built from gray level intensity of the original image. This classification distinguishes between microcalcifications and healthy tissue.

17 Índice general Dedicatoria i Agradecimientos iii Agradecimientos Institucionales v Resumen vii Abstract ix Índice de figuras xxiii Índice de tablas xxvi Lista de acrónimos xxviii I Introducción 1 1. Introducción Cáncer de mama Factores de riesgo Métodos de detección del cáncer mama Programas de screening Mamografía Hallazgos en la mamografía Microcalcificaciones Bases de datos de mamografía digitalizada Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador XI

18 Revisión de la literatura en la detección de microcalcificaciones Organización de la Tesis Modelo Propuesto Modelo del Sistema Propuesto Contribuciones Científicas Contribuciones en Revistas Internacionales listadas en el Journal of Citation Reports (JCR) Contribuciones en Revistas Internacionales Contribuciones en Congresos Internacionales Contribuciones en Colaboración Contribuciones en Colaboración en Revistas Internacionales listadas en el JCR Contribuciones en Colaboración en Congresos Internacionales II Detección de Microcalcificaciones Procesamiento de Imágenes de Mamografía Introducción Fundamentos del procesamiento de imágenes Etapas fundamentales del procesamiento digital de imágenes Mejora de imagen de mamografía Técnicas convencionales Expansión del contraste Ecualización del histograma Función de transformación adaptativa para el histograma Filtrado Espacial Mejora local de imagen Mejora de imagen basada en características Transformada wavelet Lógica difusa Mejora por morfología matemática Operaciones morfológicas Mejora del contraste usando la transformada Top-hat Evaluación de las técnicas de mejora de imagen

19 4. Segmentación de microcalcificaciones mediante agrupamiento Introducción Conceptos y definiciones en análisis de agrupamiento Etapas del proceso del proceso de agrupamiento Definiciones y notación Medidas de distancia o similitud Algoritmos de agrupamiento particionales Algoritmo k-means Agrupamiento de datos mediante k-means Algoritmo Fuzzy c-means Ejemplo de agrupamiento de datos mediante FCM Algoritmo Posibilista c-means Ejemplo de agrupamiento mediante PCM Algoritmo Posibilista Fuzzy c-means Ejemplo de agrupamiento mediante PFCM Segmentación y sub-segmentación mediante algoritmos de agrupamiento Segmentación mediante k-means y FCM Segmentación de imagen usando el k-means Segmentación de imagen usando el FCM Sub-segmentación de imagen mediante PFCM Sub-segmentación de una imagen natural Sub-segmentación de microcalcificaciones en una imagen ROI Sub-segmentación de imagen usando PFCM III Clasificación de Microcalcificaciones Clasificación de Microcalcificaciones mediante RNA Introducción Fundamentos de las Redes Neuronales Artificiales Neurona biológica Definición de RNA La neurona artificial Funciones de activación Aprendizaje de las RNA

20 5.3. Arquitectura de las RNA Clasificación de las RNA El Perceptrón Aprendizaje del Perceptrón Perceptrón Multicapa Algoritmo de Retropropagación Funcionamiento del BP Aplicaciones de las Redes Neuronales Artificiales Diseño del clasificador Extracción de características Estructura de la red Normalización de los datos Evaluación del desempeño del clasificador IV Metodología y Resultados Metodología, experimentación y resultados Introducción Plataforma y equipo Selección de Regiones de Interés Mejora de imagen mediante la transformada Top-hat Experimento Segmentación de microcalcificaciones mediante agrupamiento de datos Construcción del conjunto de datos Segmentación mediante agrupamiento de datos Segmentación mediante k-means Segmentación mediante el FCM Sub-segmentación mediante PFCM Modelo de comparación, segmentación de imagen Selección de las imágenes ROI Realce de microcalcificación Detección de contornos Extracción de características Clasificación mediante una RNA Selección de la estructura de red

21 Evaluación del clasificador Resultados visuales en la detección de las microcalcificaciones Experimento Experimento Mejora de imagen por la transformada Top-hat Segmentación de imagen mediante agrupamiento Extracción de características Clasificación mediante una RNA Evaluación del clasificador Resultados visuales en la detección de las microcalcificaciones V Conclusiones y Contribuciones Discusión, conclusiones, contribuciones y líneas futuras Discusión Conclusiones Aportaciones Líneas futuras de investigación Bibliografía 229

22

23 Índice de figuras 1.1. Ejemplo de un estudio de Mamografía. (Fuente [NCI, 2010]) Vistas estándar de mamografía.(a)ml-derecha, (b)ml-izquierda, (c)cc- Derecha y (D)CC-Izquierda Tipos de anormalidad encontrada en una mamografía. (a) Microcalcificaciones. (b) Masa. (c) Distorsión arquitectural. (d) Densidad asimétrica Mamografía marcada con una Región de Interés Diagrama general a bloques de un sistema CAD típico para la detección de microcalcificaciones Diagrama de bloques del sistema propuesto para la detección de microcalcificaciones Representación de una imagen digital de tamaño M N píxeles. Los ejes x, y, corresponden a las columnas y las filas de la matriz, respectivamente. f (x, y) representa el valor de nivel de gris en el punto (x, y) Etapas fundamentales del procesamiento de imágenes (a) Imagen ROI extraída de una mamografía. (b) Histograma de niveles de la imagen ROI Representación de la función de transformación del nivel de intensidad. (a) Función de transformación lineal. (b) Función de transformación no-lineal Mejora del contraste de una imagen ROI. (a) Imagen ROI mejorada usando una transformación de niveles de gris mediante la expresión (3.3). (b) Nueva distribución del histograma de la imagen ROI Efecto de la función de trasformación sobre una imagen de entrada: (a) manteniendo constante el valor del control del umbral β y variando el valor del control de contraste k. Se puede apreciar que la pendiente de la curva aumenta cuando k aumenta y como consecuencia de esto, un aumento del contraste en la imagen de salida. (b) manteniendo constante el valor del control de contraste k y variando el valor de umbral β, se puede apreciar la modificación que sufre el rango medio de valores de gris de los píxeles.. 45 XVII

24 3.7. Mejora del contraste utilizando la expresión (3.4) sobre la imagen de Cameraman con β constante y k variable. (a) Imagen original. (b) Imagen mejorada conβ=0,4 y k=10. (c) Imagen mejorada conβ=0,4 y k=20. Imagen mejorada conβ=0,4 y k= Mejora del contraste utilizando la expresión (3.4) sobre la imagen de Cameraman conβvariable y k constante. (a) Imagen mejorada conβ=0,2 y k=10. (b) Imagen mejorada conβ=0,5 y k=10. (c) Imagen mejorada con β=0,8 y k= Mejora del contraste de una imagen ROI utilizando la expresión (3.4). (a) Imagen original. (b) Imagen mejorada con valores deβ=0,2 y k=20. (c) Histograma de la ROI original. (d) Histograma de la ROI mejorada Filtrado espacial mediante convolución. Se muestra una máscara de convolución de 3 3, donde w1, w2,...,w9, representan los coeficientes de la máscara de convolución. L1, L1,...,L9, representan los niveles de gris de la imagen de entrada que se encuentran dentro de la máscara de convolución. LR5 representa la respuesta lineal de la máscara de convolución mediante LR5=L1 w1+l2 w2+...+l9w Mejora local de una imagen ROI mediante el contraste local definido en la expresión (3.7). (a) Imagen original. (b) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño 3 3. (c) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño 5 5. (d) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño Formas básicas de elementos de estructura utilizados en la práctica Ejemplo de la erosión de la imagen de Lenna (I) utilizando un SE cuadrado de 5 5. (a) Imagen original. (b) Imagen erosionada Ejemplo de la dilatación de la imagen de Lenna con un SE cuadrado de 5 5. (a) Imagen original. (b) Imagen dilatada Efecto de las expresiones 3.11 y 3.12 correspondientes a las operaciones morfológicas de apertura y cerradura, respectivamente, aplicadas sobre la imagen de Lenna. (a) Imagen original. (b) Imagen obtenida mediante la apertura. (c) Imagen obtenida mediante la cerradura Ejemplo de la transformada Top-hat para una señal. La gráfica de color rojo corresponde al perfil de la fila de la ROI original, cuyo pico corresponde al nivel de gris de una microcalcificación. La gráfica de color azul corresponde a la operación de apertura sobre la fila de la ROI original. Claramente se observa cual es la finalidad de la operación de apertura. Finalmente, la gráfica de color negro corresponde a la diferencia de la gráfica del perfil de la fila original y la modificada por la operación de apertura, resultando así la trasformada Top-hat Imágenes procesadas mediante la transformada Top-hat. (a)-(d) Imágenes ROI originales. (e)-(h) ROIs procesadas con un SE 3 3. (i)-(l) ROIs procesadas con un SE 5 5. (m)-(o) ROIs procesadas con un SE

25 4.1. Segmentación de una imagen ROI. (a) Imagen original. (b) Imagen segmentada en diferentes regiones Representación del proceso de agrupamiento sobre un conjunto de datos Ejemplos de la flor Iris. (a) Iris setosa. (b) Iris versicolor. (c) Iris virginica Representación gráfica de los datos la base de datos Iris en un espacio de características en 2D, utilizando dos de sus características principales, longitud de sépalo y longitud de pétalo Representación gráfica de los datos sin etiquetar de la base de datos Iris en un espacio de características 2D, utilizando dos de sus características principales, longitud de sépalo y longitud de pétalo Resultado del proceso de agrupamiento de datos sobre la base de datos Iris aplicando el algoritmo k-means Representación de la actualización de los centros de cada grupo durante el proceso de agrupamiento utilizando el k-means Representación del traslape de los datos entre los grupos Iris versicolor y virginica Resultado del agrupamiento utilizando el k-means sobre la base de datos Iris así como la representación de los datos que fueron asignados incorrectamente en el proceso del agrupamiento Resultados del proceso de agrupamiento utilizando el FCM aplicado a la base de datos Iris Representación de la actualización de los centros durante el proceso de agrupamiento de la base de datos Iris aplicando el FCM Representación de la variación del grado de pertenencia difuso obtenido por el FCM para cada uno de los datos de la base de datos Iris Representación de los datos asignados incorrectamente a grupo durante el proceso del agrupamiento utilizando FCM Resultados del proceso de agrupamiento de datos utilizando el PCM aplicado a la base de datos Iris Representación del valor del grado de pertenencia posibilista (tipicalidad) de los datos agrupados aplicando el PCM para la base de datos Iris Resultados del proceso de agrupamiento de datos aplicando el PFCM sobre la base de datos Iris. (a) Utilizando los valores del grado de pertenencia de la matriz difusa U. (b) Utilizando los valores del grado de pertenencia de la matriz posibilista (tipicalidad)t (a) Representación del grado de pertenencia difuso de los datos agrupados de la base de datos Iris. (b) Representación del grado de pertenencia posibilista (tipicalidad) de los datos agrupados de la base de datos Iris Resultado de los datos mal agrupados de la base de datos Iris usando PFCM. (a) Usando U. (b) Usando T

26 4.19. Imágenes ROI originales Imágenes ROI procesadas mediante la transformada Top-hat usando SE de tamaño Segmentación de imágenes ROI por medio de agrupamiento utilizando el k-means Análisis de la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI mediante agrupamiento por el k-means. En las gráficas se muestra el número de grupos vs. valor de separabilidad J (j) d (a)-(d) Imágenes correspondientes a la mejor partición de los datos de acuerdo con el valor de la máxima separabilidad entre grupos. (e)-(h) Imágenes binarias de la mejor partición de los datos utilizando el k-means Segmentación de imágenes ROI mediante agrupamiento de datos aplicando el FCM Análisis de la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI mediante agrupamiento por el FCM. En las gráficas se muestra el numero de grupos vs. valor de separabilidad J (j) d (a)-(d) Imágenes correspondientes a la mejor partición de los datos de acuerdo con el valor de la máxima separabilidad entre grupos. (e)-(h) Imágenes binarias de la mejor partición de los datos utilizando el FCM Diagrama del proceso de la sub-segmentación de imagen Segmentación de la imagen de la gota de leche utilizando el grado de pertenencia difuso. (a) Imagen original. (b) Imagen segmentada en 2 regiones utilizando la partición difusa Imagen segmentada utilizando los píxeles originales. (a) Región difusa S 1. (b) Región difusa S Segmentación de la imagen de la gota de leche utilizando el valor de la tipicalidad. (a) Imagen original. (b) Imagen segmentada en 2 regiones utilizando la partición posibilista Imagen segmentada utilizando los píxeles originales. (a) Region posibilista S 1. (b) Region posibilista S Sub-segmentación de la imagen de la gota de leche. (a) Imagen original. (b) Sub-segmentación de las regiones posibilistas (S 1, S 2 ). (c) Representación en color de la sub-segmentación Representación de la sub-segmentación de la imagen de la gota de leche con sus píxeles originales. (a) Región S RP1 = S tipicos1 S atipicos3 (b) S tipicos1. (c) S atipicos3. (d) S RP2 = S tipicos2 S atipicos4. (e) S tipicos2. (f) S atipicos Imagen ROI original Imagen ROI segmentada en 2 regiones: (a) utilizando la partición difusa, (b) utilizando la partición posibilista

27 4.36. Representación de las regiones S 1 y S 2 usando los píxeles originales. (a) Partición difusa. (b) Región S 1 de la partición difusa. (c) Región S 2 de la partición difusa. (d) Partición posibilista. (e) Región S 1 de la partición posibilista. (f) Región S 2 de la partición posibilista Sub-segmentación de la imagen ROI. (a) Imagen original. (b) Subsegmentación de las regiones (S 1, S 2 ) de la partición posibilista. (c) Representación en color de la sub-segmentación de la imagen ROI Representación de la sub-segmentación de la imagen ROI con sus píxeles originales. (a) Región S RP1 = S tipicos1 S atipicos3. (b) Sub-región S tipicos1. (c) Sub-región S atipicos3. (d) Región S RP2 = S tipicos2 S atipicos4. (e) Sub-región S tipicos2. (f)sub-región S atipicos Imágenes ROI originales Sub-segmentación de microcalcificaciones de imágenes ROI mediante agrupamiento aplicando algoritmo propuesto en la subsección 4.4. (a)- (d) Segmentación de acuerdo con el paso 4.2 del algoritmo de la subsegmentación. (e)-(h) Sub-segmentación con umbral α = 0,04. (i)-(l) Subsegmentación con umbral α = 0,03. (m)-(o) Sub-segmentación con umbral α=0,02. (p)-(s) Sub-segmentación con umbralα=0, Neurona biológica. Estructura básica Representación de una neurona artificial Funciones de activación aplicadas en las RNA. (a) Identidad. (b) Escalón. (c) Lineal saturada. (d) Sigmoidal. (e) Tangente hiperbólica. (f) Gaussiana Ejemplo de una arquitectura neuronal multicapa Representación de un Perceptrón Regiones de decisión en el plano Representación de una RNA-MLP Generación de un píxel contextual Extracción manual de una ROI utilizando la información proporcionada por la base de datos Imágenes ROI originales de la base de datos Subconjunto de imágenes ROI definidas para el entrenamiento-prueba del sistema Subconjunto de imágenes ROI definidas solo para prueba del sistema Elementos estructurantes usados para la mejora del contraste de las imágenes ROI Mejora de imagen mediante la transformada Top-hat Mejora del contraste de las imágenes ROI mediante la transformada Tophat, usando SE de tamaños: (a) 3 3. (b) 5 5. (c)

28 6.8. Proceso de construcción del conjunto de datos X para cada imagen ROI Proceso de la segmentación y sub-segmentación mediante el agrupamiento de patrones para las imágenes ROI Resultados de la segmentación de las imágenes ROI mediante agrupamiento por k-means. (a) Imágenes ROI originales. (b) Resultados de la primera partición. (c) Resultados de la segunda partición. (c) Resultados de la tercera partición Resultados de la segmentación de las imágenes ROI mediante agrupamiento por FCM. (a) Imágenes ROI originales. (b) Resultados de la primera partición. (c) Resultados de la segunda partición. (c) Resultados de la tercera partición Resultados de la sub-segmentación de las imágenes ROI mediante el PFCM. (a) Imágenes ROI originales. (b) Resultados utilizando el valor de α = 0,04. (c) Resultados utilizando el valor de α = 0,03 (c) Resultados utilizando el valor deα=0, Modelo de comparación para segmentar microcalcificaciones basado en el modelo propuesto por [Fu et al., 2005] Imágenes ROI utilizadas para la segmentación aplicando el modelo de comparación Elemento estructurante usado para la mejora del contraste de las imágenes ROI en el modelo de comparación Mejora del contraste de las imágenes ROI mediante la transformada Tophat, usando un SE de tamaño Detección de bordes aplicando filtros de: (a) Sobel (b) Canny (a) Relleno de regiones una vez encontrados los bordes aplicando los filtros de Sobel & Canny respectivamente. (b) Segmentación de microcalcificaciones en imágenes ROI aplicando el modelo propuesto en [Fu et al., 2005] Proceso para la extracción de características Proceso de clasificación de características Curvas ROC del experimento 1, generadas por los clasificadores para FV con las etiquetas obtenidas por: (a) k-means. (b) FCM. (c) Sub-segmentación por PFCM. (d) Modelo de comparación Resultados de la detección de las microcalcificaciones utilizando segmentación por k-means y el clasificador con estructura 1 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando segmentación por el FCM y el clasificador con estructura 2 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original

29 6.24. Resultados de la detección de las microcalcificaciones utilizando la subsegmentación por PFCM y el clasificador con estructura 3 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando el modelo de comparación y el clasificador con estructura 4 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando segmentación mediante k-means y el clasificador con estructura 1 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando segmentación mediante FCM y el clasificador con estructura 2 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando subsegmentación por PFCM y el clasificador con estructura 3 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original SE del tipo non-flat usado para el experimento Curvas ROC del experimento 3, generadas por los clasificadores para FV con las etiquetas obtenidas por: (a) k-means. (b) FCM. (c) Sub-segmentación por PFCM Resultados de la detección de las microcalcificaciones utilizando segmentación por k-means y el clasificador con estructura 1 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando segmentación por el FCM y el clasificador con estructura 2 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original Resultados de la detección de las microcalcificaciones utilizando la subsegmentación por el PFCM y el clasificador con estructura 3 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 203

30

31 Índice de tablas 1.1. Clasificación de las microcalcificaciones Representación de un conjunto de píxeles de una imagen en niveles de gris Resultado de la erosión por SE de 3 3 representado en la Figura 3.12(b), aplicada al conjunto de píxeles de una imagen en niveles de gris, representado en la Tabla Resultado de la dilatación por SE de 3 3 representado en la Figura 3.12(b), aplicada al conjunto de píxeles de una imagen en niveles de gris, representado en la Tabla Valores de CII obtenidos con algunas de las técnicas de mejora de imagen para las imágenes ROI de la Figura Campos de aplicación de la segmentación de imágenes Aplicaciones de las Redes Neuronales Artificiales Modelos de tamaños de regiones a analizar los vectores de los píxeles contextuales mediante las media y la desviación estándar Matriz de confusión Resultados de la asignación de etiquetas a los vectores de las imágenes ROI Resultados de la asignación de etiquetas a los vectores de las imágenes ROI aplicando el modelo de comparación Resultados del balanceo de FV Número de patrones usados para el entrenamiento y prueba de los diferentes clasificadores utilizados Mejores estructuras de red usadas en la etapa de clasificación Matrices de confusión de las mejores clasificaciones obtenidas aplicando los diferentes clasificadores Resultados de la asignación de etiquetas a los vectores de las imágenes ROI, para el experimento Resultados del balanceo para el experimento XXV

32 6.9. Número de patrones usados para entrenamiento y prueba para cada clasificador en el experimento Mejores estructuras de red usadas en la etapa de clasificación del experimento Matriz de confusión de los clasificadores usados en el experimento

33 Lista de acrónimos ACS AI Sociedad Americana del Cáncer Artificial Intelligence ANN Artificial Neural Networks BP CAD Backpropagation Algorithm Computer Aided Diagnosis DDSM Digital Database for Screening Mammography FFDM Full Field Digital Mammography FFP FV FVN FVP Fracción de Falsos Positivos Vector de Características Fracción de Verdaderos Negativos Fracción de Verdaderos Positivos IARC Agencia Internacional para la Investigación del Cáncer LoG Laplaciano de una Gaussiana MIAS Mammographic Image Analysis Society MLP MM MSE NCI Multilayer Perceptron Morfología Matemática Mean Square Error Instituto Nacional del Cáncer OMS Organización Mundial de la Salud PCM RNA Posibilista c-means Redes Neuronales Artificiales XXVII

34 ROC ROI CCD dpi FCM Receiver Operating Characteristic Región de Interés Charge-Coupled Device Dots per inch Fuzzy c-means PFCM Posibilista Fuzzy c-means RP Reconocimiento de Patrones

35 Parte I Introducción 1

36

37 Capítulo 1 Introducción 1.1. Cáncer de mama El cáncer de mama es el tipo de cáncer más frecuente y una de las principales causas de muerte entre la población femenina a nivel mundial, registrándose 411,000 muertes al año a causa de esta enfermedad [OMS, 2010]. Actualmente, la mamografía es el método más eficaz para detectar lesiones mamarias, contribuyendo al diagnóstico precoz de esta enfermedad ya que, si es detectada a tiempo, la probabilidad de curación es muy alta [Marrocco et al., 2010]. Uno de los principales y más frecuentes hallazgos en una mamografía son las microcalcificaciones, que están consideradas como un indicador importante de cáncer de mama. Las microcalcificaciones son pequeñas acumulaciones de calcio que aparecen generalmente como pequeños puntos brillantes en una mamografía. Entre un 30 y 50 % de los casos diagnosticados como cáncer de mama a nivel mundial, han sido a través de la detección de microcalcificaciones [Cheng et al., 2003]. La interpretación visual de la mamografía es una tarea muy tediosa y fatigante ya que su análisis consume mucho tiempo. Esto es debido a algunos factores tales como: el tamaño de las microcalcificaciones, las variaciones en su forma, su ubicación así como el bajo contraste entre éstas y el tejido mamario. En consecuencia, la subjetividad es uno de los principales problemas a los que se enfrenta el especialista en la detección de lesiones mamarias, en este caso microcalcificaciones, cuando analiza imágenes de mamografía. Durante los últimos años, se han desarrollado sistemas que han sido de gran ayuda en la investigación con el objetivo de contribuir en la detección temprana de esta enfermedad así como de apoyo al especialista radiólogo en diferentes actividades. Por lo general, estos sistemas están asistidos por ordenador y, mediante diferentes técnicas de análisis de imagen, permiten, al radiólogo, realizar o mejorar su diagnóstico. Dependiendo del grado de ayuda proporcionado, estos sistemas se pueden dividir en dos tipos: 3

38 1.1 Cáncer de mama 1. Sistemas que mejoran las condiciones de visualización de las imágenes con el objetivo de facilitar el diagnóstico del radiólogo. 2. Sistemas que, a partir de determinada información, realizan de forma automática un diagnóstico que puede actuar como una segunda opinión. Este tipo de sistemas son conocidos como: sistemas de diagnóstico asistido por ordenador (CAD, Computer Aided Diagnosis). En ambos casos, el objetivo es mejorar la sensibilidad (probabilidad de detectar un cáncer cuando este existe) y especificidad (probabilidad de obtener un resultado negativo cuando no existe un cáncer) del diagnóstico. Para el presente trabajo de tesis, el objetivo principal es proponer y desarrollar un sistema capaz de detectar microcalcificaciones en imágenes conocidas como regiones de interés, las cuales son extraídas de mamografías digitalizadas, para contribuir en la detección temprana del cáncer de mama. La realización del sistema se encuentra basada en la aplicación de técnicas de Procesamiento Digital de Imagen, Reconocimiento de Patrones así como Inteligencia Artificial. Por otro lado, también se considera importante el poder interpretar la información arrojada por el sistema. Para esto, el sistema serviría como una herramienta a disposición del especialista (radiólogo), la cual, le proporcione una información objetiva de las imágenes que se analicen así como de las características que de ellas se puedan extraer mediante el uso de un ordenador. El resultado de dicho análisis se puede aplicar en las siguientes etapas del diagnóstico: Detección de microcalcificaciones con dificultad de visibilidad. Extracción de determinadas características. Clasificación de patrones en microcalcificación o tejido sano Factores de riesgo Según un estudio realizado por la Agencia Internacional para la Investigación del Cáncer (IARC, International Agency for Research on Cancer), agencia perteneciente a la Organización Mundial de la Salud (OMS), se han diagnosticado y registrado 4.4 millones de casos de mujeres con cáncer de mama a nivel mundial en los cinco años anteriores al estudio, lo que le convierte en el tipo de cáncer con más prevalencia en la actualidad [Boyle & Levin, 2008]. Aunque el cáncer de mama está considerado como una enfermedad de los países desarrollados, la mayoría de los casos de mortalidad debido a él se registran en países en vías de desarrollo, esto se debe principalmente a algunos factores tales como: la falta de acceso a programas de detección temprana, los servicios adecuados de diagnóstico y tratamiento así como la falta de información, resaltando una clara relación entre su mortalidad y el nivel de desarrollo del país en cuestión [Knaul & 4

39 1. INTRODUCCIÓN López-Carrillo, 2009]. El origen del cáncer de mama no se conoce exactamente, pero lo que sí se conoce son los factores de riesgo que pueden aumentar la probabilidad de padecerlo. De acuerdo con información publicada por la Sociedad Americana del Cáncer (ACS, American Cancer Society) y el Instituto Nacional del Cáncer (NCI, National Cancer Institute) sobre los factores de riego sobre el cáncer de mama, se pueden destacar los siguientes: Antecedentes personales: las mujeres que han tenido cáncer de mama tienen más probabilidades de volver a desarrollarlo. Antecedentes familiares: la probabilidad de que una mujer pueda desarrollar cáncer de mama aumenta si su madre, hermana o hija han tenido antecedentes de cáncer de mama (especialmente si fue diagnosticado antes de los 50 años de edad). Algunos cambios de la mama en la biopsia: las mujeres a las que se les han practicado dos o tres biopsias en la mama a causa de otros estados benignos también tienen una mayor probabilidad de desarrollar cáncer. Este aumento es debido a la situación que condujo a la biopsia y no a la biopsia en sí. Alteraciones genéticas: alteraciones específicas en ciertos genes aumentan el riesgo de padecer cáncer de mama. Antecedentes de reproducción y menstruación: la evidencia indica que, Cuanto mayor sea la edad de la mujer al tener su primer alumbramiento, mayor será la probabilidad de que desarrolle cáncer de mama. Las mujeres que empezaron a menstruar a una edad temprana (a los 11 años o menos), que tuvieron la experiencia de una menopausia tardía (después de los 55 años) o que nunca tuvieron hijos, tienen un riesgo mayor de desarrollar cáncer de mama. Las mujeres que han seguido una terapia de reemplazo de hormonas durante un tiempo prolongado parecen tener también una mayor probabilidad de desarrollar cáncer de mama. Densidad de la mama: las mamas presentan una apariencia densa en una mamografía si contienen muchas glándulas y ligamentos (denominado tejido denso) y no tienen mucho tejido graso. Ya que el cáncer de mama casi siempre se desarrolla en el tejido denso de la mama (no en el tejido graso). Las mujeres de más edad, en quienes las mamografías muestran que tienen tejido denso en su mayoría, tienen un riesgo mayor de padecer cáncer de mama. Las anormalidades se detectan con más dificultad en una mamografía realizada en mamas densas. Antecedente de exposición a radiación: las mujeres que recibieron radiación en la región del tórax como tratamiento contra otro tipo de cáncer (antes de los 30 años), tienen un riesgo mayor de desarrollar cáncer de mama. 5

40 1.1 Cáncer de mama Factores de dieta y de estilo de vida: se piensa que la dieta tiene un papel en el riesgo de cáncer de mama, aunque, aún no se han identificado cuales son los factores dietéticos que afectan el riesgo. Algunos estudios han encontrado que la obesidad y el sobrepeso en las mujeres postmenopáusicas aumentan el riesgo de cáncer de mama. Sin embargo, la edad es considerada como el factor más importante de riesgo para el cáncer de mama. Cuanta más edad tenga la mujer, mayor será su probabilidad de desarrollar este tipo de cáncer. De acuerdo con el NCI, la mayoría de los casos de cáncer de mama ocurren en mujeres mayores de 50 años. El número de casos es especialmente alto en mujeres mayores de 60 años y relativamente raro en mujeres menores de 40 años de edad. Para mayor información acerca del riesgo de cáncer de mama en el transcurso de la vida se puede consultar [NCI, 2010] Métodos de detección del cáncer mama El cáncer de mama es más fácil de detectar de manera eficaz en sus primeras etapas. La tasa de supervivencia disminuye drásticamente cuando se presenta en casos muy avanzados, por lo tanto, una estrategia fundamental para reducir la mortalidad por cáncer de mama es aumentar la proporción de casos que se detectan durante sus primeras etapas. Aunque no existe una manera segura de prevenir el cáncer de mama, hay factores que son considerados como una pieza clave para mejorar el pronóstico y la supervivencia así como para provocar un descenso de la tasa de mortalidad en casos donde está involucrado este tipo de cáncer [Khatib & Modjtabai, 2006], [ACS, 2010a]. Entre los factores más importes se encuentran: La detección durante una etapa temprana. Un mejor acceso a la información. Avances en los tratamientos. En la actualidad existen varias técnicas para detectar el cáncer de mama en una etapa temprana: La autoexploración mamaria, es una técnica que está basada en la observación y palpación que hace la mujer en sus propias mamas. La ACS recomienda la autoexploración de forma regular, por lo menos una vez al mes después del periodo menstrual a partir de los 20 años. Examen clínico, consiste en una revisión por parte de profesional de la salud, por ejemplo, un médico, una enfermera o un radiólogo, que incluye una inspección visual así como una palpación de las mamas. La ACS recomienda que las mujeres con edades entre los 20 y 39 años se realicen un examen clínico al menos una vez cada tres años y, a partir de los 40 años, al menos uno por año. 6

41 1. INTRODUCCIÓN Mamografía, en la sección 1.2 se presenta de una forma más detallada esta técnica. Dentro de las técnicas de detección temprana de cáncer de mama, la mamografía es la única que ha demostrado hasta el momento beneficios en cuanto a la reducción de la tasa de mortalidad causada por esta enfermedad [ACS, 2010a]. Para una información mas amplia y detallada acerca de las técnicas de detección temprana del cáncer de mama se recomienda la siguiente literatura, [ACS, 2010a], [NCI, 2010], [Khatib & Modjtabai, 2006], [Knaul & López-Carrillo, 2009] Programas de screening El objetivo principal de los programas de screening (screening y detección temprana habitualmente son usados como sinónimos) para detectar y diagnosticar el cáncer de mama, es identificar una población de mujeres, aparentemente sanas (asintomáticas) e intentar encontrar la existencia de una lesión que no se sospecha, en un período de tiempo en que la curación es posible. La finalidad de los programas de screening es la reducción de la tasa de mortalidad, la mejora de la calidad de vida, así como el equilibrio entre el coste y el beneficio. En los programas de screening, la mamografía es una parte fundamental ya que es capaz de detectar lesiones que no son palpables Mamografía La mamografía es una técnica utilizada para detectar cáncer de mama en una etapa temprana, con el fin de reducir la tasa de mortalidad debido a esta enfermedad. La mamografía consiste en una exploración diagnóstica de imagen mediante rayos X de las mamas, cuyo objetivo es detectar anormalidades en una etapa temprana. La imagen se forma debido a la diferente atenuación sufrida por lo rayos al atravesar los elementos que conforman la mama. El mapa bidimensional de radiación atenuada por la mama incide sobre el receptor de imagen (la placa radiográfica en un mastógrafo convencional o el detector electrónico en un equipo digital), y en éste se forma una imagen latente que se hace visible mediante un proceso químico o electrónico, de acuerdo con el equipo con que se cuente. Sin embargo, la forma de realizar la mamografía, ya sea de manera convencional o digital sigue siendo la misma. En la Figura 1.1 se puede observar como se lleva a cabo el procedimiento. Un estándar de las mamografías para los programas de screening consiste en obtener cuatro radiografías por paciente, dos vistas para cada seno, un par de la parte frontal llamadas Cráneo-Caudal (CC) y un par para la parte lateral llamadas Medio Lateral (ML), ver Figura 1.2. Estas vistas son importantes ya que algunas veces una anormalidad o región sospechosa puede ser omitida por el radiólogo en una vista, pero podrá ser descubierta en otra vista de la mamografía. Para obtener imágenes precisas, es importante que la mama se comprima hasta un espesor uniforme, minimizando así 7

42 1.2 Programas de screening Figura 1.1: Ejemplo de un estudio de Mamografía. (Fuente [NCI, 2010]) la exposición a la radiación, lo que permite una mejor visualización de las posibles anomalías. La mamografía muestra los diferentes elementos que conforman la mama, como son el tejido conjuntivo, el tejido glandular, el tejido graso así como la piel. La apreciación de estos elementos se debe a la diferencia de densidades que existe entre ellos, por ejemplo, las zonas oscuras corresponden a tejido blando y las zonas blancas a tejido denso. (a) (b) (c) (d) Figura 1.2: Vistas estándar de mamografía.(a)ml-derecha, (b)ml-izquierda, (c)cc- Derecha y (D)CC-Izquierda Diversos estudios han demostrado que la sensibilidad obtenida en los programas de screening mediante mamografía varía entre 85 % y 95 % y la especificidad es superior al 90 % [ACS, 2010b]. Esto hace que la mamografía sea la técnica más eficaz en la detección temprana del cáncer de mama. La exactitud del diagnóstico en la interpretación de la mamografía puede aumentar si existe una doble lectura (llamado también doble revisión), esto es, sí dos radiólogos revisan cada mamografía o el mismo radiólogo 8

43 1. INTRODUCCIÓN realiza una doble lectura [Helvie, 2007]. Otro planteamiento de doble lectura puede ser, que tanto un radiólogo como un sistema CAD analizaran las mamografías, sirviendo éste último de segunda lectura. Algunos estudios realizados demuestran que la doble lectura aumenta la tasa de detección del cáncer entre un 5 y 15 %, aunque esto refleje un aumento del coste por cada caso. A continuación se mencionan algunas de las recomendaciones sobre la frecuencia de estudios de mamografía propuestas por la IARC [Khatib & Modjtabai, 2006]: Existe suficiente evidencia de que la mamografía anual o bianual es eficaz en la reducción del 25 % de la tasa de mortalidad por cáncer de mama en las mujeres de edades comprendidas entre los 50 y 69 años. Existe una evidencia limitada de que la mamografía es eficaz en la reducción del 11 % de la tasa de mortalidad por cáncer de mama en las mujeres de edades comprendidas entre los 40 y 49 años. Ninguna conclusión directa fue posible sobre la eficacia de la mamografía en mujeres menores de 40 o mayores de 69 años Hallazgos en la mamografía La mama representa un verdadero desafío para la obtención de su imagen radiológica debido a que está constituida por tejidos muy similares entre sí y porque las lesiones de interés buscadas por el radiólogo como indicadores de anormalidad algunas veces son muy pequeñas o muy parecidas al tejido normal. La imagen mamográfica solo permite visualizar las anormalidades y la severidad de la lesión evaluada. Las características de la imagen pueden llevar al radiólogo a solicitar la toma de una biopsia del tejido sospechoso. La malignidad solo se determina a través del análisis patológico [Brandan & Villaseñor- Navarro, 2006]. Las anormalidades más comunes en una mamografía son (ver Figura 1.3): Microcalcificaciones. Masas. Distorsión arquitectural. Densidad asimétrica. Las microcalcificaciones representan un porcentaje entre el 30 % y 50 % de las anormalidades consideradas no palpables en la mama detectadas mamográficamente [Cheng et al., 2003]. Por lo tanto, son el tipo de anormalidad más frecuente en los programas de detección temprana del cáncer de mama mediante mamografía. Por lo anteriormente expuesto, el presente trabajo de tesis está enfocado a contribuir al estado del arte sobre detección de microcalcificaciones en mamografía con la finalidad de detectar el cáncer de mama en una etapa temprana. 9

44 1.2 Programas de screening 50 (a) (b) (c) (d) Figura 1.3: Tipos de anormalidad encontrada en una mamografía. (a) Microcalcificaciones. (b) Masa. (c) Distorsión arquitectural. (d) Densidad asimétrica Microcalcificaciones Una señal importante de posible cáncer de mama es la existencia de pequeños depósitos de calcio incrustados en el tejido de la mama, usualmente llamados microcalcificaciones. Las sustancias de las que están compuestas hacen que la absorción de los rayos X sea mayor que las de los otros elementos que conforman a la mama por lo que, en la mamografía, aparecen como regiones más brillantes que sus proximidades. Desde hace algunos años, los radiólogos han estado intentado realizar una clasificación de las microcalcificaciones. En la Tabla 1.1 se muestra el resultado de dicha clasificación [Adúriz, 2007]. Tipo Descripción % Malignidad II III IV V I Microcalcificaciones anulares, redondeadas, de centro claro. Microcalcificaciones punctiformes regulares, redondeadas, con el centro y la superficie de la microcalcificación de idéntico tono cálcico. Microcalcificaciones en polvo, muy finas sin poder precisar su forma ni su número, en el límite de la visibilidad. Microcalcificaciones punctiformes irregulares, poliédricas, en grano de sal. Microcalcificaciones vermiculares, alargadas, en bastoncillos (como un árbol sin hojas). Tabla 1.1: Clasificación de las microcalcificaciones Además de esta clasificación, se han considerado otros factores a la hora de valorar qué 10

45 1. INTRODUCCIÓN tipo de microcalcificaciones son más susceptibles de corresponder a un cáncer maligno: Número de microcalcificaciones por cm 2 : Más de 20 por cm 2 es más frecuente en lesiones malignas. Número total de microcalcificaciones: Más de 30 microcalcificaciones en total es sospechoso de malignidad. Irregularidad de la densidad y del tamaño: Más común en los tumores malignos. Distribución lineal o en ramas: Típico de tumor maligno. Desde el punto de vista de la imagen, las características más importantes de las microcalcificaciones son: Aparecen como puntos más o menos brillantes incrustados en el tejido de la mama Son muy pequeñas. El tamaño se encuentra en el rango de 0,1 1,0 mm, y el promedio es aproximadamente 0,3 mm. Algunas microcalcificaciones aisladas son mas pequeñas que 0,1 mm y algunas veces no se alcanzan distinguir a causa del ruido en la mamografía. Por lo general varían en tamaño, forma y distribución, por lo tanto es imposible que correspondan al mismo patrón. Pueden tener un bajo contraste así que la diferencia de intensidad entre las áreas sospechosas y el tejido circundante puede ser realmente pequeña. Pueden estar estrechamente asociadas al tejido circundante, así que algoritmos simples de segmentación no pueden ser de gran utilidad para su detección. En algunos tejidos densos, especialmente en senos de mujeres más jóvenes, las regiones sospechosas son casi invisibles. Debido a esto las microcalcificaciones son más fáciles de malinterpretar Bases de datos de mamografía digitalizada Existen diferentes bases de datos de mamografía digitalizada desarrolladas por grupos de investigación de universidades, institutos y hospitales con una doble finalidad. Por un lado, capacitar al personal especialista en el campo de interés y, por otro lado, que la comunidad investigadora pueda desarrollar, probar y comparar sus algoritmos computacionales con el objetivo de asistir al especialista en el desempeño de su trabajo. Aunque la mayoría de estas bases de datos no están disponibles de manera libre, existen algunas que se encuentran disponibles de manera gratuita y por este motivo son las más utilizadas por la comunidad investigadora. Dentro de las más importantes se pueden citar: 11

46 1.3 Bases de datos de mamografía digitalizada 1. Base de Datos de Mamografía Digitalizada (DDSM, Digital Database for Screening Mammography). Esta base de datos fue desarrollada en colaboración conjunta entre el Hospital General de Massachusetts (D. Kopans, R. Moore), la Universidad del Sur de la Florida (K. Bowyer) y los Laboratorios Nacionales Sandia (P. Kegelmeyer). Esta base datos cuenta con el respaldo del Programa de Investigación del Cáncer de Mama de la Armada de los Estados Unidos. 2. Base de datos MIAS. Esta base de datos fue desarrollada por la Sociedad de Análisis de Imagen Mamográfica (MIAS, Mammographic Image Analysis Society) del Reino Unido. Aunque esta versión no está totalmente disponible, existe una versión reducida conocida como minimias, y esta versión es la que se encuentra de manera libre en la Universidad de Essex en el PEIPA, (Pilot European Image Processing Archive). 3. Base de datos MedPix, esta es una base de datos que fue desarrollada por el Departamento de Radiología y Ciencias Radiológicas de la Armada de los Estados Unidos. Esta base de datos cuenta con imágenes no solo de mamografía, sino también de imágenes de tomografía computarizada y resonancia magnética. En el diseño de sistemas para la detección de microcalcificaciones, la base de datos es un elemento fundamental. Existen bases de datos específicas de mamografías que se encuentran disponibles de manera pública, sin embargo, las imágenes de estas bases de datos difieren en resolución, en el tipo de sensor utilizado en el momento de la digitalización, en la cantidad de información verdadera que contengan y en su calidad. En estas bases de datos, los casos son previamente diagnosticados y clasificados por expertos. Además, son una parte fundamental para las etapas de entrenamiento, prueba y validación en el desarrollo de algoritmos que constituyen a los sistemas de detección de lesiones mamarias y que posteriormente asistirán a los especialistas en el desempeño de su trabajo. Entre la información proporcionada por las bases de datos sobre mamografía, se puede contar: Datos generales de la paciente. Información correspondiente al tipo de lesión. Información sobre ubicación de la lesión. Información sobre la clasificación de la diagnosis. Resolución espacial de la imagen. Información sobre los dispositivos usados para la digitalización de la imagen. Formato de la imagen. En algunos casos las imágenes tienen una marca la cual fue realizada por los radiólogos, con el objetivo de mostrar la región de interés (ROI), en donde se ubican la o las lesiones. 12

47 1. INTRODUCCIÓN Entonces, la ROI corresponde a un área específica de la mamografía que contiene información relevante sobre la lesión presente en la imagen. En la Figura 1.4 se muestra una ROI marcada en una mamografía. Figura 1.4: Mamografía marcada con una Región de Interés. Para este trabajo de tesis en particular se creó una pequeña base de datos de imágenes de mamografía digitalizada extraídas de la base de datos MIAS [Suckling et al., 1994] Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador Como se ha mencionado, la mamografía es uno de los métodos más fiables para le detección temprana del cáncer de mama. Sin embargo, cuando se trata de un programa de detección temprana de cáncer de mama, es difícil, para el especialista radiólogo, proporcionar una evaluación de forma precisa y uniforme, debido al enorme número de mamografías generadas en este tipo de programas. Por otro lado, entre el 10 y 30 % de las lesiones en imágenes médicas, específicamente las mamografías, son omitidas por parte del radiólogo, debido algunas limitaciones tales como: Una mala calidad de imagen. Dificultad en la percepción de la imagen. Condiciones visibilidad. Experiencia del especialista. 13

48 1.4 Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador Cansancio y concentración. Subjetividad en la interpretación. Actualmente, con los avances de los sistemas de detección asistida por ordenador basados en procesamiento digital de imagen, reconocimiento de patrones e inteligencia artificial, los radiólogos cuentan con la oportunidad de mejorar su diagnóstico mediante el apoyo de estos sistemas, mejorando la sensibilidad hasta en un promedio 10 % [Cheng et al., 2003]. Durante los últimos años, una gran cantidad de trabajos relacionados la detección de lesiones en imágenes de mamografía aplicando sistemas CAD han sido publicados. En este sentido, los sistemas CAD pretenden caracterizar y detectar patrones normales o anormales dentro de la imagen, con la finalidad de mejorar la precisión y consistencia en el diagnóstico obtenida por los expertos. En un sistema CAD, el análisis de la imagen mediante el ordenador se usa para sugerir las posibles regiones sospechosas (regiones de interés) y para que el radiólogo pueda examinar con mayor cuidado dichas regiones. Dicho análisis también permite obtener información objetiva así como extraer características que sirvan de ayuda en diferentes etapas del diagnóstico tales como: Detección y clasificación de lesiones. Extracción de características. Cuando se aplican sistemas CAD a imágenes de mamografía para detectar cáncer en una etapa temprana, los tipos de lesiones más comúnmente encontrados son masas y microcalcificaciones, siendo las microcalcificaciones el tipo de lesión más frecuente. En la Figura 1.5 se muestra un diagrama general de bloques de un sistema CAD típico para la detección de microcalcificaciones Revisión de la literatura en la detección de microcalcificaciones La alta correlación que existe entre la aparición de microcalcificaciones o grupos de microcalcificaciones y la enfermedad muestra que la detección/clasificación automática de microcalcificaciones puede ser de gran utilidad para el control del cáncer de mama. A pesar de que los sistemas CAD han sido de gran ayuda para la interpretación de las mamografías durante más de tres décadas, la interpretación automática de las microcalcificaciones sigue siendo una tarea difícil. Esto se debe a algunas características relacionadas con su naturaleza difusa, su bajo contraste y su poca visibilidad en su entorno. 14

49 1. INTRODUCCIÓN Figura 1.5: Diagrama general a bloques de un sistema CAD típico para la detección de microcalcificaciones. 15

50 1.4 Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador En el estudio de los sistemas CAD para la caracterización de lesiones, la robustez del sistema depende de la detección y segmentación de todas las microcalcificaciones de forma individual o en una agrupación, así como de las características empleadas. Esto significa que el uso de diferentes métodos conduce a diferentes resultados. En la mayoría de los sistemas CAD, la caracterización de la imagen es determinante para el criterio de detección de microcalcificaciones. En algunas investigaciones, estos criterios aplicados a las agrupaciones de microcalcificaciones son variables. Diversos trabajos de investigación se han desarrollado con la finalidad de detectar y/o clasificar microcalcificaciones en mamografía digitalizada. Estos trabajos pueden estar basados en un sistema CAD como el que se presentó en la Figura 1.5 o en sistemas de visualización automática para el análisis de imagen mamográfica. De acuerdo a diversos autores, ambos tipos de sistemas constan, por lo general, de las siguientes etapas: Adquisición y preprocesamiento de la imagen. Detección y localización de zonas sospechosas. Segmentación Clasificación o diagnóstico. La gran mayoría de estos trabajos se encuentran enfocados a aportaciones novedosas o a la modificación de alguna(s) de las etapas que componen a dichos sistemas. A continuación se presentan algunas contribuciones al estado del arte correspondiente a este tema, las cuales sirvieron de referencia para este trabajo de tesis. [Zhao et al., 1992] en su trabajo proponen un método basado en morfología matemática para detectar microcalcificaciones. En este trabajo se utilizan operaciones de filtrado morfológico con el objetivo de detectar regiones sospechosas en una mamografía así como de proporcionar información de la localización de las microcalcificaciones con formas y tamaños definidos, para el examen de un radiólogo. La metodología propuesta se desarrolló de la siguiente manera: la primera etapa consta de un preprocesamiento de la imagen para eliminar el ruido de la misma. En la segunda etapa, se obtuvo información de la señal mediante operaciones de morfología matemática. En la tercera etapa se seleccionó un valor de umbral. La cuarta etapa consta de una clasificación de regiones sospechosas considerando la forma y el tamaño de la señal. Por último, en la quinta etapa, se reconstruyen los niveles de gris alrededor de las regiones sospechosas. En las etapas tercera y cuarta fue necesaria la ayuda de un radiólogo. En el caso de [Strickland, 1994], la detección de microcalcificaciones se enfoca al uso de la transformada wavelet en combinación con el criterio propuesto por [Brake & Karssemeijer, 1997], donde se analiza el tamaño, la forma y el número de microcalcificaciones por unidad de área. [Veldkamp & Karssemeijer, 2000] utilizan técnicas clásicas en 16

51 1. INTRODUCCIÓN el proceso de caracterización de las lesiones sobre mamografías enfocadas a la detección de microcalcificaciones. En numerosos trabajos se han aplicado técnicas clásicas de procesado de imagen, como la ecualización de la imagen, para ajustar la distribución de la información contenida en la misma, la cual es determinante para aumentar la fracción de verdaderos positivos y minimizar la fracción de falsos positivos. Una gran cantidad de trabajos realizan la detección de lesiones combinando otras técnicas clásicas como es la detección de contornos, con el uso de operadores morfológicos con las máscaras de Sobel, Roberts, Laplaciano y Gradiente [Gonzalez & Woods, 2002], [Morrow et al., 1992], hasta la extracción de características por técnicas multirresolución [Dhawan et al., 1996], [Strickland & Hahn, 1996], [Laine et al., 1994b]. [Li et al., 2002], investiga sobre un método de detección de masas basado en FFDM (Full Field Digital Mammography) usando técnicas multiescala no lineales y métodos de clasificación de híbridos. En este trabajo los autores realizan una modificación de un trabajo previo, el cual estaba basado en el procesado de imágenes para extraer características con el uso de la transformada wavelet. En [Betal et al., 1997] aplicaron una metodología basada en morfología matemática y la transformada watershed para detectar y segmentar microcalcificaciones en mamografía digitalizada. En este trabajo se realizó una mejora de imagen con la finalidad de suavizar regiones homogéneas y resaltar los bordes. Mediante operaciones morfológicas tales como apertura, cierre y binarización obtuvieron unos marcadores únicos para las microcalcificaciones. En la etapa final de la metodología se utilizó un análisis numérico de las microcalcificaciones detectadas, así como información sobre el área y las dimensiones de las microcalcificaciones. [Yu & Guan, 2000], proponen un sistema CAD para la detección automática de microcalcificaciones en mamografía digitalizada. El sistema se compone principalmente de dos etapas. La primera etapa consiste en segmentar los píxeles de la mamografía que corresponde a las posibles microcalcificaciones. Esta segmentación es llevada a cabo mediante el etiquetado de la conectividad espacial de una mezcla de características extraídas de los píxeles. Estas características son estadísticos de niveles de gris y características mediante transformada wavelet. La segunda etapa consiste en un clasificador basado en una red neuronal artificial, el cual se encarga de generar una imagen con píxeles correspondientes con las posibles microcalcificaciones, utilizando las características de la primera etapa como entrada a la red neuronal artificial. [Verma & Zakos, 2001] presentan un sistema de diagnóstico basado en ordenador para detectar y diagnosticar patrones de microcalcificaciones en mamografía. Este trabajo está basado en técnicas como: redes neuronales artificiales, lógica difusa así como extracción de características. En esta investigación, los autores analizan técnicas de extracción de características para encontrar la mejor combinación de éstas y que mejor representen a los patrones pertenecientes a microcalcificaciones benignas y malignas, encontrando que las mejores características son la entropía, la desviación estándar así como el número de píxeles. Posteriormente, una regla difusa en combinación con estas características son usadas para detectar los patrones de las microcalcificaciones para 17

52 1.4 Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador que finalmente una red neuronal artificial clasifique dichos patrones como malignos o benignos. [Andina & Vega-Corona, 2001], proponen un método para la detección de microcalcificaciones en mamografía digitalizada. El método está basado en un análisis mediante transformada wavelet y un clasificador basado en una red neuronal artificial. El objetivo es una extracción de características de borde a diferentes escalas mediante transformada wavelet, la intensidad del valor del píxel así como la desviación estándar de los valores de intensidad de los píxeles. Una vez obtenida la información, ésta se agrupa para que, en una etapa posterior, sirva como entrada al clasificador neuronal bajo el criterio de Neyman-Pearson. La extracción de características de borde se realiza mediante la magnitud del Gradiente a partir de la transformada wavelet. Para la etapa de detección se utiliza una red neuronal artificial como es el Perceptrón Multicapa mediante el algoritmo de retropropagación para la interpretación de las características extraídas. El método propuesto en este trabajo enfatiza, por una parte, la capacidad de las wavelets como una herramienta de gran potencial para realizar la extracción de características en aplicaciones en donde la cantidad de información que se maneja es muy grande, por otro lado, las ventajas de las redes neuronales aplicadas al problema de la detección y caracterización automática de singularidades en mamografía. El propósito de la optimización de la red neuronal bajo el criterio Neyman-Pearson tiene por finalidad que el clasificador tenga una probabilidad baja y controlada de clasificar una mamografía de anormal como normal. [Papadopoulos et al., 2002], proponen un sistema inteligente para la identificación de agrupamientos de microcalcificaciones en mamografía digitalizada. El sistema está basado en tres etapas principalmente, preprocesamiento y segmentación, especificación de ROIs así como la extracción y clasificación de características. La primera etapa del sistema comienza con una segmentación de imagen de la mamografía completa, esto es, la delineación de la región de la mama del resto de la imagen mediante un técnica de umbralización. Después se realiza una sub-división de la imagen en regiones, para que posteriormente a estas regiones sea aplicada una técnica de mejora de imagen mediate morfología matemática. La etapa de especificación de ROIs se realiza mediante la conectividad de píxeles vecinos. En la tercera etapa, un conjunto de 54 características fueron extraídas de las ROIs encontradas en la segunda etapa. Finalmente, un clasificador basado en una red neuronal artificial es usado con el objetivo de especificar si las ROIs corresponden con agrupaciones de microcalcificaciones o no. El desempeño de este sistema fue evaluado mediate una curva ROC. [Vega-Corona et al., 2003], analizan solo una parte de la imagen completa, llamada región de interés, de una mamografía digitalizada para la detección de microcalcificaciones. En este trabajo, primero se realizó una segmentación basada en una técnica clásica de procesamiento digital de imagen como es la ecualización del histograma, en donde los valores con un brillo muy alto fueron realzados y los valores con un brillo muy bajo fueron atenuados. Posteriormente realizó una extracción de características 18

53 1. INTRODUCCIÓN aplicando la transformada wavelet de uno a cuatro niveles de resolución así como características estadísticas de nivel de gris como el contraste local y contraste local normalizado y construir un vector de características. En la etapa siguiente, a ese vector de características se le asignó una etiqueta mediante un algoritmo de agrupamiento como lo es el k-means, obtenido dos clases, una perteneciente a microcalcificaciones y la otra a tejido normal. Posteriormente se realizó una selección de las mejores características aplicando una red neuronal artificial de regresión general GRNN. Finalmente, de acuerdo con los resultados obtenidos en su trabajo, los autores concluyen que la ventaja de sensibilidad contra la especificidad es buena cuando los vectores de características son pequeños, de una manera eficiente hacen una discriminación entre tejido sano y microcalcificaciones a través de la aplicación de las redes neuronales artificiales. [Fu et al., 2005] proponen un método para detectar microcalcificaciones en mamografía digitalizada basado en dos etapas. En la primera etapa de este trabajo los autores se basan en modelo matemático para calcular la posición, la forma y los bordes de las posibles microcalcificaciones. Dicho modelo está basado principalmente en operaciones de morfología matemática tales como la transformada Top-hat, operación de cerradura así como la detección de bordes mediante Canny y Sobel. La segunda etapa consiste en una clasificación mediante una red neuronal artificial y una maquina de vector de soporte de las posibles microcalcificaciones detectadas en la primera etapa. La clasificación esta basada en la selección secuencial de características tales como textura y características en el dominio espacial y frecuencial. [Cheng et al., 2004] presentan un trabajo basado principalmente en lógica difusa y un filtro conocido como el Laplaciano de una Gaussiana (LoG) para la detección microcalcificaciones. Este trabajo consta de las siguientes etapas: normalización de imagen, fusificación de imagen, mejora del contraste de la imagen y aplicación del filtro LoG. En este trabajo los autores utilizan la entropía difusa y la teoría de conjuntos difusos para obtener de una manera automática la función de pertenencia difusa. La mejora del contraste de la imagen esta basada en una media de homogeneidad, la cual es calculada por medio de una red neuronal artificial. Finalmente el filtro LoG es usado para determinar el tamaño y la ubicación de la microcalcificaciones. [Sepehr et al., 2005], presenta un método para la detección de microcalcificaciones en mamografía digitalizada. En la primera etapa de este trabajo se realizó un preprocesamiento basado en una segmentación para localizar la región de la mama, ya que trabajan con mamografías a campo completo. La segmentación se realizó por medio de una umbralización de intensidad de nivel de gris y una supresión de ruido mediante un filtro de medias. En este trabajo se usó la transformada wavelet discreta mediante un banco de filtros para la extracción de características de las microcalcificaciones relacionadas con la forma y aspecto. Se utilizaron 4 diferentes tipos de wavelets a dos niveles de descomposición. Las características obtenidas del análisis wavelet forman un vector, para reducir la dimensión del vector se realizó un análisis de componentes principales. En la etapa de clasificación las características seleccionadas son la entrada de una red neuronal artificial 19

54 1.4 Avances en el diagnóstico del cáncer de mama mediante técnicas de análisis por ordenador Perceptrón Multicapa utilizando el algoritmo de retropropagación. El desempeño de la red es obtenido usando el área bajo una curva generada por la gráfica de fracción verdaderos positivos (sensibilidad) contra la fracción falsos positivos (especificidad). [Peng et al., 2006] presentan un trabajo para detectar microcalcificaciones por medio de la incorporación de un mecanismo llamado knowledge-discovery en algoritmos genéticos (KD-GA). El algoritmo genético es usado para buscar puntos brillantes en una mamografía y el KD-GA es integrado para mejorar el desempeño del algoritmo genético. El KD-GA incluye la evaluación de la posibilidad de que un punto brillante sea una microcalcificación y un ajuste adaptativo de los valores asociados de fitness. En consecuencia el ajuste del fitness es guiar indirectamente al GA para extraer a las verdaderas microcalcificaciones y eliminar las falsas microcalcificaciones. [Rashed et al., 2007] propone a un clasificador supervisado eficiente para mamografías usando la transformada wavelet discreta. Emplea un análisis de imagen multirresolución basado en coeficientes wavelet. Utiliza tres diferentes tipos de coeficientes wavelet, Daubechies 4, 8 y 16 a 4 niveles de resolución. En cada nivel de descomposición, un porcentaje de los coeficientes correspondientes a las bajas frecuencias es usado representar a la correspondiente ROI. Un conjunto de 288 ROIs de píxeles extraídas de mamografías originales de la base de datos MIAS (Mammographic Image Analysis Society) son usadas para probar el algoritmo. El clasificador está basado en el cálculo de la distancia Euclídea. [Halkiotis et al., 2007] presentan un algoritmo para la detección de agrupamiento de microcalcificaciones aplicando morfología matemática y redes neuronales artificiales. En este trabajo utilizan la morfología matemática como una herramienta para extraer las microcalcificaciones cuando éstas se encuentran en una región con un fondo o tejido no uniforme. Además representan a cada mamografía como una representación topográfica, donde las microcalcificaciones aparecen como una elevación que constituyen una región maxima. La extracción de características es realizada desde la mamografía original. Posteriormente, un par de clasificadores basados en redes neuronales artificiales fueron comparados y de acuerdo con el mejor desempeño uno fue seleccionado para realizar la clasificación de las microcalcificaciones. [Verma et al., 2009] presentan una técnica basada en una red neuronal para la clasificación de regiones sospechosas en mamografía digitalizada. En este trabajo los autores introducen un concepto de soft cluster dentro de una capa de la red neuronal en combinación con mínimos cuadrados para optimizar los pesos de la red neuronal. [Stojic & Reljin, 2010] presentan dos métodos para la mejora del contraste de microcalcificaciones en mamografía digitalizada. El primer método está basado en un enfoque multifractal, mientras que el segundo se se basa en la aplicación de operaciones de morfología matemática. Para el primer método, a partir de una imagen se crea un conjunto de imágenes de forma multifractal, en el cual, de forma libre e interactiva, se 20

55 1. INTRODUCCIÓN puede ajustar el nivel de segmentación de las imágenes. Para el segundo método se utiliza una combinación apropiada de operaciones morfológicas, las cuales permiten la mejora del contraste de manera local seguido de una supresión significativa del tejido independientemente de la densidad del mismo. Mediante el proceso iterativo de este método se pueden obtener pequeños detalles brillantes como posibles microcalcificaciones. Para realizar las pruebas de este trabajo, los autores utilizaron imágenes de la base de datos MiniMIAS. [Marrocco et al., 2010] presentan un sistema para la detección de agrupamiento de microcalcificaciones en mamografía digitalizada. Este sistema se compone de diferentes etapas. La primera etapa se compone de una segmentación basada en un algoritmo mediante campos aleatorios de Markov, el cual permite extraer regiones de interés homogéneas. Posteriormente se realiza un análisis de las regiones mediante una clasificación grueso a fino (coarse to fine classification) basada en reglas heurísticas y un clasificador. En esta etapa los autores evitaron tomar una decisión sobre microcalcificaciones individuales y remitirlas a la fase siguiente de agrupamiento a través de un enfoque secuencial. [Jing et al., 2011] proponen un modelo basado en proceso de punto espacial (spatial point process, SPP) para mejorar la detección de microcalcificaciones en imágenes de mamografía. En este modelo el objetivo es explotar la distribución espacial entre las diferentes microcalcificaciones en una imagen durante el proceso de detección. En este trabajo los autores modelan las microcalcificaciones mediante un proceso de punto marcado, en el cual los vecinos espaciales de las microcalcificaciones interactúan entre sí. Entonces las microcalcificaciones son detectadas simultáneamente a través de una estimación máxima asociada con el proceso de punto de marcado. [Sahiner et al., 2012] presentan un sistema para la detección de agrupamiento de microcalcificaciones en tomosíntesis de mama digital (Digital Breast Tomosynthesis, DBT). El sistema propuesto por los autores se compone de las siguientes etapas: selección, agrupamiento y reducción de falsos positivos. En la etapa de selección, la visibilidad de los objetos considerados como microcalcificaciones es incrementada con un módulo de mejora mediante la respuesta de una función en 3D. Utilizando una umbralización iterativa y un método de crecimiento de región, se obtuvieron los centros de los potenciales agrupamientos de las microcalcificaciones. En la etapa de detección, los agrupamientos de microcalcificaciones candidatos son identificados mediante una segunda umbralización iterativa. [D Aloia & Rizzi, 2013] presentan un sistema computarizado para el diagnóstico de agrupamientos de microcalcificaciones en mamografía. El sistema detecta primero las microcalcificaciones por medio de un agrupamiento patrón y posteriormente, mediante una maquina de vector soporte y una optimización mínima secuencial, clasifica las anormalidades como malignas o benignas. 21

56 1.5 Organización de la Tesis [Zhang, 2014] propone un nuevo enfoque para detectar y clasificar microcalcificaciones. El autor plantea el problema de la clasificación como un aprendizaje de características dispersas en representación del conjunto de prueba con el conjunto de entrenamiento, el cual también es conocido como un vocabulario de partes visuales. Este conjunto de entrenamiento fue construido de forma manual, el cual incluye partes de microcalcificaciones y partes de tejido. La clasificación de las microcalcificaciones fue realizada mediante un algoritmo basado en una maquina de vector soporte doble. Finalmente, para una mayor referencia sobre la detección y/o clasificación de microcalcificaciones en mamografía digitalizada, en la literatura hay investigaciones tipo review en las que se pueden encontrar diferentes metodologías que involucran técnicas de procesamiento de imagen, reconocimiento de patrones e inteligencia artificial, que serán utilizadas en el modelo propuesto para este trabajo de tesis y que también sirvieron para el desarrollo del mismo [Cheng et al., 2003], [Cheng et al., 2006], [Yusof et al., 2007], [Thangavel et al., 2008], [Tang et al., 2009], [Cheng et al., 2010], [Rizzi et al., 2012], [Ganesan et al., 2013] Organización de la Tesis La presente tesis doctoral esta estructurada en tres partes principales. La primera parte está enfocada en la introducción de la misma así como la presentación del modelo propuesto usado en el desarrollo del trabajo. La segunda y tercera parte están relacionadas con la detección y clasificación de microcalcificaciones respectivamente. A continuación se describe un pequeño resumen por capítulos del presente trabajo. El presente Capítulo 1 ofrece una introducción al cáncer de mama. Se abordaron temas como los principales factores de riesgo, métodos de detección tal como: la mamografía. También se hace mención a las microcalcificaciones como uno de los principales hallazgos en la mamografía además de ser consideradas como señal importante del cáncer de mama. Finalmente, se mencionan algunas aportaciones científicas importantes en la detección de microcalcificaciones que sirvieron como referente para el desarrollo de esta tesis. El Capítulo 2 presenta el modelo propuesto para el desarrollo de esta tesis. También se presentan las principales aportaciones al estado del arte, en las cuales se encuentra sustentada y justificada esta tesis. Estas aportaciones han sido presentadas en revistas internacionales incluidas en el JCR así como en congresos de prestigio internacional. El Capítulo 3 presenta una introducción al procesamiento digital de imagen, enfocado principalmente a imágenes de mamografía, como una herramienta de apoyo importante en la etapa de detección de microcalcificaciones. 22

57 1. INTRODUCCIÓN El Capítulo 4 presenta una introducción a la segmentación de imágenes médicas, principalmente imágenes de mamografía, de forma más específica a regiones de interés extraídas desde las imágenes de mamografía. Durante el desarrollo de este trabajo la segmentación es considerada como una etapa complementaria del procesamiento de imagen y fundamental en la etapa de detección de microcalcificaciones. El Capítulo 5 presenta una introducción general a las redes neuronales artificiales, fundamentos, tipos de función de activación, tipos estructuras así como algunos métodos de implementación. En este trabajo se ha considerado una red neuronal como clasificador binario, con la finalidad de realizar una discriminación de los patrones pertenecientes a los píxeles de las microcalcificaciones de los patrones de los píxeles pertenecientes a tejido sano. En el Capítulo 6se presenta la metodología para este trabajo de tesis de acuerdo con el modelo propuesto en el capítulo 2. Además, en este capítulo, se presentan los resultados obtenidos después de aplicar y desarrollar la metodología propuesta. Finalmente en el Capítulo 7 se exponen las principales conclusiones de acuerdo con los aportes y resultados obtenidos durante el desarrollo de este trabajo de tesis. Además se presenta una lista detallada de las líneas futuras de investigación que se derivan a partir del modelo propuesto, descrito y desarrollado en esta tesis. 23

58 Organización de la Tesis

59 Capítulo 2 Modelo Propuesto 2.1. Modelo del Sistema Propuesto El objetivo del presente trabajo de tesis es proponer y desarrollar un sistema capaz de detectar de forma automática microcalcificaciones en regiones de interés de mamografías digitalizadas, que contribuya principalmente en la detección temprana del cáncer de mama y que, además, sirva de ayuda al especialista radiólogo con el fin de mejorar o definir su diagnóstico sobre la enfermedad. El modelo propuesto para esta tesis está basado en una modificación de un sistema CAD como el que se presentó en la Figura 1.5 y, de acuerdo con dicho sistema, funcionaría más como un sistema de visualización automática para el análisis de imagen. El sistema consiste fundamentalmente en una combinación secuencial de técnicas de procesamiento digital de imagen, técnicas de reconocimiento de patrones así como técnicas de inteligencia artificial. Es importante destacar que, en este sistema, se realiza un aporte novedoso en la etapa de segmentación, que fue presentada en [Ojeda-Magaña et al., 2009a] y se conoce como sub-segmentación. Por otro lado, el sistema tiene como objetivo extraer dos conjuntos de patrones d-dimensionales de los cuales, uno será el que mejor represente a las microcalcificaciones y el otro al tejido sano o normal. Estos conjuntos de patrones se usarán en un clasificador binario, que discriminará entre dos clases, una clase definida como normal (tejido sano) y otra clase definida como anormal (microcalcificación). Las operaciones de mapeo del espacio de la imagen al espacio del conjunto de patrones (espacio de características) se realizarán uno a uno es decir, cada píxel de la imagen por cada patrón n-dimensional extraído. Esto permitirá que, al realizar una prueba con una imagen, los patrones de entrada a clasificar, ya sea como clase tejido sano o como clase microcalcificación, serán el mapa de píxeles de la imagen. A continuación se describe el modelo propuesto dividido por etapas: Primera Etapa. Consiste en seleccionar regiones de interés desde las imágenes de la base de datos que, previamente, fueron diagnosticadas por radiólogos expertos. 25

60 2.1 Modelo del Sistema Propuesto Estas regiones cuentan con algún tipo de lesión conocido y servirán como ejemplo para el entrenamiento y prueba del sistema de detección propuesto. En este caso se consideran regiones con lesiones del tipo microcalcificación. Segunda Etapa. Consiste en aplicar de una técnica de procesamiento digital de imagen, con la finalidad de realizar una mejora a la region de interés es decir, aumentar el contraste de las posibles microcalcificaciones respecto del tejido sano, con el objetivo de facilitar su identificación. Al final de esta etapa se construye un conjunto de patrones por píxel, donde cada imagen procesada contribuye con una característica por píxel al patrón. Este conjunto de patrones será usado en la etapa siguiente para encontrar las regiones dentro de la imagen que correspondan a microcalcificaciones y a tejido sano. Tercera etapa. Consiste en una segmentación de imagen basada en algoritmos de agrupamiento particionales. La finalidad es encontrar, principalmente, las regiones cuyos píxeles de la región de interés correspondan a microcalcificaciones considerando al resto de píxeles como tejido sano o normal. Para realizar esta tarea se va aplicar un algoritmo de agrupamiento particional con el objetivo de dividir el conjunto de patrones formado en la etapa anterior y así obtener una etiqueta (información) de cada uno de los patrones respecto al número de grupos en que se divido el conjunto de patrones, pero siempre con el objetivo de obtener solo dos grupos de interés: microcalcificaciones y tejido sano. Cuarta Etapa. Consiste en la extracción de características a partir de la intensidad del nivel de gris de los píxeles de las regiones de interés originales, es decir, las imágenes sin procesar. El tipo de información que aportan estas características es del tipo contextual, debido a que se analiza el entorno del píxel en base a una región o ventana de dimensión definida. Quinta Etapa. Consiste en la construcción de un vector de características (conjunto de patrones). Este vector se forma utilizando el conjunto de características extraídas de la etapa anterior y la etiqueta del conjunto de patrones de la etapa de segmentación imagen. El objetivo de crear dicho vector de características es obtener el conjunto de patrones que mejor defina a las clases: microcalcificación y tejido sano. Una vez creado el vector, éste será usado para entrenar y probar un clasificador, que deberá discriminar, de manera automática, los patrones pertenecientes a microcalcificaciones y a tejido sano. Sexta Etapa. Consiste en entrenar y probar un clasificador basado en una red neuronal artificial, que se encargará de discriminar los patrones pertenecientes a píxeles que corresponden a microcalcificación de los patrones pertenecientes a píxeles que corresponden a tejido sano en una imagen ROI. Una vez que se ha entrenado y probado el clasificador, se puede generar una imagen segmentada de forma binaria desde cada imagen ROI, cuyas regiones de la imagen corresponderán a microcalcificación (1) y tejido sano (0). 26

61 2. MODELO PROPUESTO La Figura 2.1 muestra el diagrama de bloques del sistema propuesto en este trabajo. Figura 2.1: Diagrama de bloques del sistema propuesto para la detección de microcalcificaciones. 27

62 2.2 Contribuciones Científicas 2.2. Contribuciones Científicas En esta sección se presentan las principales contribuciones científicas y originales de este trabajo de tesis al estado del arte, que le sirven de fundamento, respaldo y justificación Contribuciones en Revistas Internacionales listadas en el Journal of Citation Reports (JCR) Quintanilla-Domínguez, J., Ojeda-Magaña, B., Cortina-Januchs, M., R.Ruelas, A.Vega-Corona & D.Andina (2011). Image segmentation by fuzzy and possibilistic clustering algorithms for identification of microcalcifications. Scientia Iranica, Transactions D: Electrical and Computer Egineering. Quintanilla-Domínguez, J., Ojeda-Magaña, B., Marcano-Cedeño, A., Cortina- Januchs, M., A.Vega-Corona & D.Andina (2011). Improvement for detection of microcalcifications through clustering algorithms and artificial neural networks. EURA- SIP Journal on Advances in Signal Processing Contribuciones en Revistas Internacionales Quintanilla-Domínguez, J., Ojeda-Magaña, B., Marcano-Cedeño, A., Barrón-Adame, J.M., A.Vega-Corona & D.Andina (2013). Automatic Detection of Microcalcifications in ROI Images Based on PFCM and ANN. International Journal of Intelligent Computing in Medical Sciences & Image Processing. 5(2): Contribuciones en Congresos Internacionales Vega-Corona, A., Quintanilla-Domínguez, J., Ojeda-Magaña, B., Cortina-Januchs, M.G., Marcano-Cedeño, A., Ruelas, R. & Andina, D. (2011). Microcalcifications detection using PFCM and ANN. In 3rd Mexican Conference on Pattern Recognition, Pattern Recognition. Quintanilla-Domínguez, J., Cortina-Januchs, M., Ojeda-Magaña, B., Jevtić, A., Vega-Corona, A. & Andina, D. (2010). Microcalcification detection applying artificial neural networks and mathematical morphology in digital mammograms. In World Automation Congress, WAC 2010,

63 2. MODELO PROPUESTO Quintanilla-Domínguez, J., Ojeda-Magaña, B., Seijas, J., Vega-Corona, A. & Andina, D. (2009). Edges detection of clusters of microcalcifications with som and coordinate logic filters. In Bio-Inspired Systems: Computational and Ambient Intelligence, vol of LNCS, chap. Biomedical Applications, , Springer-Verlag Berlin Heidelberg. Ojeda-Magaña, B., Quintanilla-Domínguez, J., Ruelas, R. & Andina, D. (2009b). Images sub-segmentation with the pfcm clustering algorithm. 7th IEEE International Conference on Industrial Informatics, Best Paper Award. Quintanilla-Domínguez, J., Cortina-Januchs, M.G., Barrón-Adame, J.M., A.Vega- Corona & Andina, D. (2009). Combination of nonlinear filters and ann for detection of microcalcifications in digitized mammography. In The 2009 IEEE International Conference on Systems, Man, and Cybernetics, SMC, Quintanilla-Domínguez, J., Sánchez-García, M., Gonzalez-Romo, M., A.Vega- Corona & Andina, D. (2009). Feature extraction using coordinate logic filters and artificial neural networks. In 7th IEEE International Conference on Industrial Informatics, Quintanilla-Domínguez, J., Cortina-Januchs, M., Barrón-Adame, J., Vega-Corona, A., Buendía-Buendía, F. & Andina, D. (2009). Detection of microcalcifications using coordinate logic filters and artificial neural networks. In Bioinspired Applications in Artificial and Natural Computation, vol of LNCS, , Springer-Verlag Berlin Heidelberg. Cortina-Januchs, M., Quintanilla-Domínguez, J., Jevtić, A. & Andina, D. (2008). Application of fractal and wavelets in microcalcification detection. In The 12th World Multi-Conference on Systemics, Cybernetics and Informatics; Jointly with the 14th International Conference on Information Systems Analysis and Synthesis; WMSCI Ojeda-Magaña, B., Ruelas, R., Quintanilla-Domínguez, J. & Corona-Nakamura, M. (2011). Identification of masses in mammograms by image sub-segmentation. In Soft Computing Models in Industrial and Enviromental Applications, 6th. International Conference SOCO 2011, vol. 87 of Advances in Itelligent and Soft Computing, chap. Soft Computing for Medical Applications, Springer-Verilag Berlin Heidelberg Contribuciones en Colaboración A lo largo del desarrollo de esta tesis se colaboró en diferentes contribuciones al estado del arte basadas en técnicas de Soft Computing, que fueron presentadas en Revistas Internacionales indexadas en el JCR así como en congresos de prestigio y con carácter internacional, entre las que se destacan: 29

64 2.3 Contribuciones en Colaboración Contribuciones en Colaboración en Revistas Internacionales listadas en el JCR Ojeda-Magaña, B., Quintanilla-Domínguez, J., Ruelas, R., Tarquis A.M., Gómez-Barba, L., & Andina, D. (2014). Identification of pore spaces in 3D CT soil images using PFCM partitional clustering. Geoderma, , Cortina-Januchs, M.G., Quintanilla-Domínguez, J., Vega-Corona, A., Tarquis A.M., & Andina, D. (2011). Detection of pore space in ct soil images using artificial neural networks. Biogeosciences, 8, Marcano-Cedeño, A., Quintanilla-Domínguez, J. & Andina, D. (2011a). Breast cancer classification applying artificial metaplasticity algorithm. Neurocomputing, 74, Marcano-Cedeño, A., Quintanilla-Domínguez, J. & Andina, D. (2011b). WBCD breast cancer database classification applying artificial metaplasticity neural network. Expert Systems with Applications, 38, Contribuciones en Colaboración en Congresos Internacionales Quintanilla-Domínguez, J., Cortina-Januchs, M., Ojeda-Magaña, B., Vega-Corona, A., Tarquis, A. & Andina, D. (2011). Image sub-segmentation by pfcm and artificial neural networks to detect pore space in 2d and 3d ct soil images. In EGU General Assembly 2011, vol. 13. Ojeda-Magaña, B., Ruelas, R., Quintanilla-Domínguez, J. & Andina, D. (2010b). Color image segmentation by partitional clustering algorithms. In 36th Annual Conference of the IEEE Industrial Electronics Society, IECON 2010, Ojeda-Magaña, B., Cortina-Januchs, M., Barrón-Adame, J., Quintanilla-Domínguez, J., Vega-Corona, A., Ruelas, R. & Andina, D. (2010a). Air pollution analysis with pfcm clustering algorithm applied in a real database of salamanca (méxico). In International Conference on Industrial Technology, ICIT 2010, Marcano-Cedeño, A., Quintanilla-Domínguez, J., Cortina-Januchs, M.G., & Andina, D. (2010). Feature selection using sequential forward selection and classification using artificial metaplasticity neural network. In 36th Annual Conference of the IEEE Industrial Electronics Society, IECON 2010, Marcano-Cedeño, A., Quintanilla-Domínguez, J. & Andina, D. (2009). Wood defects classification using artificial metaplasticity neural network. In 35th Annual 30

65 2. MODELO PROPUESTO Conference of the IEEE Industrial Electronics Society, IECON2009, Jevtic, A., Quintanilla-Domínguez, J., Barrón-Adame, J. & Andina, D. (2011). Image segmentation using ant system-based clustering algortithm. In Soft Computing Models in Industrial and Environmental Applications, 6th International Conference SOCO 2011, vol. 87 of Advances in Intelligent and Soft Computing, chap. Image Analysis and Processing, 35 45, Springer-Verilag Berlin Heidelberg. Jevtic, A., Quintanilla-Domínguez, J., Cortina-Januchs, M. & Andina, D. (2009). Edge detection using ant colony search algorithm and multiscale contrast enhancement. In The 2009 IEEE International Conference on Systems, Man, and Cybernetics, SMC,

66 Contribuciones en Colaboración

67 Parte II Detección de Microcalcificaciones 33

68

69 Capítulo 3 Procesamiento de Imágenes de Mamografía 3.1. Introducción El tratamiento de las imágenes digitales se ha convertido, en las últimas décadas, en un tema de interés y, además, se encuentra en continua evolución en diferentes áreas de las ciencias naturales, las ciencias médicas y aplicaciones tecnológicas entre otras. El crecimiento del poder de cómputo, las capacidades de almacenamiento y los nuevos sistemas de desplegado, captura e impresión de bajo coste, son algunos de los factores que han facilitado el desarrollo de esta disciplina. Es posible mencionar algunos ejemplos donde el procesamiento de imágenes ayuda a analizar, deducir y tomar decisiones, como por ejemplo: medicina, fisiología, biometría, astronomía, ciencias ambientales, robótica, metalúrgica, electrónica, física, biología, etc. [Gonzalez & Woods, 2002]. El procesamiento digital de imágenes está compuesto por un conjunto de técnicas que trabajan sobre la representación digital de una imagen con el objetivo de destacar ciertas características que la conforman para facilitar su análisis o manipulación posterior por un usuario o por medio de un sistema de visión artificial. De aquí en adelante se usará el término procesado de imágenes refiriéndose a procesamiento digital de imágenes. Por lo general, las técnicas de procesado de imagen se aplican cuando es necesario realizar alguna modificación, mejorar su apariencia, realzar alguna característica o cuando se quiere detectar, contrastar o clasificar algún elemento contenido dentro de ella. Las técnicas de procesado de imagen también se pueden aplicar cuando es necesario combinar una imagen completa o regiones de la misma. Durante los últimos años, el desarrollo de las imágenes médicas ha evolucionado de manera significativa y han revolucionado el diagnóstico de muchas enfermedades. Las imágenes médicas son consideradas como una de las herramientas más importantes y ampliamente utilizadas en medicina clínica. Actualmente existen diferentes tipos de 35

70 3.2 Fundamentos del procesamiento de imágenes imágenes médicas que se diferencian principalmente de dos formas: de acuerdo a la naturaleza del principio físico involucrado en el proceso de adquisición y de acuerdo a la aplicación médica. Entre los tipos de imágenes médicas se puede mencionar: la tomografía por emisión de positrones, la tomografía axial computarizada, la resonancia magnética, el ultrasonido y los rayos X. La mamografía o mamografía convencional es un proceso mediante el cual se obtiene una imagen de la totalidad de la mama por medio de la emisión de rayos X y cuyo almacenamiento se registra en una película radiográfica. La mamografía ha experimentado mejoras considerables durante los últimos años debido a los avances en la tecnología asociados a este tipo de imagen. Debido a esto, la mamografía es considerada actualmente como el método más efectivo para detectar lesiones mamarias que no son palpables, contribuyendo al diagnóstico precoz del cáncer de mama y generando como resultado una disminución de la tasa de mortalidad de entre el 25 % y el 30 % [Marrocco et al., 2010]. Dentro de estas mejoras se encuentran involucradas algunas técnicas de procesamiento de imagen que contribuyen a realizar tareas específicas como, por ejemplo: Realce de características como bordes o contornos. Modificación del contraste con el objetivo de que sea más fácil un análisis. Reducción de ruido y eliminación del fondo de la imagen. En la mamografía se presenta una dificultad en la interpretación debido a que las microcalcificaciones presentes en ésta generalmente presentan un bajo contraste respecto al tejido que las rodea. Una solución a este problema es la aplicación de una de las técnicas de procesamiento de imagen más utilizadas en mamografía conocida como mejora o realce de contraste. En el presente capítulo se realiza una breve descripción de los fundamentos del procesamiento de imagen así como del uso de algunas técnicas de procesado de imagen en las que se involucra una mejora del contraste aplicada a imágenes de mamografía digitalizada, con el objetivo de resaltar a las microcalcificaciones y mejorar su detección Fundamentos del procesamiento de imágenes La imagen digital representa una información visual asociada con una escena real que correspondería a lo que se observa con el sentido de la vista o bien a información no visible que puede ser medida mediante sensores específicos. El término imagen se refiere a una función bidimensional de intensidad de luz f(x,y), donde x y y representan las coordenadas espaciales y el valor de f en un punto cualquiera (x,y) que es proporcional al nivel de gris, color o brillo de la imagen en ese punto. Una imagen digital es una imagen f(x,y) que se ha discretizado tanto en coordenadas espaciales como en nivel de gris (ver 36

71 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Figura 3.1). Una imagen digital puede considerarse como una matriz de dos dimensiones cuyos índices de fila y de columna identifican un punto en la imagen y el valor del correspondiente elemento de la matriz indica el nivel de gris, color o brillo de ese punto. A los elementos de una imagen digital se les conoce como: elementos de la imagen o más comúnmente píxeles (abreviación de picture element) [Gonzalez & Woods, 2002]. x f(x,y) y Figura 3.1: Representación de una imagen digital de tamaño M N píxeles. Los ejes x, y, corresponden a las columnas y las filas de la matriz, respectivamente. f (x, y) representa el valor de nivel de gris en el punto (x, y). Existen diferentes medios para obtener una imagen digital, pero los más comunes son mediante dos dispositivos conocidos como scanner plano y cámara digital. Estos dispositivos tienen la capacidad de dividir una imagen en pequeños píxeles y tratarlos de forma individual para poder asignarles, por ejemplo, un valor de nivel de gris. Ambos dispositivos se basan en un circuito integrado llamado CCD (Charge-Coupled Device). Este recibe la luz de la imagen ya sea por reflexión o por transmisión e integra, en un tiempo definido, la cantidad de luz que llega a él. Formando una matriz de CCD s es posible realizar la digitalización de la imagen. Se dice que la imagen ha sido digitalizada ya que, por cada región de ella, se genera un número que representa la cantidad de luz que fue registrada. En general para un arreglo de n mse generara una matriz de la forma, 37

72 3.2 Fundamentos del procesamiento de imágenes x 11 x x 1n x 21 x x 2n x m1 x m2... x mn I= (3.1) donde cada elemento del arreglo representa una propiedad de la imagen. En un sistema simple de digitalización, a la cantidad o intensidad de luz registrada se le conoce como tono de gris. En los sistemas de digitalización de imagen, los datos sufren un proceso de discretización o cuantización. Este proceso se refiere al hecho de que la información registrada no es almacenada de manera exacta como un número real, más bien como entero, ya que el sistema después de tomar el dato, generalmente analógico, lo pasa por un convertidor analógico-digital ocasionando una perdida en la precisión de los registros. Para el registro de una imagen generalmente se usan formatos que están referenciados por el número de bits que son utilizados para la cuantización de la cantidad de luz recibida. Actualmente la gran mayoría de dispositivos simples de adquisición de imagen permiten generar imágenes con una profundidad de 8 bits, esto significa que nos permiten representar imágenes con 256 niveles de gris en un rango de [0,255]. La mayoría de los dispositivos para adquisición de imagen permiten realizar el registro en colores, de forma que, para cada zona de la imagen se genera un píxel con tres componentes, la representación común es mediante un vector formado por una combinación de los colores básicos en la electrónica de video que son: Rojo(R=Red), verde (G=Green) y azul (B=Blue). Donde se puede interpretar cualquier color como una combinación lineal de los vectores unitarios cromáticos (R,G,B). Al número de píxeles por pulgada utilizados en el proceso de adquisición se le conoce como resolución. Generalmente ésta se expresa en dpi (dots per inch = puntos por pulgada). Cuanto mayor es la resolución, mayor es la fidelidad de la imagen, es decir, se obtienen más detalles de ella. Por lo general, éste es un parámetro del dispositivo de adquisición que se puede definir durante el proceso de registro Etapas fundamentales del procesamiento digital de imágenes El tratamiento digital de imágenes comprende un amplio rango de recursos teóricos, hardware y software. En la Figura 3.2 se presenta un esquema general de los pasos fundamentales del procesamiento de imágenes que son considerados por [Gonzalez & Woods, 2002]. La primera etapa de este proceso es la adquisición de la imagen. Para ello, se necesita un sensor de imágenes y un dispositivo que pueda digitalizar la señal producida por el sensor. Una vez que se ha obtenido la imagen digital, la siguiente etapa consiste en 38

73 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Segmentación Representación y Descripción Preprocesamiento Base de Reconocimiento e Interpretación Resultado Dominio del Problema Adquisición de la imagen Conocimiento Figura 3.2: Etapas fundamentales del procesamiento de imágenes. el preprocesamiento de la imagen, cuyo objetivo es mejorar la imagen de manera que se incremente la oportunidad de tener éxito en las etapas siguientes. El preprocesamiento típicamente consta de técnicas tales como: mejora del contraste así como supresión de ruido. La siguiente etapa es la segmentación. De manera general, la segmentación consiste en particionar o dividir la imagen en objetos o grupos de píxeles. La segmentación es considerada una de las tareas más difíciles en el procesamiento de imágenes. A la salida de la etapa de la segmentación, generalmente se tiene el contorno de una región o los puntos de una región determinada. En cada caso es necesario convertir los datos a una forma adecuada para que se realice el procesamiento por el ordenador. Por otro lado, también debe especificarse un método para describir los datos de forma que se resalten las características o rasgos de interés. La descripción es también conocida como selección de características o rasgos. Consiste en extraer alguna información de interés que sea fundamental para diferenciar una clase de objetos de otra. La siguiente etapa del procesamiento de imagen incluye el reconocimiento así como la interpretación. El reconocimiento es el proceso que asigna una etiqueta a un objeto basada en la información proporcionada por sus descriptores. Por otro lado, la interpretación implica asignar significado a un conjunto de objetos reconocidos. Finalmente, la base de conocimiento mantiene todo el conocimiento que se tiene acerca del problema tratado. Este conocimiento puede ser simple, teniendo solo las regiones de la imagen donde la información de interés se sabe que está localizada, con lo que se limita la búsqueda que se conduce a esa información. La base de conocimiento también puede ser compleja, como, por ejemplo, una base de datos de imágenes de satélite o imágenes de mamografía con aplicaciones de detección de objetos de interés. Además de guiar la operación de cada etapa del proceso, la base de conocimiento también controla la interacción entre etapas. 39

74 3.3 Mejora de imagen de mamografía 3.3. Mejora de imagen de mamografía Las técnicas de mejora de imagen generalmente se utilizan para resaltar alguna o algunas características que sean de interés, con el objetivo de que su percepción sea más simple para el sistema visual humano o que sea más probable de detectar si se trata de un sistema de análisis de imagen automático. Básicamente, las técnicas de mejora de imagen pertenecen a dos categorías: técnicas en el dominio espacial y técnicas en el dominio de la frecuencia. El dominio espacial se refiere al propio plano de la imagen. Las técnicas incluidas en esta categoría se caracterizan por la manipulación directa de los píxeles de la imagen. Las técnicas correspondientes al dominio de la frecuencia están basadas principalmente en la transformada de Fourier de una imagen [Gonzalez & Woods, 2002]. Las técnicas de mejora de imagen varían dependiendo de la aplicación. Generalmente, están basadas en la manipulación de los niveles de gris, la mejora de contraste, la reducción de ruido, el realce o la reducción de bordes y contorno de objetos, así como la eliminación del fondo de la imagen. Para el caso específico de las imágenes de mamografía, estas técnicas se usan por lo general para incrementar el contraste entre las regiones que contienen píxeles correspondientes a las microcalcificaciones y el tejido sano, es decir, resaltar los bordes de las microcalcificaciones. A pesar de que las microcalcificaciones, por lo general, son más brillantes que el tejido circundante, en algunos casos en donde la mama es muy densa, el contraste de algunas microcalcificaciones es tan bajo que el ojo humano apenas las puede distinguir. El proceso de la mejora del contraste de la microcalcificaciones es un proceso muy delicado ya que, una pequeña mejoría del contraste puede impedir una detección de las microcalcificaciones. Por otro lado, un incremento muy alto del contraste puede aumentar, de manera significativa, la amplitud del ruido del fondo, lo que originaría detecciones falsas [Wirth et al., 2004]. Las técnicas de mejora de imagen que están basadas en la modificación del contraste se pueden clasificar en dos tipos: de forma indirecta y de forma directa. Las de forma indirecta son aquellas técnicas que modifican el histograma de la imagen. Las de forma directa, son aquellas técnicas que se encargan de modificar directamente el contraste de la imagen en base a transformaciones definidas. Otra manera de clasificar estas técnicas es tomando en cuenta información global, información local o ambas [Cheng et al., 2003]. A continuación se presentan, de manera resumida, algunas de las técnicas de procesamiento de imagen más usadas en la mejora de imágenes de mamografía y que están basadas en la modificación del contraste. 40

75 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Técnicas convencionales Las técnicas convencionales de mejora de imagen, por lo general, son aquellas técnicas que pueden adaptarse a características globales o locales dentro de un entorno alrededor de un punto en la imagen. Dentro de estas técnicas están: la ecualización del histograma, la expansión del contraste (Contrast stretching) y el filtrado espacial. Debido a algunas características de las microcalcificaciones como, por ejemplo, su variación en tamaño y forma así como el contraste entre ellas y el tejido que las rodea, utilizar alguna de estas técnicas de mejora de imagen es poco recomendable debido a su poca adaptabilidad Expansión del contraste La expansión del contraste es una técnica que se basa en operaciones puntuales de transformación o simplemente operaciones por puntos. Esta técnica trabaja en el dominio espacial y permite modificar el contraste de los niveles de intensidad en la imagen de forma individual y de manera conveniente. Esta técnica toma una imagen de entrada y genera una imagen de salida de tal forma que el nivel de intensidad de cada píxel de salida depende del nivel de intensidad de cada píxel de entrada. Una característica importante en una operación por puntos es que las coordenadas de cada píxel salida corresponden a las coordenadas del pixel de entrada, lo que significa que la operación por puntos no modifica la posición espacial de los píxeles. En una imagen digital el valor del píxel representa la magnitud de una característica observada como por ejemplo, el nivel de intensidad (brillo). A la representación gráfica de los valores de intensidad que componen una imagen se le conoce como histograma de la imagen. El histograma de la imagen es una función de distribución que muestra el número de píxeles para cada nivel de intensidad donde la abscisa corresponde al nivel de intensidad y la ordenada es la frecuencia de ocurrencia en la imagen, es decir, el número de píxeles con ese nivel de intensidad. El histograma de cualquier imagen contiene información que puede ser importante por lo que, en muchos casos, determinado tipo de imágenes son especificadas completamente por su histograma. En la Figura 3.3 se muestra un ejemplo de un histograma de una mamografía digitalizada a 8 bits de resolución, es decir, 256 niveles de gris. La expansión del contraste es llamada algunas veces transformación del nivel de intensidad que en este caso sería transformación de nivel de gris ya que la imágenes usadas para este trabajo están en escala de gris. Al modificarse los valores de los niveles de intensidad o niveles de gris de los píxeles de la imagen, también se modifica el histograma de la imagen. Por lo general, esta técnica es empleada cuando el histograma de la imagen es estrecho, entonces ésta permite ajustar el histograma para lograr una mayor separación en la distribución de los niveles gris en la imagen. El ajuste del histograma puede ser condicionado mediante una función de transformación T conocida, que puede ser de tipo lineal o no-lineal. La Figura 3.4 muestra las gráficas de las funciones que corresponden a una transformación de tipo lineal y no-lineal. Cuando la función de transformación T es del tipo lineal, ésta se puede definir como: 41

76 3.3 Mejora de imagen de mamografía No. de Píxeles Nivel de Gris (a) (b) Figura 3.3: (a) Imagen ROI extraída de una mamografía. (b) Histograma de niveles de la imagen ROI. I T (x, y)=t(i(x, y))=i(x, y) k+m (3.2) donde I(x, y) es el nivel de gris de un píxel de la imagen de entrada I, I T es la imagen resultante de la transformación, T( ) representa la función de transformación en el punto (x, y), k, m Z valores constantes. La Figura 3.4(a) muestra la representación de la función de transformación del tipo lineal sobre cada píxel entrada-salida. Cuando la función de transformación es del tipo no-lineal, generalmente se consideran un tipo de funciones no decrecientes (monótonas). Una característica de este tipo de funciones es que trabajan en el rango medio de los niveles de intensidad, es decir, refuerzan los niveles de intensidad de los píxeles en el rango medio, dejando los píxeles oscuros y los píxeles brillantes casi sin cambio, de tal manera que el histograma tiene una forma deseada. Un ejemplo de una función de transformación del tipo no-lineal se puede definir como: I T (x, y)=t(i(x, y))=i(x, y)+k I(x, y)(l max I(x, y)) (3.3) donde L max corresponde al nivel máximo de intensidad de la imagen original y K Z determina la cantidad de incremento (K>0), o decremento (K<0), en el rango medio de los niveles de intensidad. La Figura 3.4(b), muestra la representación de la función de transformación del tipo no-lineal sobre cada píxel entrada-salida. La Figura 3.5, muestra una mejora de imagen mediante expansión del contraste mediante una función de transformación del tipo no-lineal como el caso de la expresión (3.3) sobre la imagen ROI de la Figura 3.3 así como la nueva distribución de su correspondiente histograma. 42

77 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Nivel de gris de la imagen salida Nivel de gris de la imagen salida Nivel de gris de la imagen entrada Nivel de gris de la imagen entrada (a) (b) Figura 3.4: Representación de la función de transformación del nivel de intensidad. (a) Función de transformación lineal. (b) Función de transformación no-lineal No. Píxeles Nivel de Gris (a) (b) Figura 3.5: Mejora del contraste de una imagen ROI. (a) Imagen ROI mejorada usando una transformación de niveles de gris mediante la expresión (3.3). (b) Nueva distribución del histograma de la imagen ROI Ecualización del histograma El uso de la técnica mediante la transformación de los niveles de gris de una imagen, con el objetivo de ajustar el histograma en un rango medio de niveles de gris en la literatura, es conocida como ecualización del histograma. La mejora del contraste de una imagen mediante la ecualización permite que los píxeles tengan una distribución de la probabilidad uniforme. Como ya se mencionó, el uso de estas técnicas para mejorara el contraste entre las microcalcificaciones y el tejido circundante es poco recomendable pero, 43

78 3.3 Mejora de imagen de mamografía con el objetivo de mejorar esas inconveniencias en la literatura, se ha propuesto el uso de una función transformación adaptativa no-lineal, la que, mediante la manipulación algunos parámetros, permite ajustar el rango de los niveles de gris de forma que se puede realizar una mejora de contraste entre las microcalcificaciones y el tejido que las rodea de manera eficiente Función de transformación adaptativa para el histograma La función de transformación adaptativa para el histograma es una técnica de mejora de imagen que, mediante una función de transformación no-lineal, permite modificar los niveles de gris de una imagen. Esta técnica ha sido empleada en diferentes aplicaciones como, por ejemplo, la mejora de imágenes de mamografía [Laine et al., 1994a], [Laine et al., 1994b], la mejora de imágenes naturales [Jevtić et al., 2009]. En el trabajo de [Vega-Corona et al., 2003], utilizan esta técnica en imágenes ROI de mamografía, con el objetivo de atenuar los niveles de gris de los píxeles con valor de amplitud pequeño, debido a que las microcalcificaciones se presentan con niveles de gris alto y, de acuerdo a esto, es de su interés resaltar aquellos píxeles con un valor de nivel de gris más grande que un umbral para realizar la discriminación. Para realizarlo, proponen la aplicación de una función de transformación no-lineal definida en la expresión (3.4) y propuesta por [Laine et al., 1994b], que permite controlar el contraste y el umbral de forma adaptativa. I T (x, y)=t(i(x, y))=α[sigm(k(i(x, y) β)) sigm( k(i(x, y)+β))] (3.4) donde I(x, y) es el nivel de gris de un píxel de la imagen de entrada I, I T es la imagen resultante de la transformación, T( ) representa la función de transformación que actúa en I(x, y). α se define como: α= 1 sigm(k(1 β)) sigm( k(1+β)) 0<β<1 (3.5) y sigm(x) se define como: sigm(x) = 1 1+e x (3.6) Dondeβ R y k Z son los parámetros que representan el control de umbral y el control de contraste en la imagen respectivamente. Para una imagen de entrada I, con un nivel de gris máximo L max, es necesario realizar un mapeo de la imagen en el rango de [ L max, L max ] a una imagen en el rango de [ 1, 1], de acuerdo con esto, se puede usar el valor de L max como un factor de normalización en la expresión (3.4), como consecuencia de esto, se pueden usar valores deβykindependientemente el rango dinámico de la imagen. Además, se debe cumplir la siguiente restricción: βk>2 44

79 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA En la Figura 3.6 se muestra el efecto de la función de transformación no-lineal definida en la expresión (3.4), para algunos valores típicos de β y k, donde se puede apreciar cómo la función trabaja más sobre rango medio de los niveles de gris de los píxeles y dejando casi sin cambio los niveles de gris cuyos píxeles están más oscuros y más brillantes Imagen de salida β = 0.4 k = 10 Imagen de salida β = 0.2 k = β = 0.4 k = 20 β = 0.4 k = β = 0.5 k = 10 β = 0.8 k = Imagen de entrada Imagen de entrada (a) (b) Figura 3.6: Efecto de la función de trasformación sobre una imagen de entrada: (a) manteniendo constante el valor del control del umbralβyvariando el valor del control de contraste k. Se puede apreciar que la pendiente de la curva aumenta cuando k aumenta y como consecuencia de esto, un aumento del contraste en la imagen de salida. (b) manteniendo constante el valor del control de contraste k y variando el valor de umbralβ, se puede apreciar la modificación que sufre el rango medio de valores de gris de los píxeles. En la Figura 3.7, se muestra la mejora del contraste utilizando la expresión (3.4) sobre la imagen de Cameraman de tamaño píxeles, cuando el valor deβse mantiene constante y el valor de k es variable [Jevtić et al., 2009]. En la Figura 3.8, se muestra la mejora del contraste de la imagen de Cameraman cuando los valores deβykson variables y constantes respectivamente. Finalmente, en la Figura 3.9 se muestra la mejora del contraste de una imagen ROI mediante la función de transformación no-lineal definida en la expresión (3.4) utilizando valores deβ=0,2 y k=20, los cuales son obtenidos experimentalmente, además de generar buenos resultados en la mejora del contraste en imágenes ROI [Vega-Corona et al., 2003] Filtrado Espacial El filtrado espacial en imágenes se realiza por medio de la operación de convolución entre una región de la imagen y un filtro conocido como kernel, ventana o máscara de convolución. Independientemente del tipo de filtro, la operación de convolución consiste en una suma de productos entre los coeficientes del filtro y las intensidades de los píxeles que se encuentran dentro de la máscara de convolución en un punto de interés en la 45

80 3.3 Mejora de imagen de mamografía (a) (b) (c) (d) Figura 3.7: Mejora del contraste utilizando la expresión (3.4) sobre la imagen de Cameraman conβconstante y k variable. (a) Imagen original. (b) Imagen mejorada conβ=0,4 y k=10. (c) Imagen mejorada conβ=0,4 y k=20. Imagen mejorada conβ=0,4 y k=30. (a) (b) (c) Figura 3.8: Mejora del contraste utilizando la expresión (3.4) sobre la imagen de Cameraman conβvariable y k constante. (a) Imagen mejorada conβ=0,2 y k=10. (b) Imagen mejorada conβ=0,5 y k=10. (c) Imagen mejorada conβ=0,8 y k=10. 46

81 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA (a) (b) No. Píxeles No. Píxeles Nivel de Gris 0 Niveles de Gris Nivel de Gris (c) (d) Figura 3.9: Mejora del contraste de una imagen ROI utilizando la expresión (3.4). (a) Imagen original. (b) Imagen mejorada con valores de β = 0,2 y k = 20. (c) Histograma de la ROI original. (d) Histograma de la ROI mejorada. imagen [Gonzalez & Woods, 2002]. El proceso se va aplicando mediante el desplazamiento de la máscara de convolución a cada píxel de la imagen. Básicamente, la máscara de convolución es una matriz cuadrada, por lo general de tamaño impar en la que los valores de sus coeficientes determinan la naturaleza del proceso. El valor del nuevo píxel en la punto (x, y) generado por el filtro, dependerá de los valores de los píxeles que coincidan con los coeficientes del filtro y los valores de estos coeficientes. En la Figura 3.10, se muestra el proceso de filtrado espacial mediante la operación de convolución. La aplicación de los filtros espaciales mediante la operación de convolución produce efectos sobre la apariencia de la imagen, donde tal efecto dependerá de los valores de los coeficientes del filtro. Dentro de las aplicaciones más utilizadas usando filtrado espacial en imágenes de mamografía se tienen: la mejora del contraste [Chui-Mei et al., 2008], la detección de bordes [Fu et al., 2005], así como la detección de características mamográficas tales como microcalcificaciones [Cheng et al., 2004]. Uno de los filtros más utilizados en 47

82 3.3 Mejora de imagen de mamografía Imagen de entrada Imagen de salida Máscara de Convolución L1 L2 L3 L4 L5 L6 L7 L8 L9 * w1 w2 w3 w4 w5 w6 = w7 w8 w9 LR5 LR5 = L1*w1 + L2*w2+...+L9w9 Figura 3.10: Filtrado espacial mediante convolución. Se muestra una máscara de convolución de 3 3, donde w1, w2,...,w9, representan los coeficientes de la máscara de convolución. L1, L1,...,L9, representan los niveles de gris de la imagen de entrada que se encuentran dentro de la máscara de convolución. LR5 representa la respuesta lineal de la máscara de convolución mediante LR5=L1 w1+l2 w2+...+l9w9. aplicaciones especificas de mejora del contraste de las microcalcificaciones es el filtro de suavizado (unsharp masking). El filtro de suavizado, también conocido como filtro paso bajo, generalmente se utiliza para dar un efecto borroso a la imagen y reducir el ruido. Las ventanas de convolución usadas en este tipo filtro normalmente generan un promedio del píxel de interés y el de sus vecinos, ya que las ventanas de convolución tienen las siguientes formas: Mejora local de imagen La mejora local de la imagen ha sido utilizada en aplicaciones de segmentación y mejora del contraste en imágenes. Pero en este apartado solo se enfoca en aplicaciones de mejora de contraste. Esta técnica mejora el contraste de las características mamográficas (microcalcificaciones) de las imágenes ROI con diferente tamaño y forma de acuerdo con el cambio de su entorno. El procedimiento consiste en definir un entorno rectangular o cuadrangular (también conocido como máscara o ventana) de un tamaño determinado 48

83 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA (que puede ser fijo o variable) y mover su centro pixel a pixel, el cual puede adaptarse a las variaciones locales de los niveles de gris. Generalmente por simplicidad, el entorno utilizado es de forma cuadrada y de tamaño impar. Una característica importante de esta técnica es que puede mejorar los detalles más anatómicos sin la introducción significativa de artefactos y ha demostrado que puede identificar las microcalcificaciones en una imagen ROI con tejido denso, donde el contraste entre las microcalcificaciones y el tejido es bastante bajo [Cheng et al., 2003]. Esta técnica ha sido empleada en imágenes de mamografía en trabajos como [Morrow et al., 1992], [Vega-Corona et al., 2003], [Vega- Corona et al., 2006]. De acuerdo con [Veldkamp & Karssemeijer, 2000], una forma de definir el contraste local de un píxel en una imagen puede ser mediante la siguiente expresión: C l (x, y)=i(x, y) M I (x, y) (3.7) donde I(x, y), es el nivel de gris de un píxel de la imagen de entrada I en el punto (x, y), M I (x, y) representa el promedio de los niveles de gris de una region de tamaño determinado con su centro en la posición (x, y). Para una región de tamaño m n centrada en (x, y), M I se define como: M I = 1 m n m x=1 y=1 n I(x, y) (3.8) En la Figura 3.11, se muestra un ejemplo de la mejora local de una imagen ROI por medio del contraste local definido en la expresión (3.7), utilizando ventanas cuadradas de diferentes tamaños, 3 3, 3 3 y 7 7. Es importante destacar que la operación definida en la expresión (3.8), corresponde a un filtrado espacial por medio de una operación de convolución, que fue presentada en la subsección utilizando diferentes máscaras de convolución como las que se presentaron en en la misma subsección Mejora de imagen basada en características Como ya se mencionó, la poca adaptabilidad es una de las principales desventajas de algunas de las técnicas convencionales de mejora de imagen aplicadas en imágenes de mamografía, debido a que, además de resaltar las microcalcificaciones, también lo hacen con el tejido y el ruido. Sin embargo, con la finalidad de lograr satisfacer el objetivo de la etapa de mejora de la imagen que, en este caso, es la de aumentar el contraste de las microcalcificaciones con respecto al tejido circundante en una imagen ROI, se han desarrollado otras técnicas orientadas específicamente a mejorar el contraste entre las microcalcificaciones y el tejido. Estas técnicas están basadas en las características de las microcalcificaciones tales como: tamaño, forma, textura y brillo. Dentro de estas técnicas se pueden mencionar: el análisis multi-escala mediante transformada wavelet, la lógica difusa y la morfología matemática. La mejora de imagen basada en morfología matemática se analizará con más detalle en la sección

84 3.3 Mejora de imagen de mamografía (a) (b) (c) (d) Figura 3.11: Mejora local de una imagen ROI mediante el contraste local definido en la expresión (3.7). (a) Imagen original. (b) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño 3 3. (c) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño 5 5. (d) Mejora del contraste de la imagen ROI utilizando una ventana de tamaño Transformada wavelet La trasformada wavelet es una herramienta matemática que ha sido utilizada en el área del procesamiento de imagen, tanto en aplicaciones de segmentación como de mejora de imagen. Una característica importante de las microcalcificaciones es que, en una imagen ROI, éstas aparecen con un brillo alto. Desde un punto de vista de análisis de señal, se puede decir que existen señales con componentes transitorias que toman valores en intervalos muy cortos (señales no estacionarias) como, por ejemplo, la transición de los niveles de gris de una microcalcificación a los del tejido. De acuerdo con esto, las microcalcificaciones corresponderían a señales de alta frecuencia en la imagen. La transformada wavelet fue desarrollada para el análisis localizado de señales no estacionarias o que presenten cambios bruscos en periodos cortos (frecuencia alta), como es el caso de las microcalcificaciones. Mediante el uso de ventanas o regiones de tamaño variable, permiten evaluar altas frecuencias utilizando intervalos de tiempo cortos o evaluar bajas 50

85 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA frecuencias por intervalos de tiempo grandes. En la literatura, esta técnica ha sido utilizada en imágenes de mamografía por diferentes autores que abordan el problema que se pretende resolver [Vega-Corona et al., 2003], [Rashed et al., 2007] Lógica difusa La lógica difusa ha sido aplicada satisfactoriamente en el área del procesamiento de imágenes y del reconocimiento de patrones. Una aportación importante de la lógica difusa es que rompe con el esquema tradicional de la lógica clásica. Bajo el esquema de la lógica clásica, la pertenencia a un conjunto es únicamente, si o no, verdadero o falso, 1 o 0. Por otro lado, el esquema que proporciona la lógica difusa es que: un elemento tiene un grado de pertenencia a un conjunto y no es necesariamente excluyente su pertenencia, es decir, un mismo elemento puede pertenecer a más de un conjunto con diferente grado de pertenencia. La lógica difusa es una herramienta que proporciona un esquema para modelar problemas que están asociados con la imprecisión o la vaguedad. Por ejemplo, analizando una imagen para saber cómo es su contraste, normalmente no se responde con un valor numérico de éste, más bien se dice que tiene un contraste muy bajo o muy oscuro, bajo u oscuro, adecuado o normal, alto o claro, muy alto o muy claro. De acuerdo con esto, el procesamiento de imágenes tiene un cierto grado difuso en la naturaleza; por tanto, es razonable aplicar lógica difusa para la mejora de contraste de una imagen. La mejora del contraste de una imagen se puede llevar a cabo mediante un esquema difuso para procesamiento de imágenes, el cual, de acuerdo con [Chacon & Aguilar, 2001] consiste en transformar una imagen I a un dominio difuso por medio de una función de pertenencia F, la cual se encarga de mapear los niveles de gris de los píxeles a un intervalo [0, 1]. La función de pertenencia F se define con respecto a cual o cuales son las características de la imagen que son de interés como, por ejemplo, el brillo, el contraste o los bordes, en este caso el contraste. El contraste puede ser representado por unas variables lingüisticas que mejor lo describan. Una vez que se definen estas variables, se pueden agregar modificadores, que son los encargados de mejorar la representación del contraste. Dentro de las funciones de pertenencia más comunes se tienen: la función triangular, la función trapezoidal, la función π y la función gaussiana. Los operadores difusos (FO), se pueden definir mediante expresiones matemáticas o reglas difusas. Utilizando expresiones matemáticas, los FO puede realizar operaciones, como el caso de los conjuntos clásicos, pero en el caso de los conjunto difusos se tienen que adecuar ya que se cuenta con el grado de pertenencia. Por medio de reglas difusas, los FO tienen la forma de: Sí condición Entonces acción difusa. Finalmente, la función de desfusificación se encarga de mapear los valores difusos generados por las operaciones de los FO a valores adecuados para su visualización. La mejora del contraste en imágenes de mamografía por medio de lógica difusa no es muy utilizada. Sin embargo, en la literatura se pueden encontrar trabajos como el caso de [Cheng et al., 1998], el cual propone una metodología para la detección de las microcalcificaciones. En ella, las tres primeras etapas de su metodología están relacionadas con el procesamiento de imagen. Por medio de lógica difusa, un realce de 51

86 3.3 Mejora de imagen de mamografía microcalcificaciones es llevado a cabo. Sin embargo, durante este proceso, algunos otros elementos son realzados también como si fueran microcalcificaciones. Para solucionar este problema, fue necesario aplicar una técnica que se puede incluir dentro del procesamiento de imagen. La técnica utilizada está basada en un procesamiento morfológico que fue adaptada a las características que poseen las microcalcificaciones (tamaño, forma, brillo). En los trabajos [Cheng & Xu, 2002], [Cheng et al., 2004], proponen el mismo enfoque que utilizó [Cheng et al., 1998] para la mejora de imágenes de mamografía, solo que, en el primer trabajo se aplicó con la finalidad de realizar una mejora del contraste imágenes de mamografía. En el segundo trabajo, el objetivo fue mejorar el contraste de las microcalcificaciones con respecto al tejido circundante para mejorar su detección Mejora por morfología matemática La Morfología Matemática (MM) es una herramienta muy poderosa en el análisis y el procesamiento digital de imágenes. La MM se encarga de extraer, modificar y combinar los componentes de una imagen que sean útiles en la representación y descripción de una región [Gonzalez & Woods, 2002]. La identificación de objetos y sus características a través su forma, hacen que la MM sea un enfoque apropiado para procesos de visión, procesamiento de imagen y reconocimiento de patrones. En la actualidad existe una gran diversidad de aplicaciones relacionadas con el procesamiento de imagenes, en las que, el uso de técnicas mediante MM han resultado ser exitosas. Entre las más importantes, se pueden mencionar la segmentación [Sulehria et al., 2007], [Fu et al., 2005], la mejora del contraste [Halkiotis et al., 2007], [Mendiola- Santibañez et al., 2007] y la detección de bordes [Jiang et al., 2007], [Chen et al., 2002]. Los fundamentos de la MM están basados en la teoría de conjuntos y los primeros trabajos se deben a H. Minkowski y H. Hadwiger entre los años y mediados de los años 50, respectivamente. Posteriormente, en los años 60, G. Matheron y J. Serra continuaron con las investigaciones y dieron a conocer formalmente la Morfología Matemática como una técnica no lineal de procesamiento de señales [Ortiz-Zamora, 2002]. Para un análisis más detallado sobre la teoría de la MM se recomiendan las siguientes referencias [Matheron, 1975], [Serra, 1982], [Serra, 1988]. A continuación, en los siguientes párrafos se presenta una descripción básica de los fundamentos de algunas operaciones basadas en MM, que han sido utilizas en el procesamiento de imagen, de manera más especifica, en la mejora de imagen basada en el realce del contraste, y que, para este trabajo, se emplean con el objetivo de mejorar o realzar el contraste entre las microcalcificaciones y el tejido que las rodea Operaciones morfológicas Originalmente las operaciones basadas en MM u operaciones morfológicas, fueron desarrolladas para imágenes binarias y posteriormente se extendieron a imágenes en nive- 52

87 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA les de gris, como el caso de las imágenes ROI utilizadas en este trabajo. De acuerdo con lo anterior, el uso de operaciones morfológicas se enfocará solo a imágenes en niveles de gris. Las operaciones morfológicas permiten extraer estructuras geométricas de una imagen I para transformarlas o mejorarlas de acuerdo con algún objetivo predefinido. Generalmente, para esto se utiliza un operador de procesamiento conocido como elemento de estructura o estructurante (SE). El SE es un conjunto completamente definido que está caracterizado por su forma y tamaño y que posee un punto de referencia conocido como origen. Generalmente, el SE es mucho más pequeño que la imagen con la que va interaccionar. Además, la forma y el tamaño del SE son definidos de acuerdo al propósito de la aplicación. En la Figura 3.12 se muestran algunos ejemplos de SE planos básicos utilizados en la práctica. (a) (b) (c) (d) (e) (f) Figura 3.12: Formas básicas de elementos de estructura utilizados en la práctica. Erosión y Dilatación Las operaciones morfológicas básicas más conocidas son la erosión y la dilatación. La combinación de estas operaciones es la base para crear otras operaciones, las cuales, también son usadas en aplicaciones de procesamiento de imagen tales como segmentación, detección de bordes, suavizado, etc. Pero la aplicación que será de gran utilidad para este trabajo es la mejora del contraste. La erosión de una imagen corresponde al valor mínimo de la función (imagen) dentro de un entorno definido por el tamaño y la forma del SE cuando su origen se 53

88 3.3 Mejora de imagen de mamografía posiciona en (x, y). La erosión de una imagen I por un SE se puede expresar de la siguiente manera: I E SE = (I SE)=mín{I(x+i, y+ j) SE(i, j)} (3.9) [(x+i), (y+ j)] D I y (i, j) D SE, donde D I y D SE son los dominios de la imagen y del SE, respectivamente. La condición de que (x+i) y (y+ j) tienen que estar en el dominio de I, i y j tienen que estar en el dominio de SE, denota que el SE esta cubierto por I. A continuación se muestra un ejemplo de la erosión, la cual es aplicada a los elementos de la Tabla 3.1. Éstos representan a un conjunto de píxeles de una imagen en niveles de gris Tabla 3.1: Representación de un conjunto de píxeles de una imagen en niveles de gris. Aplicando un SE plano de tamaño 3 3 como el definido en la Figura 3.12(b), se obtiene una imagen erosionada, que es representada en la Tabla 3.2. En las operaciones morfológicas el SE recorre toda la imagen. En este ejemplo, se ha elegido la aproximación que asegura que el centro del SE recorre todos los píxeles del conjunto elegido Tabla 3.2: Resultado de la erosión por SE de 3 3 representado en la Figura 3.12(b), aplicada al conjunto de píxeles de una imagen en niveles de gris, representado en la Tabla 3.1. Para tener un idea más clara de la erosión, en la Figura 3.13, se muestra un ejemplo de esta operación morfológica sobre la imagen I de Lenna en niveles de gris y de tamaño píxeles, utilizando un SE de tamaño 5 5 y de forma como la que se muestra en la Figura 3.12(b). Como se puede apreciar, la imagen obtenida después de aplicar la erosión, se caracteriza por ser una imagen más oscura que la imagen original. Además los detalles del brillo en la imagen original son reducidos dependiendo de cómo su valor y forma se relacionan con SE. Dicho de otra manera, el efecto visual que se puede apreciar es que las regiones más oscuras aumentan su definición frente a las regiones más claras. 54

89 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA (a) (b) Figura 3.13: Ejemplo de la erosión de la imagen de Lenna (I) utilizando un SE cuadrado de 5 5. (a) Imagen original. (b) Imagen erosionada. Por otro lado, la dilatación de una imagen corresponde al valor máximo de la función (imagen) dentro de un entorno definido por el tamaño y la forma del SE cuando su origen se centra en (x, y). De esta manera, la dilatación de una imagen I por un SE se puede expresar como: I E SE = (I SE)=máx{I(x i, y j)+se(i, j)} (3.10) [(x i), (y j)] D I y (i, j) D SE, donde D I y D SE son los dominios de la imagen y del SE, respectivamente. Asumiendo que el origen de SE coincide con la posición actual (x, y) de la imagen de entrada. A continuación se muestra un ejemplo de la dilatación por un SE plano de tamaño 3 3 y de forma como la presentada en la Figura 3.12(b). La dilatación se aplicará a los elementos de la Tabla 3.1. El resultado obtenido es una imagen dilatada que se representa en la Tabla Tabla 3.3: Resultado de la dilatación por SE de 3 3 representado en la Figura 3.12(b), aplicada al conjunto de píxeles de una imagen en niveles de gris, representado en la Tabla 3.1. Para tener una idea más clara sobre la dilatación, en la Figura 3.14 se puede apreciar el 55

90 3.3 Mejora de imagen de mamografía efecto de esta operación morfológica por un SE de tamaño 5 5 como el que se muestra en la Figura 3.12(b), sobre la imagen de Lenna en niveles de gris. La imagen obtenida después de aplicar la dilatación, se caracteriza por ser una imagen más clara que la imagen original, es decir, las regiones más claras aumentan su definición con respecto a las regiones más oscuras. (a) (b) Figura 3.14: Ejemplo de la dilatación de la imagen de Lenna con un SE cuadrado de 5 5. (a) Imagen original. (b) Imagen dilatada. Apertura y cerradura Mediante la combinación de las operaciones de erosión y dilatación se pueden obtener otro tipo de operaciones morfológicas, que también son utilizadas en aplicaciones de donde está involucrado el procesamiento de imágenes. Entre estas operaciones se encuentran la apertura y la cerradura. La apertura de una imagen I, se define como la erosión de I por SE seguida de una dilatación utilizando el mismo SE. La apertura se puede expresar como (3.11): (I SE)=(I SE) SE (3.11) Por lo general, la operación morfológica de apertura aplicada a una imagen, se encarga de eliminar los objetos que son pequeños y claros con respecto del tamaño del SE. Por otro lado, mantiene el tamaño de los objetos grandes y brillantes. Debido a que se realiza primero la erosión, ésta se encarga de eliminar los pequeños detalles al mismo tiempo que oscurece la imagen y, posteriormente, la dilatación se encarga de aumentar el brillo de la imagen pero sin introducir los detalles eliminados por la erosión [Gonzalez & Woods, 2002]. Por otro lado, la cerradura de una imagen, se define como la dilatación de I por SE seguida de una erosión utilizando el mismo SE. La cerradura es el caso contrario de 56

91 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA la apertura. De acuerdo con la definición de la cerradura, ésta se puede expresar como (3.12): (I SE)(x, y)=(i SE) SE (3.12) La operación morfológica de cerradura aplicada a una imagen, se utiliza para eliminar las regiones oscuras y mantener casi sin cambios las regiones brillantes. Como primero se realiza la dilatación, ésta se encarga de eliminar los detalles oscuros y aumentar el brillo de la imagen para que posteriormente la erosión oscurezca la imagen sin volver a introducir los detalles eliminados por la dilatación [Gonzalez & Woods, 2002]. Para tener una idea más clara de las operaciones morfológicas de apertura y cerradura, en la Figura 3.15 se muestra el efecto de la expresiones 3.11 y 3.12, aplicadas a la imagen de Lenna utilizando un SE de tamaño 5 5 y de forma como la que se muestra en la Figura 3.12(b). (a) (b) (c) Figura 3.15: Efecto de las expresiones 3.11 y 3.12 correspondientes a las operaciones morfológicas de apertura y cerradura, respectivamente, aplicadas sobre la imagen de Lenna. (a) Imagen original. (b) Imagen obtenida mediante la apertura. (c) Imagen obtenida mediante la cerradura Mejora del contraste usando la transformada Top-hat Una vez que se han presentado operaciones de morfología matemática tales como: erosión, dilatación, apertura y cerradura, ahora se presentan otro tipo de operaciones del mismo tipo que son obtenidas de la misma manera que se obtuvieron las operaciones de apertura y cerradura. Al igual que las otras operaciones morfológicas presentadas, estas operaciones también son utilizadas ampliamente en aplicaciones más específicas de procesamiento de imagen tales como: segmentación, detección de bordes, mejora del contraste, supresión de ruido, etc. En este trabajo de tesis, es de gran interés realizar una mejora del contraste de las imágenes ROI. Con el fin de realizar esta tarea, se propone el uso de una técnica conocida como transformada Top-hat. 57

92 3.3 Mejora de imagen de mamografía De acuerdo con [Wirth et al., 2004], el principio de mejora del contraste mediante el uso de operaciones morfológicas fue introducido por [Soille, 1997] como una extensión para modificar el contraste de una imagen. La mejora del contraste de una imagen aplicando morfología matemática se puede realizar a través de la transformada Top-hat propuesta por [Meyer, 1979]. La transformada Top-hat es un tipo de filtro residual ya que se compone de una diferencia de entre dos transformaciones básicas. La transformada Top-hat puede ser de dos tipos: por apertura (3.13) y por cerradura (3.14). De forma general, la transformada Top-hat consiste en resaltar aquellas regiones de la imagen que han sido eliminadas por las operaciones de apertura o cerradura. Por medio de la elección apropiada del tamaño y forma de un SE y aplicando una operación de apertura o cerradura se obtiene una imagen modificada, en la que, dependiendo de la operación aplicada, se eliminan algunos elementos determinados de la imagen original. Después, por medio de la diferencia entre la imagen original y la imagen modificada, aumenta de forma considerable el contraste de las regiones eliminadas. La transformada Top-hat por apertura, está definida como la diferencia entre la imagen original I y la apertura de la imagen original utilizando un SE: (I O TH )(x, y)=i (I SE) (3.13) La transformada Top-hat por cerradura, está definida como la diferencia entre la cerradura de la imagen usando un SE y la imagen original I: (I C TH )(x, y)=(i SE) I (3.14) Una de las principales características de la transformada Top-hat por apertura es que se utiliza para resaltar objetos localmente brillantes dentro de una imagen. Esto se debe a que, primero la operación de apertura se encarga de reducir los detalles brillantes dentro la imagen. Después, por medio de la diferencia entre la imagen original y la imagen modificada por la apertura, se obtiene una nueva imagen con los objetos o regiones resaltados. Es decir, en la imagen transformada se obtiene la mejora del contraste de los objetos o regiones que fueron eliminados por la operación de apertura. De acuerdo con lo anterior, hace que específicamente la transformada Top-hat por apertura sea una excelente opción para modificar el contraste de las imágenes ROI y, en consecuencia, realzar las microcalcificaciones con respecto al tejido circundante. De aquí en adelante se usará el término transformada Top-hat refiriéndose a la transformada Top-hat por apertura. A continuación, con el objetivo de mostrar el funcionamiento de la transformada Top-hat, en la Figura 3.16 se ilustra un ejemplo de la transformada Top-hat para una señal unidimensional, donde esta señal corresponde con un fila de una imagen ROI con presencia de microcalcificación. En la Figura 3.17 se muestran diferentes ejemplos de imágenes ROI procesadas mediante 58

93 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Gray Intensity Value Original Opening Top Hat Pixel/Row Figura 3.16: Ejemplo de la transformada Top-hat para una señal. La gráfica de color rojo corresponde al perfil de la fila de la ROI original, cuyo pico corresponde al nivel de gris de una microcalcificación. La gráfica de color azul corresponde a la operación de apertura sobre la fila de la ROI original. Claramente se observa cual es la finalidad de la operación de apertura. Finalmente, la gráfica de color negro corresponde a la diferencia de la gráfica del perfil de la fila original y la modificada por la operación de apertura, resultando así la trasformada Top-hat. la transformada Top-hat utilizando diferentes tamaños de SE, cuya forma del SE es como la presentada en la Figura 3.12(c). En la Figura 3.17 se puede apreciar que el contraste de las imágenes se ha modificado, permitiendo una mejor visualización las microcalcificaciones presentes en las imágenes, cumpliéndose con el objetivo de la mejora de la imagen. La mejora del contraste en imágenes de mamografía ha sido utilizada en diferentes trabajos con el objetivo especifico de realzar las microcalcificaciones del tejido que las rodea, con la finalidad de mejorar o hacer que su detección sea más sencilla, ya sea por medio de un sistema de detección o por medio de un especialista. Si es por medio de un sistema de detección, existen algunos trabajos que en su etapa o etapas de preprocesamiento o procesamiento utilizan operaciones de morfología matemática, entre estas la transformada Top-hat. Entre estos trabajos se pueden destacar los siguientes [Papadopoulos et al., 2002], [Wirth et al., 2004], [Ozgur, 2004], [Fu et al., 2005], [Stojic et al., 2005], [Halkiotis et al., 2007], [Stojic & Reljin, 2010], los cuales han obtenido resultados satisfactorios en cuanto a detección de microcalcificaciones se refiere. 59

94 3.3 Mejora de imagen de mamografía (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) (k) (l) (m) (n) (ñ) (o) Figura 3.17: Imágenes procesadas mediante la transformada Top-hat. (a)-(d) Imágenes ROI originales. (e)-(h) ROIs procesadas con un SE 3 3. (i)-(l) ROIs procesadas con un SE 5 5. (m)-(o) ROIs procesadas con un SE

95 3. PROCESAMIENTO DE IMÁGENES DE MAMOGRAFÍA Evaluación de las técnicas de mejora de imagen Uno de los problemas de las técnicas de mejora de imagen es la cuantificación del desempeño de la técnica empleada, es decir, contar con algún criterio de evaluación que compruebe que verdaderamente se produjo una mejora, en comparación con alguna otra técnica usada con el mismo objetivo [Cheng et al., 2003]. En la literatura correspondiente a mejora de imagen utilizando técnicas de mejora o realce del contraste, la mayoría de los autores coinciden en que, el desempeño de las técnicas se caracteriza por un proceso directo de inspección visual. Por otro lado, con el objetivo de realizar otro tipo de comparación de las técnicas de mejora de imagen, en diferentes trabajos se han propuesto algunos métodos para evaluar la mejora de una forma cuantitativa. En este trabajo, se va a utilizar un método llamado índice de mejora de contraste (CII, contrast improvement index), el cual fue propuesto por [Laine et al., 1994a] y ha sido utilizado en diferentes trabajos tales como [Kang et al., 2004], [Yoon & Ro, 2002], como medida del desempeño de la mejora del contraste en imágenes de mamografía. El CII se define como: CII= C IP C IO (3.15) donde, C IP y C IO corresponden a los contrastes de la imagen ROI mejorada y de la imagen ROI original, respectivamente. El contraste C de una region con microcalcificaciones se define como: C= f b f+ b (3.16) donde, f y b, representan el promedio de los valores de gris de la region con microcalcificación y el promedio de los valores de gris de la region del tejido, respectivamente. Cuanto más grande sea el valor del CII mayor será el desempeño de la técnica. Para realizar la comparación cuantitativa de la mejora del contraste de las imágenes ROI de la Figura 3.17, se obtiene el CII definido en (3.15), para las siguientes técnicas de mejora de contraste presentadas en este capítulo: 1. Ecualización del histograma (EQH) a) Utilizando la expresión (3.3) b) Utilizando la función de transformación adaptativa no-lineal (FTANL) definida en la expresión (3.4) 2. Mejora local de imagen a) Mejora del contraste local (CL) definido en la expresión (3.7) 3. Morfología matemática 61

96 3.3 Mejora de imagen de mamografía a) Utilizando la transformada Top-hat definida en la expresión (3.13) Los datos presentados en la Tabla 3.4, resumen los valores obtenidos del CII, para la imágenes ROI procesadas con diferentes técnicas de mejora del contraste. Imagen Técnica de mejora de contraste EQH FTANL CL Top-hat Figura 3.17(a) Figura 3.17(b) Figura 3.17(c) Figura 3.17(d) Tabla 3.4: Valores de CII obtenidos con algunas de las técnicas de mejora de imagen para las imágenes ROI de la Figura De acuerdo con los resultados obtenidos del CII para las técnicas de mejora de imagen analizadas, se puede observar que la mejora de contraste aplicando la transformada Top-hat para las imágenes ROI fue la mejor. Teniendo en cuenta una de las principales características de la transformada Top-hat, la mejora del contraste de objetos o regiones localmente brillantes dentro de una imagen por medio de una elección apropiada de SE además del desempeño obtenido a través del CII, convierten a la transformada Top-hat en una muy buena opción para modificar el contraste de las imágenes ROI de acuerdo con el objetivo planteado para esta etapa del sistema propuesto, que consiste en realzar las microcalcificaciones con respecto al tejido que las rodea. 62

97 Capítulo 4 Segmentación de microcalcificaciones mediante agrupamiento 4.1. Introducción La segmentación es una de las etapas más importantes en el procesamiento digital de imágenes cuyo objetivo principal es subdividir una imagen en diferentes regiones u objetos que sean homogéneas respecto a una o más características, tales como: el nivel de intensidad de gris, el color, la textura, etc. El nivel de la subdivisión dependerá del problema a resolver, es decir, la segmentación deberá detenerse cuando los objetos de interés de una aplicación hayan sido aislados [Gonzalez & Woods, 2002]. Por ejemplo, en el análisis de imágenes de mamografía para la detección temprana del cáncer de mama, el interés tiende a la identificación de regiones sospechosas, es decir, regiones con presencia de alguna anormalidad del tipo microcalcificaciones. El objetivo es dividir la imagen en objeto y fondo, considerando como objeto a las regiones que contengan microcalcificaciones y como fondo al resto de regiones de la imagen que no sean de interés. Matemáticamente, la segmentación de una imagen I se interpreta como una división de ésta en S i regiones no solapadas o disjuntas, cumpliéndose las siguientes condiciones: c S i = I talque S i S j =, i j (4.1) i=1 La primera condición de la expresión (4.1) indica que de la unión de las regiones segmentadas resulta la imagen completa, mientras que la segunda condición asume que las regiones deben ser disjuntas, es decir, que no haya solapamiento entre ellas. En la Figura 4.1 se muestra una imagen ROI de una mamografía así como su segmentación en diferentes regiones. 63

98 4.1 Introducción (a) (b) Figura 4.1: Segmentación de una imagen ROI. (a) Imagen original. (b) Imagen segmentada en diferentes regiones. Las técnicas de segmentación de imágenes en niveles de gris están generalmente basadas en una de las dos propiedades básicas de los valores del nivel de gris: discontinuidad y similitud. De acuerdo con estas propiedades, las técnicas de segmentación se pueden clasificar en: Técnicas basadas en discontinuidad. La segmentación se realiza de acuerdo a cambios bruscos de nivel de gris. Técnicas basadas en similitud. Estas técnicas están basadas en la umbralización, agrupamiento, crecimiento de región así como división y fusión de regiones. Durante los últimos años, una gran variedad de técnicas de segmentación de imagen han sido propuestas y han sido ampliamente utilizadas en diferentes áreas, tales como: visión artificial, análisis de imágenes médicas, teledetección, agricultura, entre otras. En la Tabla 4.1, se resumen algunas aplicaciones de segmentación de imagen. Además, en la literatura se puede encontrar un gran número trabajos relacionados con el tema de segmentación, en los cuales ésta se describe más detalladamente. Entre esos trabajos se destacan y se recomiendan los siguientes: [Haralick & Shapiro, 1985], [Pal & Pal, 1993], [Jain et al., 1999],[Pham et al., 2000]. De manera más general y de acuerdo con las técnicas más comúnmente usadas, es posible clasificar la segmentación de imágenes en supervisada y no supervisada. En la segmentación supervisada, se dispone generalmente de un conjunto de datos etiquetados, es decir, los datos ya están asignados a un grupo (clase) específico. Las técnicas de segmentación supervisada son utilizadas, por lo general, en aplicaciones de 64

99 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Campos de aplicación Aplicación Referencias Visión artificial Detección de rostros [Albiol et al., 2001], [Hmid & Jemaa, 2006], [Xia et al., 2006] Reconocimiento de escritura [Fujisawa et al., 1992], [Kumar & Singh, 2010], [Sheshadri et al., 2010] Reconocimiento de matrículas de automóvil [Anagnostopoulos et al., 2008], [Kaushik et al., 2009], [Shyang-Lih et al., 2004] Detección de huella dactilar [Kang & Zhang, 2009], [Yang et al., 2012], [Bana & Kaur, 2011] Análisis de imágenes médicas Segmentación de imágenes RM del cerebro [Algorri & Flores-Mangas, 2004], [Hata et al., 2000], [Zhang & Chen, 2004], [Kannan et al., 2010] Detección de microcalcificaciones [Fu et al., 2005], [Cheng et al., 2004], [Quintanilla-Domínguez et al., 2011b] Detección de vasos sanguíneos [Xu & Luo, 2010], [Mendonca & Campilho, 2006], [Marín et al., 2011] Teledetección Cálculo del índice de Vegetación [Rodriguez-Yi et al., 2000], [Lhermitte et al., 2008] Detección de zonas urbanas/rurales [Fombellida et al., 2009], [Alonso et al., 2011], [Mitra & Pratim-Kundu, 2011], [Sowmya & Rani, 2011] Agricultura Detección de porosidad en suelos [Cortina-Januchs et al., 2011], [Tarquis et al., 2009], [Kaestner et al., 2008] Detección o clasificación de la calidad de frutos maduros [Ojeda-Magaña et al., 2010], [Cheng-Jin & Da-Wen, 2004], [Cubero et al., 2011] Tabla 4.1: Campos de aplicación de la segmentación de imágenes. 65

100 4.1 Introducción clasificación. Una de las principales técnicas de segmentación supervisada son las redes neuronales artificiales que serán tratadas con más detalle en el Capítulo 5. Por otro lado, las técnicas de segmentación no supervisada tienen como objetivo organizar o encontrar grupos (regiones) naturales en un conjunto de datos, que aporten información de interés. De acuerdo con lo anterior, las técnicas de segmentación no supervisadas más comúnmente utilizadas son aquellas que se basan en la detección de regiones y bordes, respectivamente. La detección de bordes consiste en determinar donde ocurre una discontinuidad en la imagen, es decir, donde existe una variación considerable en la intensidad de los niveles de gris. Dentro de las principales técnicas de segmentación no supervisadas basadas en la detección de bordes se encuentran los operadores basados en la primera (gradiente) y segunda (laplaciano) derivada de la variación de los niveles de gris de una imagen. Los operadores más conocidos son Roberts, Prewitt, Sobel y Canny [Gonzalez & Woods, 2002]. La detección de regiones consiste en dividir una imagen en zonas mediante el análisis de características de los píxeles de acuerdo con un criterio de homogeneidad. Las principales técnicas de segmentación no supervisadas basadas en la detección de regiones son la umbralización, el crecimiento de regiones y el agrupamiento. Debido al problema que se aborda en este trabajo de tesis, las técnicas de segmentación que mejor se adecuan al mismo son la umbralización y el agrupamiento. Estas técnicas serán presentadas con más detalle a lo largo de este capítulo. El objetivo de la umbralización es dividir la imagen por medio de uno o varios umbrales relacionados con los niveles de gris de los píxeles. Dichos umbrales están previamente definidos y permiten generar nuevos grupos de píxeles que definan los objetos presentes en la imagen. La selección del valor del umbral se obtiene generalmente a partir del histograma de la imagen. El uso de la segmentación por medio de umbralización es una excelente opción en imágenes donde los objetos de interés se pueden diferenciar de aquellos que no lo son, como, por ejemplo, en imágenes donde existen regiones u objetos luminosos sobre un fondo oscuro. En las imágenes ROI de mamografía, aplicar ésta técnica de segmentación no sería la mejor opción ya que las microcalcificaciones no siempre se pueden diferenciar fácilmente del tejido sano, a pesar de corresponder éstas generalmente con los píxeles de niveles de gris alto. Por otro lado, lo que si puede ser conveniente, es aplicar previamente una técnica de mejora de imagen con el objetivo de resaltar las microcalcificaciones del fondo de la imagen y, una vez que se ha realizado esto, aplicar la umbralización. Aún aplicando este par de técnicas con el objetivo de identificar las regiones que correspondan a microcalcificaciones dentro una imagen ROI, 66

101 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO no siempre se cumple con el objetivo. En trabajos como por ejemplo [Wu et al., 2006], se propone un método para detectar microcalcificaciones en imágenes de mamografía en el cual, mediante una detección de bordes aplicando un operador LoG (Laplaciana de una Gaussiana) y una umbralización, logran detectar regiones correspondientes a microcalcificaciones. La selección del valor del umbral fue obtenido de forma empírica sin tener en cuenta el histograma de la imagen. En [Papadopoulos et al., 2002] se utiliza la umbralización en una mamografía a campo completo. En una mamografía típica a campo completo existen, por lo general, diferentes áreas, tales como: el fondo, la región de la mama y las marcas informativas. El objetivo de la umbralización en ese trabajo es dividir la imagen en dos regiones, el fondo y la región de la mama. El valor del umbral propuesto para llevar a cabo la segmentación de la mamografía fue obtenido a través del histograma de la imagen. Posteriormente se enfocan en la región de la mama para obtener imágenes ROI y, sobre estas, aplicar una metodología para identificar microcalcificaciones. Por otro lado, los algoritmos de agrupamiento particionales son una de las técnicas más usadas para la segmentación de imágenes basadas en regiones. El resultado del agrupamiento se puede representar a través de una imagen segmentada, donde cada píxel representa una etiqueta de los grupos en los que fue divido el conjunto de datos. Este se forma a partir de alguna o algunas de las características de similitud previamente definidas. Esto es debido a que los algoritmos de agrupamiento particionales aplicados a un conjunto de datos, tienen como objetivo encontrar grupos homogéneos en el espacio de las características. De ahí la existencia de una tendencia natural para aplicar algoritmos de agrupamiento para la segmentación de imágenes. De acuerdo con lo anterior, es posible también obtener o extraer información (conocimiento) útil de las imágenes a partir de la segmentación por medio de algoritmos de agrupamiento particionales. Para el ejemplo de las imágenes de mamografía, aplicar esta técnica de segmentación se convierte en una excelente opción ya que puede aportar información relevante sobre las regiones cuyos píxeles correspondan a microcalcificaciones o tejido sano. El propósito del capítulo actual es presentar la segmentación de imágenes utilizando algoritmos de agrupamiento particionales aplicados a imágenes ROI de mamografía, con el objetivo de identificar regiones correspondientes a microcalcificación y a tejido sano. Para llevar a cabo esta tarea se utilizarán tres algoritmos de agrupamiento tales como, el k-means, el Fuzzy c-means (FCM) y el Posibilista Fuzzy c-means (PFCM). Siendo el k-means y el FCM los algoritmos particionales basados en agrupamiento más utilizados en la segmentación de imágenes. El k-means es el algoritmo particional más conocido. Su principal característica es que realiza una partición estricta o dura de un conjunto de datos, es decir, divide dicho conjunto en k grupos, tal que, cada uno de los datos sólo puede pertenecer a uno de los grupos en los que fue dividido el conjunto de datos. En el trabajo de [Vega-Corona et al., 2003] utilizan el k-means aplicado a imágenes ROI con el propósito de agrupar vectores de características de niveles de gris. El objetivo es encontrar grupos que correspondan a 67

102 4.1 Introducción microcalcificación y tejido sano, respectivamente. Una vez finalizado el agrupamiento, éste se representa por medio de una imagen segmentada donde los píxeles representan a las etiquetas de cada grupo. En el trabajo de [Verma et al., 2010] se aplica el k-means a imágenes ROI pero con otro tipo de anormalidad, en este caso, masas. El objetivo es agrupar datos relacionados con la forma de la anormalidad, así como datos clínicos relacionados con las pacientes. El resultado del agrupamiento fue determinar qué grupos pertenecen a un diagnóstico maligno o benigno, respectivamente. El FCM es otro algoritmo de agrupamiento que, al igual que el k-means, es ampliamente utilizado en aplicaciones de segmentación de imagen. La principal diferencia y ventaja entre el k-means y el FCM es que, éste último, calcula un grado de pertenencia difuso de los datos respecto a cada grupo en los que se divide un conjunto de datos. Esta característica permite que un dato pertenezca a más de un grupo pero con un determinado grado o valor de pertenencia. En [Bhattacharya & Das, 2007] utilizan el valor del grado de pertenencia difuso del FCM para segmentar microcalcificaciones en imágenes ROI. El agrupamiento se realiza utilizando el valor de intensidad de los píxeles de la imagen. En dicho trabajo proponen tres grupos para dividir la imagen, el tejido normal, la falsa presencia de microcalcificaciones y las regiones con microcalcificaciones. En [Sutton et al., 2000] utilizan el FCM para segmentar una mamografía a campo completo, con el objetivo identificar las anormalidades presentes en la imagen. El agrupamiento se realiza solo utilizando el valor de intensidad de los píxeles de la imagen. Tanto para el k-means como para el FCM es necesario saber el nivel de agrupamiento, es decir, saber en cuantos grupos se va a dividir el conjunto de datos para obtener la información de interés, aunque eso dependerá del problema a resolver. En el caso de las imágenes ROI, el número de grupos en los que se va a dividir el conjunto de datos, con el objetivo de encontrar el grupo de interés (en este caso las microcalcificaciones), no es un valor conocido. Esto se convierte en un inconveniente para este tipo de algoritmos. Para tratar de solucionar este inconveniente, en algunos trabajos proponen diferentes alternativas como, por ejemplo ir aumentando el número de particiones de los datos y supervisar el resultado obtenido a medida que aumenta dicho número y así hasta que se cumpla el objetivo. Por obviedad, esto se vuelve un trabajo muy tedioso. Otros trabajos proponen algunas alternativas para que la segmentación a través de algoritmos de agrupamiento sea lo más automatizado posible y se cumpla con el objetivo. Entre estas alternativas se pueden mencionar las técnicas de validación de agrupamientos a través de una métrica que mide la separabilidad entre los grupos [Fukunaga, 1990] o la comparación de los resultados obtenidos del proceso de segmentación con una segmentación manual como en [Arikidis et al., 2010]. En este trabajo de tesis, para solucionar una parte del problema al que se enfrentan el k-means y el FCM en la segmentación de imágenes, se propone una nueva alternativa que está basada en el algoritmo de agrupamiento PFCM. Esta técnica fue propuesta en [Ojeda-Magaña et al., 2009a] y fue llamada sub-segmentación. A pesar de que la técnica está basada en un algoritmo de agrupamiento particional como el PFCM, 68

103 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO la forma en que se realiza el agrupamiento de los datos sigue siendo la misma que para el k-means y el FCM, solo que ahora se aprovecha la información que proporciona el PFCM de los datos con respecto a los grupos en los que se divide el conjunto de datos. Dicha información corresponde al valor de pertenencia difuso y al valor de pertenencia posibilista. Los datos pueden pertenecer a más de un grupo, pero con diferentes valores tanto de grado de pertenencia difuso y como posibilista. Para el caso de la segmentación de imagen, se puede utilizar cualquiera de los dos valores con lo que los píxeles de la imagen representarían el valor de pertenencia difuso o posibilista. En el caso de utilizar el valor de pertenencia difuso, el funcionamiento sería el mismo que el del FCM. Para la sub-segmentación se utiliza la información del valor de pertenencia posibilista. La finalidad de usar este valor es que, a través de éste se puede obtener una información adicional de los datos con respecto de los grupos y el centro de cada grupo (prototipo). Esta información se puede interpretar como, datos típicos y atípicos [Ojeda-Magaña, 2010]. De acuerdo con esta información, los datos típicos son aquellos datos que son más representativos del grupo. Por el contrario los datos menos representativos serán los datos atípicos. A partir de esta información, para el caso de la sub-segmentación, de cada grupo se pueden obtener sub-grupos en los cuales se puede encontrar la información que puede ser de interés para una aplicación. Una manera de obtener dichos sub-grupos con datos típicos y atípicos es a través de una umbralización como se propuso en [Ojeda-Magaña et al., 2009a]. En la subsección se tratará más detalladamente el tema de la sub-segmentación y se presentarán algunos ejemplos donde se ha aplicado dicha técnica, especialmente en imágenes ROI para la localizar las regiones correspondientes a las microcalcificaciones. Antes de presentar la segmentación basada en los algoritmos k-means y el FCM, y la sub-segmentación basada en el PFCM, es necesario presentar algunos conceptos relevantes que están relacionados con el Reconocimiento de Patrones (RP). El RP está encargado de extraer información contenida en un conjunto de datos con dos objetivos principales. El primero, identificar y localizar a través de grupos la naturaleza de la estructura de los datos. El segundo, clasificar objetos en un número de categorías o clases. El RP se acompaña de algunas disciplinas entre las que se pueden mencionar: extracción y selección de características, análisis discriminante, análisis de agrupamientos, inferencia gramatical y reconocimiento sintáctico [Duda et al., 2001]. En el contexto de este capítulo, el enfoque está basado en el análisis de agrupamientos, el cual, de acuerdo con el estudio de RP, se le conoce también como RP estadístico. En el análisis de agrupamientos, cada uno de los datos es representado por un vector de n valores llamados características donde cada vector representa un punto en el espacio n-dimensional. Por consiguiente, si existe una correlación entre los datos, entonces la distribución de los datos en el espacio de características deberá ser definida por alguna medida. 69

104 4.2 Conceptos y definiciones en análisis de agrupamiento 4.2. Conceptos y definiciones en análisis de agrupamiento El agrupamiento o clustering es considerado como la aproximación más utilizada en aprendizaje no supervisado. El término agrupamiento es usado en diferentes campos de la investigación, generalmente se utiliza para describir métodos para agrupar datos. Una gran cantidad de metodologías, donde los algoritmos de agrupamiento están involucrados, se han venido desarrollado en una diversidad de contextos así como disciplinas. Un ejemplo claro de esto es el procesamiento de imágenes, siendo la segmentación una de las principales aplicaciones. El análisis de agrupamientos (cluster analysis) es un proceso de organización de una colección de datos o patrones sin etiquetar o clasificar (generalmente representados en un espacio de características (n-dimensional), en grupos o clases a través de una medida de similitud [Jain et al., 1999]. El objetivo principal de este proceso es obtener un grupo de datos que sean lo más similares u homogéneos entre ellos y a la vez diferentes con respecto a los datos de otros grupos, con la finalidad de obtener alguna información de interés que justifique la existencia de cada uno de los grupos [Ojeda-Magaña, 2010]. El análisis de agrupamientos pueden ser aplicado tanto a datos cuantitativos (datos numéricos) como a datos cualitativos (categorías). Es importante resaltar que los datos utilizados en este trabajo son del tipo numérico, por lo que el análisis será aplicado a datos cuantitativos. La Figura 4.2 muestra la representación de un ejemplo de agrupamiento de datos. 7 Espacio de Caracteristicas 6 Longitud del Petalo (cm) Centro / Prototipo Clase / Grupo 3 Clase / Grupo 2 Clase / Grupo 1 2 Patron (z i ) (Longitud Sepalo,Longitud Petalo) Dimension del Patron (d) = Longitud del Sepalo (cm) Figura 4.2: Representación del proceso de agrupamiento sobre un conjunto de datos. 70

105 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Etapas del proceso del proceso de agrupamiento En aplicaciones donde se utilicen técnicas basadas en algoritmos de agrupamiento, es necesario tener en cuenta algunas etapas para obtener resultados satisfactorios que, dependiendo del tipo de aplicación, pueden variar. Por lo general, estas etapas según [Jain et al., 1999] se resumen de la siguiente manera: 1. Representación de los datos: esta etapa se compone de la extracción y la selección de las características de los datos. La extracción de características se refiere al preprocesamiento de las características de entrada. La selección de características se encarga de identificar el subconjunto más relevante de las características originales, así como reducir la dimensión para realizar el agrupamiento. 2. Medida de distancia: esta etapa se encarga de determinar la similitud o la proximidad entre los datos para formar los grupos o clases. 3. Elección del algoritmo: esta etapa se relaciona con la forma de obtener los grupos o etiquetas de los datos y que puede ser jerárquica o particional. 4. Abstracción de los datos: esta etapa se refiere al proceso de extracción de una representación simple y compacta del conjunto de datos. Generalmente se representa a través de la selección de algunos de los datos más representativos, por ejemplo el centro o prototipo de los grupos. 5. Validación e interpretación de los resultados: la validación se encarga de la evaluación de los resultados del agrupamiento, generalmente dividida en evaluación externa, revisión interna y evaluación subjetiva. Finalmente, la interpretación está relacionada con la información (conocimiento) que aporta el algoritmo de agrupamiento aplicado a un conjunto de datos, con el objetivo de obtener algún significado que no se poseía antes de realizar el proceso. La etapa relacionada con la elección del algoritmo, es considerada como la etapa principal para llevar a cabo el proceso del agrupamiento. De acuerdo con la definición de esta etapa, los algoritmos de agrupamiento se pueden clasificar, principalmente, en dos categorías: algoritmos jerárquicos y algoritmos particionales. Es importante destacar que, en esta tesis, solo se abordarán los algoritmos particionales. Los algoritmos de agrupamiento jerárquicos generan una serie anidada de particiones basadas en un criterio relacionado con la similitud para la fusión o división de los grupos. 71

106 4.2 Conceptos y definiciones en análisis de agrupamiento Por otro lado, los algoritmos de agrupamiento particionales se pueden clasificar en diferentes tipos, pero la más común es según la forma en que realizan la partición de los datos. Otra forma de clasificar los algoritmos de agrupamiento particionales es mediante cuantización vectorial. El objetivo de la cuantización vectorial es obtener una representación aproximada de los datos, de tal manera que se minimice el error generado en esta representación. La principal diferencia entre el agrupamiento por la forma de la partición de los datos y la cuantización vectorial es que éste último se encarga de encontrar un prototipo que mejor represente a los datos, mientras que el primer enfoque se encarga de identificar grupos basado en una propiedad de similitud de los datos. Uno de los algoritmos de agrupamiento basado en la cuantización vectorial son los Mapas Auto-organizados (SOM) que fueron propuestos por [Kohonen, 1990]. La SOM es utilizada en una gran diversidad de trabajos y en diferentes de aplicaciones como, por ejemplo, determinar el índice de calidad del aire de manera automática utilizando variables meteorológicas de dirección y velocidad del viento así como concentraciones de contaminantes de dióxido de azufre (SO 2 ) y partículas menores a 10 micrómetros (PM 10 ) [Barrón-Adame et al., 2012]. Los algoritmos particionales, de acuerdo con la forma en que realizan la partición de los datos, se clasifican en: duros o estrictos (hard), difusos (fuzzy) y posibilistas (possibilistic). En la partición dura, su principal característica es que un dato solo puede pertenecer a uno de los grupos. La participación probabilística es un caso especial de la partición dura y se basa en la clasificación bayesiana. La principal característica de la partición difusa es que un dato puede pertenecer a más de un grupo con un grado de pertenencia difusa con valores entre 0 y 1, donde la suma de los valores de pertenencia es 1 [Bezdek, 1981]. En la partición posibilista, una de sus principales características es que alivia la restricción de la suma de los valores de pertenencia en la partición difusa [Krishnapuram & Keller, 1996] [Pal et al., 2005]. Otra característica importante de esta partición es que para cada dato, obtiene un valor o grado de pertenencia posibilista (también conocido como valor típico) para cada uno de los grupos que es independiente de los demás grupos. En un grupo de datos, de acuerdo con el valor típico, no todos los datos contenidos éste son equivalentes, es decir, hay datos que son más típicos (representativos) que otros. Un dato es típico si es similar a los otros datos del grupo y está muy cerca de su centro (prototipo del grupo). Por el contrario, un dato es atípico si se encuentra muy alejado de su centro, por lo tanto, es considerado como poco representativo del grupo, pero que cumple con alguna característica que hacen que pertenezca a él [Ojeda-Magaña, 2010]. En este trabajo se tratarán solo algoritmos de agrupamiento basados en métodos particionales y de manera específica aquellos que están basados en la partición de los datos, principalmente los de la familia c-means, tales como el k-means, el FCM y el PFCM. En la literatura se puede encontrar una gran cantidad de trabajos sobre algoritmos de agrupamiento, en los cuales se hace un análisis más detallado del tema en cuanto a fundamentos y aplicaciones. A continuación se presentan algunos de los más citados [Duda et al., 2001], [Bezdek, 1981], [Jain & Dubes, 1988], [Jain, 2010], [Jain et al., 1999], [Kotsiantis & Pintelas, 2004]. 72

107 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Definiciones y notación De acuerdo con la terminología utilizada en RP: Un patrón x, también conocido como vector de características, observación o dato. Generalmente es representado por una letra minúscula en negrita y consiste en un vector de datos o características usado en el proceso de agrupamiento. Matemáticamente se representa como: x=(x 1,...,x d ) T = donde cada elemento x i R es un escalar que representa una característica, d N representa la dimensión del patrón o del espacio de características y T indica una transpuesta del vector. x 1 x 2 Un conjunto de patrones X se puede expresar como:. x d X={x 1, x 2,...,x n } donde el i-ésimo patrón en X se puede expresar como: x i = (x i,1, x i,2,...,x i,d ) Otra manera de representar un conjunto de patrones es a través de una matriz de dimensiones n d como: x 11 x x 1d X=[x 1, x 2,..., x n ] T = x 21 x x 2d x n1 x n2... x nd (4.2) donde, cada una de las n Nfilas y d Ncolumnas de X representan un patrón y una característica, respectivamente. Grupo o clase (k), se refiere al conjunto de patrones agrupados después del proceso de agrupamiento, donde k N se encuentra definido en el intervalo: 2 k<k donde K es el número máximo de grupos. 73

108 4.2 Conceptos y definiciones en análisis de agrupamiento Agrupamiento o clustering: es el proceso de agrupar datos o patrones de tal manera que estos tengan alguna similitud entre ellos, así como al proceso completo de realizar esta tarea. El objetivo del agrupamiento es la partición de un conjunto de patrones X en K grupos C 1, C 2,...,C K de tal manera que se cumplan las siguientes condiciones: C i 0, i=1,...,k K i=1 C i= X C i C j = i,j : i j, i, j=1, 2,...,K De acuerdo con las condiciones presentadas, el tipo de partición de X es conocida como dura o estricta, es decir, un dato de X solo puede pertenecer a un único grupo. Aunque también puede darse el caso de que un dato pueda pertenecer a más de un grupo pero con cierto grado de pertenencia difusa o posibilista Medidas de distancia o similitud Las medidas de distancia o similitud son expresiones matemáticas que permiten expresar mediante un número el grado de relación entre dos datos en el mismo espacio de características, en base a la semejanza o la desigualdad entre la cantidad y/o la cualidad de sus atributos. Estas medidas son parte fundamental para formar los grupos en el proceso de agrupamiento. Aunque más que medir la similitud entre dos datos, es más común medir la disimilitud entre ellos en base a una distancia definida. Debido a la gran variedad de tipos, características y escalas, la medida de distancia debe ser elegida cuidadosamente. Las medidas de distancia más comunes son: La distancia de Minkowski definida en (4.3). Una de las peculiaridades de esta distancia es que las características de valor y varianza grande tienden a dominar sobre las demás características: ( d ) 1 d p (x i, x j )= x i,k x j,k p p (4.3) k=1 La distancia Euclídea es un caso especial de la distancia de Minkowski cuando p=2. Esta distancia es la más utilizada y está definida como: ( d ) 1 d 2 (x i, x j )= x i,k x j,k 2 2 k=1 (4.4) Distancia de Manhattan es otro caso es especial de la distancia de Minkowski, pero cuando p=1, y se define como: d 1 (x i, x j )= 74 d x i,k x j,k (4.5) k=1

109 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Distancia de Mahalanobis está definida en la expresión (4.6), dondeσes la matriz de covarianzas del conjunto de patrones. Dentro de las cualidades de esta distancia se tiene que: es invariante ante los cambios de escala, tiene en cuenta las correlaciones entre las variables además de ser invariante con respecto a trasformaciones lineales no singulares de las variables. La distancia de Mahalanobis es idéntica a la distancia Euclídea cuando la matriz de covarianzas es igual a la matriz identidad. d M (x i, x j )=(x i x j ) T Σ 1 (x i x j ) (4.6) 4.3. Algoritmos de agrupamiento particionales Por lo general, los algoritmos de agrupamiento particionales se encargan de generar grupos por medio de la optimización de una función objetivo que puede ser definida de forma local en un subconjunto de datos o de forma global sobre todo un conjunto de datos [Jain et al., 1999]. La función objetivo es uno de los principales factores en los algoritmos de agrupamiento particionales. La función objetivo más utilizada en algoritmos de agrupamiento particionales está basada en el error cuadrático. Una de los principales motivos por los que es usada esta función es debido a que genera buenos resultados en grupos aislados y compactos. El error cuadrático para el agrupamiento de un conjunto de datos X en K grupos se define como: e 2 (X)= n K j x (j) v i j 2 (4.7) j=1 i=1 donde, n j es el número de datos en el j-ésimo grupo, x (j) i al j-ésimo grupo y v j es el centro del j-ésimo grupo. es el i-ésimo patrón perteneciente De acuerdo a dos aspectos fundamentales tales como: el tipo de partición del espacio de características y la función objetivo, existen diversos algoritmos particionales. Entre los más conocidos están los algoritmos de la familia c-means. A continuación, se presenta el funcionamiento básico de algunos de estos algoritmos, aplicados primero a una base de datos conocida (base de datos Iris) con el objetivo de obtener datos agrupados. Posteriormente, se aplicará con otra finalidad que está relacionada con una etapa del procesamiento de imágenes conocida como segmentación. En ambas aplicaciones el objetivo es similar. Este implica que sea posible obtener información de interés que sirva de ayuda en alguna aplicación especifica a través del agrupamiento de datos. Para el caso que se aborda en este trabajo de tesis, se utilizan algunos de los algoritmos de agrupamiento para realizar la segmentación y, por medio de ésta, obtener alguna información que sea interés. Como ya se mencionó, esta información deberá estar relacionada con la localización de las microcalcificaciones presentes en una imagen ROI. 75

110 4.3 Algoritmos de agrupamiento particionales Algoritmo k-means El algoritmo k-means o hard c-means fue propuesto en [MacQueen, 1967] y es uno de los algoritmos de agrupamiento particionales más conocidos. Se basa en la teoría clásica de conjuntos y utiliza la función objetivo basada en el error cuadrático definida en la expresión (4.7). La principal característica del k-means es que hace una partición dura o estricta de un conjunto de datos, debido a que funciona bajo el principio del vecino más cercano. Esto significa que el algoritmo realiza el agrupamiento de los datos en base a un criterio de mínima distancia entre estos y el centro de un grupo. Dado un conjunto de datos X y un número definido de grupos K, el k-means divide X en K grupos{c 1, C 2,...C K } y calcula los centros V=[v 1, v 2,..., v k ] de cada de uno de los grupos C i, de tal manera que minimice la función objetivo definida en la expresión (4.8). J(X; V)= K j=1 n i=1 x (j) i v j 2 (4.8) donde x (j) v i j 2 es una medida de distancia entre el dato x i y el centro v j. V=[v 1, v 2,..., v j ] es el vector de centros de los K grupos, los cuales son calculados de acuerdo con: v j = 1 x i (4.9) n x i C i donde, n representa el número de datos pertenecientes al grupo C i. A continuación se presenta la secuencia que sigue el algoritmo k-means para realizar el proceso del agrupamiento: Algoritmo k-means Dado un conjunto de datos X, un número de grupos K y un valor de toleranciaεen el intervalo ( 0,001 ε 0,01). 1. Se inicializan los centros v j de los grupos, generalmente de manera aleatoria. 2. Se calcula la distancia entre los datos x i y el centro v j de cada grupo. 3. Se actualiza el valor del centro v j de acuerdo con la expresión (4.9). 4. El algoritmo termina si se cumple la condición: v old v new ε (4.10) 76

111 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 5. Si no se cumple la condición (4.10), vuelve al paso 2. Dentro de las principales ventajas del k-means se encuentran las siguientes: su implementación es muy sencilla, funciona muy bien para grupos compactos y de forma hiperesférica, además se puede aplicar a un conjunto de datos de gran dimensión y con una gran cantidad de datos. Para mayor referencia sobre este algoritmo y algunas de sus variantes, existe una amplia bibliografía entre las cuales se recomiendan [Jain, 2010], [Xu & Wunsch, 2005], [Kanungo et al., 2002] Agrupamiento de datos mediante k-means El algoritmo k-means es considerado como el referente principal entre los diversos algoritmos para generar grupos representativos en un conjunto de datos. Su funcionamiento se basa fundamentalmente en la optimización de la función definida en la expresión (4.7), un criterio de mínima distancia para realizar la asignación de los datos a los grupos en los que se divide el conjunto de datos, así como la manera en que se actualizan los centros de dichos grupos. A continuación se aplica el algoritmo descrito en a una de las bases de datos más conocidas, la base de datos Iris (Iris flower data set or Fisher s Iris data set) [Fisher, 1936]. El objetivo es mostrar como se realiza el proceso de agrupamiento utilizando el algoritmo k-means. La base de datos Iris cuenta con 50 muestras de tres tipos de especies de flor Iris (Setosa, Virgínica y Versicolor), ver Figura 4.3, de las cuales se midieron cuatro características: longitud y ancho del sépalo, longitud y ancho del pétalo. Todas las medidas se expresan en centímetros. (a) (b) (c) Figura 4.3: Ejemplos de la flor Iris. (a) Iris setosa. (b) Iris versicolor. (c) Iris virginica. En la Figura 4.4 se muestra una gráfica de la base de datos, tomando en cuenta dos de las cuatro características, longitud de sépalo vs. longitud de pétalo. En esta figura se observa que, el grupo correspondiente a la clase Iris setosa está perfectamente separado del otro grupo que está formado por las otras dos clases Iris virgínica y versicolor, respectivamente. 77

112 4.3 Algoritmos de agrupamiento particionales 7 6 Logitud de petalo Iris setosa Iris versicolor Iris virginica Logitud de sepalo Figura 4.4: Representación gráfica de los datos la base de datos Iris en un espacio de características en 2D, utilizando dos de sus características principales, longitud de sépalo y longitud de pétalo. Antes de continuar con el ejemplo de agrupamiento es necesario aclarar que, a pesar de saber la etiqueta o, en este caso, el grupo al cual pertenece cada uno de los datos como se muestra en la Figura 4.4, para aplicar cualquiera de los algoritmos presentados en este capítulo, se considera que se tiene una base de datos sin etiquetar, es decir, no se sabe a que grupo o clase pertenece cada uno de los datos que la conforman, como se muestra en la Figura 4.5. Teniendo en cuenta la consideración, el objetivo ya es conocido, obtener información del conjunto de los datos a través de un tipo partición. Para el ejemplo presentado, el problema es saber a que grupo pertenece cada uno de los datos. Como punto de partida, se sabe el número de grupos en que se va a dividir el conjunto de datos, lo que lo convierte en una condición inicial para el algoritmo. Por otro lado, se sabe que hay aplicaciones en las que este punto de referencia no siempre estará disponible. En esos casos, el usuario puede o debe definir algún(os) criterio(s) como punto de partida para poder llevar a cabo el agrupamiento independientemente de las condiciones iniciales de la técnica empleada para realizar el proceso. Para analizar el funcionamiento del k-means se aplica el algoritmo descrito en la subsección con el fin de agrupar la base de datos Iris, teniendo en cuenta las siguientes condiciones iniciales así como algunas de las etapas del agrupamiento presentadas en 4.2.1: 78

113 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 7 6 Logitud de petalo Logitud de sepalo Figura 4.5: Representación gráfica de los datos sin etiquetar de la base de datos Iris en un espacio de características 2D, utilizando dos de sus características principales, longitud de sépalo y longitud de pétalo. Número de particiones de los datos, K=3. Valores iniciales de los centros: seleccionados de forma aleatoria. Tipo de distancia: euclídea. Valor de toleranciaε=0,001 Total de datos: 150 Número de características: 2 (longitud de sépalo y longitud de pétalo). La Figura 4.6 muestra el resultado obtenido del proceso de agrupamiento de la base de datos Iris aplicando el algoritmo k-means. En la Figura 4.7 se puede apreciar como fue la actualización de los centros de los grupos durante todo el proceso de agrupamiento. De acuerdo con los resultados obtenidos, el k-means funciona muy bien cuando los grupos son disjuntos (grupos aislados) y compactos como se aprecia en la Figura 4.6. Los datos correspondientes al grupo Iris setosa ( ) están totalmente separados del resto de los datos. En el caso donde los grupos están solapados, como es el caso de los datos del grupos del Iris versicolor ( ) y los datos del grupo Iris virginica ( ), al algoritmo le cuesta trabajo realizar la partición de estos grupos de manera satisfactoria, como se aprecia en la Figura 4.8. Esto se debe a que el algoritmo realiza una partición dura o estricta del conjunto de los datos. Por lo tanto, el algoritmo no realiza una buena partición de X y asigna datos 79

114 4.3 Algoritmos de agrupamiento particionales 7 6 Logitud de petalo Logitud de sepalo Figura 4.6: Resultado del proceso de agrupamiento de datos sobre la base de datos Iris aplicando el algoritmo k-means. 7 6 Logitud de petalo Logitud de sepalo Figura 4.7: Representación de la actualización de los centros de cada grupo durante el proceso de agrupamiento utilizando el k-means. de un grupo especifico (Iris virginica) a otro (Iris versicolor). Para tener una idea más clara del error cometido por el k-means en la partición de estos datos, en la Figura 4.8, se muestra el solapamiento de los datos de los grupos correspondientes que, incluso para un ser humano, su separación en sus respectivos grupos, supondría una tarea muy difícil 80

115 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Logitud de petalo Iris virginica Iris versicolor Logitud de sepalo Figura 4.8: Representación del traslape de los datos entre los grupos Iris versicolor y virginica. si no se contara con algún tipo de información sobre estos. Una forma de solucionar este inconveniente aplicando el algoritmo sería seleccionar una(s) característica(s) que mejor representen a los datos o cambiar el algoritmo por otro que aporte otro tipo de información que sirva de ayuda en el proceso de agrupamiento. Finalmente en la Figura 4.9 se pueden apreciar aquellos datos que fueron mal agrupados por el k-means Algoritmo Fuzzy c-means En el apartado anterior se presentó el algoritmo k-means que realiza una partición dura o estricta del conjunto de datos, lo que garantiza que un dato solo pueda ser asignado a un único grupo. Junto con la descripción del algoritmo se presentó un ejemplo de agrupamiento de datos, en el que se apreció cómo se realiza la partición de un conjunto de datos en un espacio definido por el número de características. En ese ejemplo también se apreció uno de los principales inconvenientes del algoritmo, que está relacionado con la forma en que realiza la partición de los datos. Para solucionar ese inconveniente, una de las propuestas fue aplicar otro algoritmo que fuera capaz de generar otro tipo de información que fuera de ayuda en el proceso de agrupamiento. Uno de los algoritmos que cumple con esa característica es el algoritmo Fuzzy c-means (FCM). El FCM inicialmente fue desarrollado en [Dunn, 1973] y después generalizado en [Bezdek, 1981]. Una característica importante del FCM es que sus fundamentos se basan 81

116 4.3 Algoritmos de agrupamiento particionales 7 6 Logitud de petalo Iris virginica Iris versicolor Iris setosa Datos mal agrupados Logitud de sepalo Figura 4.9: Resultado del agrupamiento utilizando el k-means sobre la base de datos Iris así como la representación de los datos que fueron asignados incorrectamente en el proceso del agrupamiento. en la teoría de conjuntos difusos (The fuzzy set theory), que fue propuesta por el profesor [Zadeh, 1965]. El FCM, al igual que el k-means, es uno de los algoritmos de agrupamiento particionales ampliamente conocido y utilizado en una gran variedad de aplicaciones. De acuerdo con el tipo de partición que realiza el FCM sobre un conjunto de datos en el proceso de agrupamiento, ésta permite que un dato pueda pertenecer a todos los grupos en los que se ha dividido un conjunto de datos, pero con un cierto valor o grado de pertenencia, que se conoce como grado de pertenencia difuso. Finalmente, la tarea de asignación de los datos hacia un grupo se realiza mediante el valor máximo del grado de pertenencia difuso. El funcionamiento del FCM se basa en la optimización de la función objetivo definida en la expresión (4.11) J f cm (X; U, V)= K j=1 n i=1 (u ji ) m x (j) i v j 2, (4.11) donde, u ji representa la función de pertenencia del dato x i correspondiente al j-ésimo grupo con centro v. m [1, ] es el exponente que determina el grado difusidad de los grupos resultantes. El valor de m es muy importante en el algoritmo FCM debido a que afecta directamente a los centros. Cuando m=1, el FCM funciona de igual manera que al algoritmo k-means. En la literatura se pueden encontrar algunos trabajos que determinan 82

117 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO el valor de m en los que recomiendan que se utilicen valores en el intervalo 1,5 m 2,5 aunque generalmente siempre se utiliza el valor de m = 2 [Pal et al., 2005], [Pal & Bezdek, 1995]. Sin embargo es importante destacar que las recomendaciones de utilizar el valor de m en ese intervalo se basan en análisis empíricos, es decir, que el uso del valor de m en ese intervalo no garantiza que siempre se obtengan resultados satisfactorios. Por otro lado, x i v j 2 es una medida de distancia de un dato x i y el centro v j del j-ésimo grupo. La minimización de la función objetivo (4.11) es un problema de optimización que se resolvió en [Bezdek, 1981] tomando en cuenta las siguientes consideraciones: 0 u ji 1 (4.12) K u ji = 1, i=1, 2,...,n (4.13) j=1 n u ji > 0, j=1, 2,...,K (4.14) i=1 De acuerdo con estas restricciones, a los algoritmos de agrupamiento difusos también se les conoce como agrupamientos probabilísticos [Timm et al., 2004]. Considerando las restricciones (4.13) y (4.14), d ji = x (j) v i j >0 y que X contenga por lo menos n datos diferentes, entonces J f cm pude minimizarse solo sí, u ji = ( K j=1 ) (d ji ) 1 2/(m 1) (4.15) d ji 1 j K; 1 i n v j = n i=1 um ji x i n i=1 um ji (4.16) 1 j K A continuación se presenta la secuencia que sigue el algoritmo FCM para realizar el proceso del agrupamiento de datos: Algoritmo FCM Dado un conjunto de datos X, un número K de grupos, un valor de difusidad m>1 y un valor de toleranciaεen el rango ( 0,001 ε 0,01). 83

118 4.3 Algoritmos de agrupamiento particionales 1. Valores iniciales de los centros v j seleccionados de manera aleatoria. 2. Calcular la distancia entre los datos x i y el centro v j de cada uno grupo. 3. Calcular el valor del grado de pertenencia difuso u ji de los datos mediante la expresión (4.15). 4. Actualizar los centros v j mediante la expresión (4.16). 5. Comprobar que se cumpla la siguiente condición: v new v old ε, Si se cumple esta condición, el algoritmo termina. En caso contrario, volver al paso Ejemplo de agrupamiento de datos mediante FCM Para verificar el funcionamiento del FCM, se aplica el algoritmo descrito en la subsección a la base de datos Iris bajo las siguientes condiciones iniciales: Número de particiones de los datos K=3. Valores iniciales de los centros: seleccionados de forma aleatoria. Tipo de distancia: euclídea. El valor de difusidad m = 2. El valor de tolerancia ε = 0,001 Total de datos: 150 Número de características: 2 (longitud de sépalo y longitud de pétalo). Los resultados obtenidos del agrupamiento aplicando el FCM se pueden observar en la Figura Del FCM se aprovechó la información obtenida del valor del grado de pertenencia difuso de los datos respecto a cada uno los grupos para asignar los datos a los grupos en los que se dividió el conjunto de datos. La asignación de un dato hacia un grupo se hizo a través del valor máximo del grado de pertenencia difuso de ese dato respecto a los grupos o centros que los representan. La Figura 4.11, muestra el proceso de la actualización de los centros durante el agrupamiento aplicando el FCM a la base de datos Iris. De acuerdo con los resultados obtenidos en el proceso de agrupamiento a la base de datos Iris mediante el k-means y los resultados obtenidos mediante el FCM, se observó que los resultados son muy parecidos. La diferencia principal entre estos algoritmos es que el k-means hace que cada 84

119 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 7 6 Logitud de petalo Logitud de sepalo Figura 4.10: Resultados del proceso de agrupamiento utilizando el FCM aplicado a la base de datos Iris. 7 6 Logitud de petalo Logitud de sepalo Figura 4.11: Representación de la actualización de los centros durante el proceso de agrupamiento de la base de datos Iris aplicando el FCM. dato pertenezca a un solo grupo, mientras que el FCM permite una pertenencia parcial de un dato a más de un grupo a través del valor del grado de pertenencia. 85

120 4.3 Algoritmos de agrupamiento particionales En la Figura 4.12 se puede apreciar el grado de pertenencia difuso u ji obtenido para cada uno de los datos respecto al centro de cada grupo. Continuando con el análisis del resultado del agrupamiento aplicando el FCM, se observa claramente que los datos del grupo correspondiente a Iris setosa ( ), están perfectamente agrupados. Esto se debe a que este grupo esta disjunto del resto. En la Figura 4.12, se puede observar como varía el valor del grado de pertenencia difuso de los datos de este grupo con respecto al centro de cada uno de los grupos. Con respecto al centro de su mismo grupo, la variación es muy pequeña, es decir, tienen un grado de pertenencia alto. Por otro lado, el color de los datos que están más alejados del centro del grupo tiende a oscurecer porque su grado de pertenencia empieza a disminuir. El valor del grado de pertenencia de los datos de este grupo respecto a los centros del resto de los grupos, se puede apreciar que es muy pequeño o aproximadamente 0. El problema continúa en los grupos donde los datos están solapados, Iris virginica ( ) e Iris versicolor ( ). En estos grupos, los datos que están más cercanos a su centro, tienen un valor de grado de pertenencia difuso mayor. En la Figura 4.12 se puede observar como el color es mucho más claro cuanto más cercanos esten los datos al centro del grupo y como ese color se oscurece en el caso de los datos más alejados de dichos centro. En los datos que se encuentran en la frontera de ambos grupos, entre los que se situan los datos solapados, el valor del grado de pertenencia hacia ambos centros de los grupos es similar. El efecto visual que se aprecia es como el color se va difuminando a medida que el grado de pertenencia disminuye. La idea de representar el valor del grado de pertenencia difuso de los datos a través de un color tiene por objetivo apreciar la ventaja que tiene el FCM sobre el k-means. Esta radica en que el FCM permite que un dato pertenezca a más de un grupo con un cierto grado de pertenencia y aprovechar este valor para realizar la asignación de los datos hacia un grupo específico. Finalmente, en la Figura 4.13 se puede observar el número de datos mal agrupados en la base de datos Iris mediante el algoritmo FCM. La diferencia de errores de agrupamiento entre el k-means y el FCM fue de un error Algoritmo Posibilista c-means El algoritmo Posibilista c-means (PCM) fue propuesto en [Krishnapuram & Keller, 1993], con la finalidad de aliviar la restricción de la expresión (4.13) del FCM, que establece que la suma del grado de pertenencia difuso 0<u ji 1 de los datos correspondientes a un grupo debe ser igual 1. En ese trabajo se sugiere que u ji debe ser interpretado como el valor típico de x i relativo al j-ésimo grupo. En otras palabras, como de representativo o característico es x i del j-ésimo grupo con centro v j. De acuerdo con esto, se puede interpretar a la matriz de la partición difusa U como una distribución de posibilidad sobre el conjunto de datos X, conocida como matriz de pertenencia posibilista (valores típicos) y es representada como T=[t ji ] K n [Pal et al., 2005]. Los datos con un valor típico alto serán los datos más representativos de su grupo y se les llamará datos típicos. Por 86

121 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Figura 4.12: Representación de la variación del grado de pertenencia difuso obtenido por el FCM para cada uno de los datos de la base de datos Iris. 7 6 Logitud de petalo Logitud de sepalo Figura 4.13: Representación de los datos asignados incorrectamente a grupo durante el proceso del agrupamiento utilizando FCM. 87

122 4.3 Algoritmos de agrupamiento particionales el contrario, los datos atípicos serán aquellos cuyo valor de tipicalidad es bajo y serán considerados como los datos menos representativos. El funcionamiento del PCM está basado en la optimización de la función objetivo definida en la expresión (4.17), J pcm (X; T, V,γ)= K j=1 n i=1 (t ji ) m x (j) ji v j 2 + K j=1 γ j n (1 t ji ) m, (4.17) i=1 para γ j > 0, 1 j K. (4.18) El primer término de la función J pcm es idéntico a la función objetivo del FCM. El segundo término tiene una penalidad que intenta atraer los valores típicos hacia 1.γ j es una constante definida por el usuario y m es el exponente que determina el grado de difusidad. De acuerdo con [Krishnapuram & Keller, 1993], siγ j > 0, 1 j K, m>1 y X está formado por n datos distintos, entonces J pcm se puede minimizar únicamente si: t ji = 1 1+ ( x (j) v i j ), (4.19) 2 1/(m 1) γ j 1 j K; 1 i n v j = n i=1 (t ji) m x (j) i n i=1 (t ji) m, (4.20) 1 j K; 1 i n. En [Krishnapuram & Keller, 1996] hacen la recomendación importante de que primero se ejecute el FCM con la finalidad de estimar los valores iniciales del PCM, mientras que valor deγ j puede ser calculado mediante la siguiente expresión: γ j = k n i=1 (u ji) m x (j) i v j 2 n i=1 (u ji) m (4.21) donde k>0 es un valor constante que, por lo general, toma un valor de k=1. Los valores de u ji son obtenidos del FCM con la finalidad de reducir la influencia del ruido. La matriz posibilista T depende del valorγ j, es decir, siγ j es pequeño entonces t ji será pequeño. En caso contrario, siγ j es grade entonces t ji será grande. De acuerdo con lo anterior, resulta que el PCM es muy sensible al valor deγ j. 88

123 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO A continuación se presenta la secuencia que sigue el algoritmo PCM para realizar el proceso del agrupamiento de datos: Algoritmo PCM Dado un conjunto de datos X, un número K de grupos,γ>0, m>1 y un valor de toleranciaεen el rango ( 0,001 ε 0,01). 1. Ejecutar el FCM. De acuerdo con los centros y el grado de pertenencia obtenidos por este algoritmo, se calculaγ i mediante la expresión (4.21). 2. Calcular la distancia entre los datos x i y cada uno de los centros v j. 3. Calcular la matriz de posibilidad T mediante la expresión (4.19), si x (j) ji v j 2 > 0 4. Actualizar los centros v i mediante la expresión (4.20). 5. Comprobar que se cumpla la siguiente condición: v new v old ε, Si se cumple la condición, el algoritmo termina. En caso contrario, volver al paso Ejemplo de agrupamiento mediante PCM Para verificar el funcionamiento del PCM en una aplicación de agrupamiento de datos, se aplica el algoritmo descrito la subsección a la base de datos Iris. De acuerdo con el algoritmo del PCM, los parámetros iniciales son los mismos que para el FCM de la subsección anterior. Número de grupos, K = 3. Valores iniciales de los centros para el FCM: seleccionados de forma aleatoria. Tipo de distancia: euclídea. El valor de m=2. El valorε=0,001. Total de datos:

124 4.3 Algoritmos de agrupamiento particionales Número de características: 2 (longitud de sépalo y longitud de pétalo). Ejecutar el FCM para obtener los centros y el grado de pertenencia difuso de los datos para obtener el valor deγ j. La Figura 4.14 muestra los resultados del agrupamiento de la base de datos Iris aplicando el algoritmo descrito para el PCM. La asignación de los datos a un grupo se realizó por medio del valor máximo de la matriz de posibilidad T obtenido para cada dato. En la Figura 4.14 se puede apreciar el principal problema de este algoritmo, que es 7 6 Logitud de petalo Logitud de sepalo Figura 4.14: Resultados del proceso de agrupamiento de datos utilizando el PCM aplicado a la base de datos Iris. su sensibilidad en función de los parámetros inicialización, lo que genera, en algunas ocasiones, que coincidan los centros de los grupos. Como consecuencia de esto, se genera una mala partición del conjunto de datos. Debido a este problema, el PCM no tuvo mucho éxito en aplicaciones donde el agrupamiento de datos está involucrado. El problema de coincidencia de los centros generado por el PCM fue descubierto en [Barni et al., 1996]. Varias soluciones al problema fueron propuestas en [Timm & Kruse, 2002], [Timm et al., 2004] y [Pal et al., 2005]. En este ejemplo se observa que, para los grupos correspondientes al Iris virginica ( ) y versicolor ( ) sus respectivos centros coinciden, en consecuencia, se formó un solo grupo. Para el grupo Iris setosa ( ) no fue así, debido a que este grupo está disjunto del resto de los grupos. En la Figura 4.15 se puede apreciar la representación del valor del grado de pertenencia posibilista (tipicalidad) (t ji ) de los datos agrupados con respecto a su grupo y al resto de los grupos. Los datos que tienen un valor del 90

125 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Figura 4.15: Representación del valor del grado de pertenencia posibilista (tipicalidad) de los datos agrupados aplicando el PCM para la base de datos Iris. grado de pertenencia posibilista (tipicalidad) alto corresponden a los datos más típicos o representativos de su grupo. Estos datos, en la gráfica correspondiente, se representan mediante un valor de intensidad de color más alta. En el caso de los datos correspondientes al grupo Iris setosa, se puede observar como varía el valor del grado de pertenencia posibilista (tipicalidad) ( ). Como ya se mencionó, cuando éste es alto, el color que representa dicho valor es más claro. Generalmente, éstos son los datos que están mas cerca del centro, los datos más representativos. Por el contrario, los datos con un valor más bajo, se consideran como datos menos típicos o atípicos de su grupo, y, en la gráfica de la Figura 4.15, se representan con un valor de intensidad de color que se va difuminando a medida que disminuye el valor de tipicalidad. Generalmente, estos datos son los que están más alejados del centro y se consideran como menos representativos. En el caso de otro grupo formado con los datos correspondientes al Iris virginica y al Iris versicolor ( ), ocurre lo mismo que para el grupo Iris setosa Algoritmo Posibilista Fuzzy c-means Uno de los más recientes algoritmos de agrupamiento particionales es el Posibilista Fuzzy c-means (Possibilistic Fuzzy c-means, PFCM), que fue propuesto en [Pal et al., 2005]. El PFCM es un algoritmo híbrido del FCM y el PCM, por lo que ofrece las ventajas de ambos algoritmos. El FCM tiene una restricción probabilística que lo hace poco eficaz para tratar aquellos datos que están muy alejados de un grupo y del centro de éste. Para solucionar ese problema en [Krishnapuram & Keller, 1993] proponen el PCM, que 91

126 4.3 Algoritmos de agrupamiento particionales proporciona un valor de tipicalidad de los datos con respecto a un grupo. Pero debido al problema de coincidencia de los centros ocasionado por la inicialización sus parámetros, el PCM no tuvo mucho éxito. Para resolver este problema, algunos autores propusieron varias soluciones, pero la que obtuvo mayor éxito fue la propuesta en [Pal et al., 2005]. En esta propuesta no solo resolvieron el problema del PCM, sino que también lograron obtener, para cada uno de los datos de un grupo, un grado de pertenencia difuso así como un valor de pertenencia posibilista (tipicalidad) con respecto al centro o prototipo del grupo. La forma en que proporciona la información este tipo algoritmo es de gran ayuda en el proceso del agrupamiento ya que permite obtener una relación más clara entre el grado de pertenencia difuso y el grado de pertenencia posibilista o valor de tipicalidad de cada uno de los datos respecto al número de particiones. Ambos enfoques serán de gran utilidad en el proceso de asignación de los datos a un grupo, ya que se puede utilizar el grado de pertenencia difuso como en el FCM o el valor de tipicalidad como en el PCM o incluso ambos, con el objetivo de tener una mejor información para poder agrupar los datos de la mejor manera posible. El funcionamiento del PFCM está basado en la siguiente función objetivo: J p f cm (X; U, T, V) = K j=1 K n (a(u ji ) m + b(t ji ) η ) x (j) v i j 2 + i=1 γ j j=1 i=1 n (1 t ji ) η, (4.22) bajo las siguientes condiciones K j=1 u ij= 1 i; 0 u ij, t ij 1 y las constantes a>0, b>0, m>1yη>1. Donde las constantes a N y b N definidas por el usuario, representan la importancia relativa entre el grado de pertenencia difusa y el valor de tipicalidad, respectivamente. u ji tiene el mismo significado de pertenencia difusa que en en el FCM. De igual manera pasa con t ji que tiene la misma interpretación del valor de pertenencia posibilista que en el PCM. De acuerdo con [Pal et al., 2005], si D ji = x (j) v i i > 0, para j, i, m > 1,η > 1, y X esta formado por lo menos por n datos distintos, entonces se puede minimizar J p f cm únicamente si: ( K ) (D ji ) 1 2/(m 1) u ji = (4.23) D li l=1 1 j K; t ji = 1 i n 1 1+ ( ) 1/(η 1) (4.24) b γ j D 2 ji 1 j K; 1 i n v j = n i=1 [a(u ji) m + b(t ji ) η ]x (j) i n i=1 (a(u ji) m + b(t ji ) η, (4.25) ) 92

127 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 1 j K. A continuación se presenta la secuencia del algoritmo PFCM para realizar el proceso de agrupamiento de datos: Algoritmo PFCM Dado un conjunto de datos X, un número de grupos K. m,η, a, b > 1 y un valor de toleranciaεen el rango ( 0,001 ε 0,01). 1. Valores iniciales de los centros v para el FCM: seleccionados de forma aleatoria. 2. Ejecutar el FCM propuesto en la subsección De acuerdo con los centros y el grado de pertenencia de los datos obtenidos en 2, calcularγ j para cada grupo mediante la expresión (4.21) con k=1. 4. Calcular la distancia entre los datos x i y cada uno de los centros v j. 5. Calcular la matriz de pertenencia difusa U mediante la expresión (4.23) si, x (j) i v j 2 > 0 6. Calcular la matriz de posibilidad T mediante la expresión (4.24) si, x (j) i v j 2 > 0 7. Actualizar los centros v j mediante la expresión (4.25). 8. Comprobar que se cumpla la siguiente condición: v new v old ε, Si se cumple la condición el algoritmo termina. En caso contrario, volver al paso 4. Los parámetros (a, b, m,η) del PFCM desempeñan un papel importante, tanto para el grado de pertenencia difusa así como para el valor del grado de pertenencia posibilista (típicalidad). Los parámetros m y η tienen la misma función que su respectivos algoritmos FCM y PCM. Las constantes a y b influyen para el cálculo del centro mediante la ecuación (4.25). Si b>a, los centros estan más influenciados por los valores típicos que por los valores del grado pertenencia difusa. Por el contrario, si a>b los centros estarán más 93

128 4.3 Algoritmos de agrupamiento particionales influenciados por los valores del grado de pertenencia difusa. Después de una serie de pruebas realizadas en [Pal et al., 2005], usando un conjunto de datos estándar, los autores concluyen que, para reducir el efecto de los valores atípicos o ruido, se deben cumplir las siguientes condiciones: b>a y m>η además de tener un especial cuidado con que el valor de m no sea muy grande, ya que, de no cumplirse esto, el PFCM puede comportase como el PCM y que haya coincidencias en los centros de los grupos Ejemplo de agrupamiento mediante PFCM Para verificar el funcionamiento del PFCM en una aplicación de agrupamiento de datos, se aplica el algoritmo descrito en la subsección a la base de datos Iris. Los parámetros iniciales del algoritmo PFCM para realizar el proceso de agrupamiento son los siguientes: Número de grupos, K = 3. Valor inicial de los centros para el FCM: seleccionados de forma aleatoria. Tipo de distancia: euclídea. m=2yη=2. a=1 y b=2. Valor de toleranciaε=0,001. Total de datos: 150. Número de características: 2 (longitud de sépalo y longitud de pétalo). Ejecutar el FCM para obtener los centros y el grado de pertenencia difuso de los datos para obtener el valor deγ i. Los resultados del agrupamiento de datos mediante el PFCM aplicado a la base de datos Iris se muestran en la Figura En la Figura 4.16(a) se muestran los resultados del agrupamiento utilizando el grado de pertenencia difuso de los datos. La asignación de los datos a un grupo se realizó por medio del valor máximo del grado de pertenencia de la matriz de partición difusa U. En la Figura 4.16(b) se muestran los resultados del agrupamiento utilizando la partición posibilista T mediante el valor del grado de tipicalidad de los datos. La asignación de los datos a un grupo se realizó a través del valor máximo del grado de tipicalidad de la matriz de partición posibilista T. Comparando la Figura 4.16(b) correspondiente al agrupamiento con el PFCM, con la Figura 4.14 correspondiente al agrupamiento con el PCM, se puede comprobar que, utilizando el algoritmo PFCM se ha solucionado el problema de coincidencia de los centros que sufre el PCM, y que generaba una mala partición de X. 94

129 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 7 6 Logitud de petalo Logitud de sepalo (a) 7 6 Logitud de petalo Logitud de sepalo (b) Figura 4.16: Resultados del proceso de agrupamiento de datos aplicando el PFCM sobre la base de datos Iris. (a) Utilizando los valores del grado de pertenencia de la matriz difusa U. (b) Utilizando los valores del grado de pertenencia de la matriz posibilista (tipicalidad)t. 95

130 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento En la Figura 4.17 se muestra la representación del grado de pertenencia difuso (u ji ) de la matriz de la partición difusa (U) y el grado de tipicalidad (t ji ) de la matriz de la partición posibilista (T) de los datos agrupados después de aplicar el PFCM. Como se ha mencionado, la información que proporciona el PFCM sobre el grado de pertenencia difuso y el valor de la tipicalidad de los datos con respecto de los grupos y los respectivos centros, es de gran importancia en el proceso de agrupamiento de datos. Por ejemplo, utilizar el valor de tipicalidad para realizar la asignación de los datos a los grupos correspondientes con el PFCM aporta una mayor información de los datos debido a que este valor indica cuan representativos son los datos con respecto al grupo y al centro de éste. Dicho de otra manera, indica cuan típicos o atípicos son los datos del grupo con respecto al centro o sí se trata de datos que se pueden considerar simplemente ruido. En la Figura 4.17(b) se puede observar claramente el efecto del valor de tipicalidad de los datos. Los datos más representativos (datos típicos) de los grupos están en color claro. A medida que disminuye el valor de la tipicalidad el color se va difuminando, es decir los datos son menos representativos (datos atípicos). Por otro lado, si se utiliza el grado de pertenencia difuso para realizar la asignación de los datos a los grupos correspondientes, este valor aporta una información que puede que no sea tan relevante para realizar la asignación de los datos como el valor de tipicalidad. Esto se puede comprobar y comparar de manera visual en ambas gráficas de la Figura Por ejemplo, para el caso de los grupos correspondientes al Iris virginica, ( ) y al Iris versicolor ( )., existen datos de ambos grupos que están solapados. Una forma de solucionar este inconveniente sería utilizar el valor de tipicalidad de los datos de ambos grupos y aplicar un valor de umbral que sirva de ayuda para poder agrupar de manera satisfactoria los datos. Finalmente en la Figura 4.18, se muestran los datos que fueron mal agrupados por el PFCM Segmentación y sub-segmentación mediante algoritmos de agrupamiento En los apartados anteriores, se presentaron algunos de los algoritmos de agrupamiento particionales de la familia c-means, con el objetivo de mostrar el funcionamiento de estos algoritmos aplicados al proceso de agrupamiento de datos. También se analizaron los diferentes tipos de particiones que realizan, con el fin de obtener el mayor nivel de información (conocimiento) que sea útil para una aplicación específica. En este apartado se aplicarán estos algoritmos particionales con la finalidad de llevar a cabo una de las etapas más importantes del procesamiento de imágenes, como es la segmentación. El objetivo es segmentar una imagen ROI para extraer información relevante de las regiones que correspondan a microcalcificaciones y diferenciarlas de aquellas que correspondan a lo que se considera como tejido sano. A continuación se presentan dos enfoques para realizar la segmentación, uno de manera clásica y el otro aplicando una combinación de técnicas clásicas. El primer enfoque está basado en algoritmos particionales como son el k-means y el FCM. El segundo es una técnica 96

131 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO (a) (b) Figura 4.17: (a) Representación del grado de pertenencia difuso de los datos agrupados de la base de datos Iris. (b) Representación del grado de pertenencia posibilista (tipicalidad) de los datos agrupados de la base de datos Iris. 97

132 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento 7 6 Logitud de petalo Logitud de sepalo (a) 7 6 Logitud de petalo Logitud de sepalo (b) Figura 4.18: Resultado de los datos mal agrupados de la base de datos Iris usando PFCM. (a) Usando U. (b) Usando T. 98

133 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO novel llamada sub-segmentación que fue propuesta en [Ojeda-Magaña et al., 2009b]. La sub-segmentación se fundamenta en el algoritmo particional PFCM y una técnica de umbralización. Ambos enfoques tienen el mismo objetivo que es segmentar una imagen ROI con la finalidad de obtener información de las microcalcificaciones presentes en la imagen. Existe una gran similitud entre la segmentación de imagen y el proceso de agrupamiento mediante algoritmos de agrupamiento particionales. Ambos enfoques tienen como principal objetivo encontrar regiones o grupos más o menos homogéneos, respecto a alguna característica, que aporten información relevante. A pesar de que la segmentación y el proceso de agrupamiento funcionan de manera semejante, es importante diferenciar que la segmentación trabaja sobre el dominio espacial de la imagen, mientras que los algoritmos de agrupamiento lo hacen en el espacio de las características. Por lo tanto, para no generar confusión, cuando el contexto esté relacionado con la segmentación, a los grupos que se forman durante el proceso de agrupamiento se les llamará regiones. En este trabajo de tesis, uno de los objetivos específicos es utilizar la segmentación de una imagen ROI, ya que ésta puede aportar información relevante (conocimiento) sobre las regiones cuyos píxeles correspondan a microcalcificaciones o a tejido sano. Una de las técnicas más usadas para llevar a cabo la segmentación, es por medio del proceso de agrupamiento de datos aplicando algoritmos de agrupamiento particionales. El resultado del proceso de agrupamiento de los datos se puede representar a través de una imagen segmentada, donde cada píxel representa una etiqueta de los grupos en los que fue dividido el conjunto de datos. Por este motivo existe una tendencia natural para aplicar algoritmos de agrupamiento para la segmentación de imágenes. En este caso, el conjunto de datos está formado por alguna característica de la imagen como por ejemplo: color, intensidad de nivel de gris, textura, etc. En esta parte de la segmentación de imagen, aplicando algoritmos de agrupamiento, se considera necesario utilizar un criterio para validar el agrupamiento de los datos. Para realizar esta validación se utiliza un análisis discriminante de Fisher [Duda et al., 2001]. Este criterio utiliza una proyección ortogonal de los datos desde el espacio n-dimensional sobre un hiperplano, para medir la separabilidad entre los grupos. Es posible medir la dispersión entre los datos y la dispersión entre los grupos formados en el proceso de agrupamiento como un criterio para validar la partición del espacio de características. Se ha utilizado este criterio, debido a que la métrica que se utiliza varía en función de las matrices de dispersión de los grupos formados. Por otro lado, aunque los datos estén separados debido al procesamiento previo aplicado a la imagen, los grupos compactos que son proyectados ortogonalmente sobre una línea, generalmente producen una mezcla confusa de datos de ambas clases, lo que resulta en un bajo desempeño en el proceso del agrupamiento. El nivel de separación entre los grupos aplicando este criterio, se mide usando matrices de dispersión, que son generadas en el proceso de agrupamiento. Estas matrices, se definen como matriz de dispersión intra-clase y matriz de dispersión entre-clase. La matriz de dispersión intra-clase, representa la dispersión de los datos de un grupo alrededor de su centro o prototipo y se define como: 99

134 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento S ω = K S j (4.26) j=1 donde nj S j = i=1 (x (j) i v j )(x (j) i v j ) T (4.27) donde K es el número de grupos, x (j), son los datos del grupo C i k y n j el número de datos en el agrupamiento K. La matriz de dispersión entre-clase representa la dispersión entre los datos alrededor de la media de la mezcla de los grupos y se define como: S b = K n j (v (j) v)(v (j) v) T (4.28) j=1 donde v= 1 M M= M l=1 x (l) i (4.29) K n j (4.30) donde M, es el número total de datos y n j es el número de datos en los grupos K. Estas dos matrices son utilizadas para determinar la métrica de separabilidad entre los grupos de acuerdo con la expresión propuesta en [Fukunaga, 1990] j=1 J d = tr(s 1 ω S b ) (4.31) J d es grande cuando la dispersión entre-clase es grande o la dispersión intra-clase es pequeña. El grupo que genere un J d más grande, se considera el mejor grupo para el proceso de agrupamiento Segmentación mediante k-means y FCM Para mostrar el funcionamiento de la segmentación de imagen mediante algoritmos de agrupamiento, aplicando el k-means y el FCM, se van a utilizar las siguientes imágenes ROI. Ver la Figura Antes de aplicar los algoritmos descritos en las subsecciones y 4.3.2, fue necesario aplicar una mejora del contraste a la imágenes ROI usando la transformada Top-hat que fue descrita en la subsección 3.3.4, ya que estos algoritmos trabajan en el espacio de las características y no en el espacio de la imagen, dicho de otra manera, no tienen en cuenta la información espacial de los píxeles vecinos, haciéndolos muy sensibles al ruido. En la actualidad se han realizado algunas mejoras de estos algoritmos, entre las cuales está la modificación de la función objetivo. En esta mejora han incorporado un análisis de la 100

135 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Figura 4.19: Imágenes ROI originales. información espacial de los píxeles [Despotovic et al., 2010]. A pesar de que esta mejora puede reducir el ruido en cierta medida, aún cuenta con algunos inconvenientes como por ejemplo la alta complejidad de implementación, el coste computacional muy elevado y la introducción de un suavizado no deseado en la imagen [Min-Wang et al., 2009], [Cai et al., 2007]. Otro objetivo importante por el cual se realiza la mejora del contraste de las imágenes ROI es que, de acuerdo con la información proporcionada por la base de datos de mamografías, se sabe que las regiones en donde se encuentran ubicadas las microcalcificaciones, desde el punto de vista del número de píxeles, representan un % muy pequeño del total de la imagen en comparación con la cantidad de píxeles que corresponden al resto de la imagen ROI como, por ejemplo, tejido sano, vasos, fondo, etc. Aplicar una mejora de contraste a la imagen ROI antes de segmentarla, se traduce en utilizar un menor número de grupos en los que dividir el conjunto de datos para encontrar las regiones que corresponden a microcalcificaciones. Al realizar la mejora del contraste de la imagen ROI, se sabe que la separación entre los niveles de gris de las microcalcificaciones y los niveles de gris del fondo, presentan una diferencia considerable, que aseguran un mínimo solapamiento entre los píxeles que pertenecen a una u otra región tal y como se presentó en el capítulo anterior. Al disminuir el número de regiones en las que hay que segmentar a la imagen, también se disminuye el coste computacional. La Figura 3.17 que se presentó en al Capítulo 3, muestra las imágenes ROI que han sido procesadas mediante la transformada Top-hat, con un SE del tipo plano como el que se muestra en la Figura 3.12(c) de tamaño 3 3, 5 5 y 7 7, respectivamente. La Figura 4.20 muestra las imágenes ROI que fueron procesadas mediante la transformada Top-hat usando un SE de tamaño 7 7. Para aplicar los algoritmos de agrupamiento con el objetivo de segmentar las imágenes ROI es necesario construir un vector de datos (X). Esta tarea se realiza a través de un mapeo de la imagen que consta de una descomposición de la imagen de dimensiones R C, hasta obtener un vector de dimensión 1 (R C) que sería una descomposición fila fila, donde los píxeles de la imagen corresponden a un vector cuyos elementos hacen un recorrido de izquierda a derecha y de arriba hacia bajo. Otro tipo de descomposición sería columna columna de dimensión (R C) 1, donde los píxeles de la imagen corresponden a un vector cuyos elementos hacen un recorrido de arriba hacia abajo y de izquierda a 101

136 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento Figura 4.20: Imágenes ROI procesadas mediante la transformada Top-hat usando SE de tamaño 7 7. derecha. El mapeo se realiza de la siguiente manera: [{I T (x, y)} 1 x R,1 y C ] se x se ={x ise } i=1,...,r C (4.32) donde, I T (x, y) representa la imagen procesada mediante la transformada Top-hat, se es el tamaño del SE, x ise es el nivel de gris del i-ésimo píxel cuando la imagen se descompone fila fila, R, C>0 N representan el tamaño de la imagen que, para este ejemplo, es de píxeles. El vector fila se genera de la siguiente manera: x se = [x 1se, x 2se,...,x R Cse ] se=3 3,5 5,7 7 (4.33) Realizando la transpuesta de este vector fila [x se ] T se convierte en vector columna, con lo que el vector de datos X queda de la siguiente manera: X=[x 3 3 x 5 5 x 7 7 ]= x 13 3 x 15 5 x 17 7 x 23 3 x 25 5 x x R C3 3 x R C5 5 x R C7 7 (4.34) X es el conjunto de datos de entrada para los algoritmos de agrupamiento con el fin de llevar acabo la segmentación y la sub-segmentación de las imágenes ROI. Es importante destacar que se tiene un conjunto de datos X para cada una de las imágenes ROI ya que la segmentación y la sub-segmentación se llevan a cabo de manera individual para cada imagen Segmentación de imagen usando el k-means Para realizar la segmentación de las imágenes ROI, se aplica el algoritmo descrito en la subsección bajo las siguientes condiciones iniciales: Número de particiones, K=2 a

137 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Valores iniciales de los centros: seleccionados de forma aleatoria. Tipo de distancia: euclídea. Valor de toleranciaε=0,001 La elección del número de grupos en los que se va a dividir X para segmentar las imágenes ROI se realizó de manera empírica y se estableció en el rango definido en las condiciones iniciales. Para realizar la segmentación se divide X en K grupos, con la finalidad de identificar aquellos datos que representen a los píxeles con un nivel de gris en promedio alto, a los cuales se les asignará la etiqueta como datos pertenecientes a microcalcificación. El resto de los datos serán etiquetados como pertenecientes a tejido, fondo, vasos en general un solo grupo que va a representar a la región que se va a considerar como tejido sano. En la Figura 4.21 se muestran los resultados del proceso de agrupamiento de X a través de una imagen segmentada para cada una de las imágenes ROI de la Figura Los píxeles de cada una de las imágenes representan la etiqueta que obtuvieron los datos en el proceso de agrupamiento. De acuerdo con este proceso, cada uno de los grupos obtenidos tiene un centro diferente, que se considera el dato que mejor representa al grupo con lo que los píxeles que se encuentran en cada región tienen una etiqueta diferente. Como se puede observar, en cada una de las imágenes segmentadas de la Figura 4.21, se ha resaltado una región (en color azul) que, para cada división del conjunto de datos X, se mantiene casi constante, es decir, es un grupo cuyo centro representativo ha sufrido poca variación durante el proceso de agrupamiento. De acuerdo con esto y con la información a priori sobre la ubicación de las lesiones presentes en las imágenes que es proporcionada por la base de datos, a esta región se le considera como posible región con microcalcificaciones y al resto se le considera como tejido sano. La Figura 4.21 (a)-(d) muestra las ROIs analizadas. La Figura 4.21 (e)-(h) muestra los resultados de la primera partición. En esta primera partición, la reducción del número de datos asignados como posibles microcalcificaciones respecto a los datos asignados como tejido sano es muy significativa en cada una de las imágenes ROI. En los resultados obtenidos para el resto de las particiones, se observa que la diferencia entre los datos asignados como posibles microcalcificaciones y los datos asignados como tejido sano continúa siendo significativa, con lo que se asegura una alta probabilidad de que los datos etiquetados como microcalcificaciones sí lo sean [Vega-Corona et al., 2003]. La Figura 4.21 (i)-(l) muestra los resultados de la segunda partición. En las imágenes se pueden apreciar tres regiones, parte del fondo y el tejido en negro y gris respectivamente, así como las microcalcificaciones en color azul. La Figura 4.21 (m)-(p) muestra el resultado de la tercera partición. La Figura 4.21 (q)-(s) muestra el resultado de la cuarta partición. Se podría seguir re-agrupando, sin embargo, como ya se mencionó, comienza a notarse 103

138 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) 250 (c) 250 (d) (e) (f) (g) (h) (i) (j) (k) (l) (m) (n) (ñ) (o) (p) (q) (r) (s) Figura 4.21: Segmentación de imágenes ROI por medio de agrupamiento utilizando el k-means. 104

139 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO una convergencia del centro del grupo de interés, es decir, que hay una mínima variación en su posición, independientemente del número de particiones del conjunto de datos. Por este motivo, esto es considerado como criterio para detener la partición. Otro criterio considerado para obtener el nivel de separación de los grupos durante el proceso del agrupamiento de los datos, es aplicando la máxima separabilidad entre grupos, que fue definida en la expresión (4.31). En la Figura 4.22, se muestran las gráficas de la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI de la Figura 4.21, aplicando un proceso de agrupamiento mediante el k-means Valor de separabilidad Valor de separabilidad No. grupos No. grupos (a) (b) Valor de separabilidad Valor de separabilidad No. grupos No. grupos (c) (d) Figura 4.22: Análisis de la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI mediante agrupamiento por el k-means. En las gráficas se muestra el número de grupos vs. valor de separabilidad J (j) d. Finalmente, para una mejor visualización en la Figura 4.23 (a)-(d) se muestran las imágenes que corresponden a la mejor partición del conjunto de datos X, de acuerdo con el valor de la máxima separabilidad entre grupos. La Figura 4.23 (e)-(h) muestra las imágenes de la mejor partición, pero representadas de forma binaria, es decir, los píxeles en blanco representan a los datos que fueron asignados como microcalcificaciones y los píxeles en negro representan a los datos que fueron asignados al resto de las regiones de la imagen ROI y que fueron consideradas como tejido sano. 105

140 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) (c) (d) (e) (f) (g) (h) Figura 4.23: (a)-(d) Imágenes correspondientes a la mejor partición de los datos de acuerdo con el valor de la máxima separabilidad entre grupos. (e)-(h) Imágenes binarias de la mejor partición de los datos utilizando el k-means Segmentación de imagen usando el FCM De la misma manera que se utilizó el k-means para segmentar las imágenes ROI en el apartado anterior, ahora se utiliza el algoritmo FCM, descrito en la subsección De acuerdo con el FCM, ahora se realiza una partición difusa del espacio de las características, es decir, se obtiene un grado de pertenencia difuso 0 u ji 1 de los datos para cada una de las particiones en las que se dividió X, que se representa por medio una matriz difusa U. Las condiciones iniciales para realizar la segmentación aplicando el FCM son las siguientes: Número de particiones, K=2 a 9. Valores iniciales de los centros: seleccionados de forma aleatoria. Tipo de distancia: euclídea. Valor de m=2. Valor de toleranciaε=0,

141 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Una vez que se ha aplicado el FCM al conjunto de datos X para segmentar las imágenes ROI, la asignación de los datos a los grupos correspondientes en los que se dividió el espacio de características se realiza por medio del valor máximo del grado de pertenencia difuso de los datos. Dicho de otra forma, la etiqueta de los datos agrupados es obtenida a partir del valor máximo del grado de pertenencia difuso de cada uno de los datos con respecto a cada una de las particiones del conjunto de los datos. En la Figura 4.24 se muestran los resultados del agrupamiento de los datos aplicando el FCM. Estos resultados, al igual que para el k-means, se muestran a través de imágenes segmentadas y con el mismo objetivo: segmentar aquellas regiones que puedan corresponder a las microcalcificaciones presentes en las imágenes ROI. Como se puede apreciar, en estas imágenes segmentadas también se han resaltado (en color amarillo) aquellas regiones para las que cada división o partición del conjunto de datos X se mantiene con un grado de pertenencia difuso u ji casi constante o muy parecido. De acuerdo con esta información y la proporcionada por la base de datos de las imágenes de mamografía, a estas regiones se les ha considerado como región correspondiente a microcalcificaciones y el resto a tejido sano. La Figura 4.24 (a)-(d) muestra las imágenes ROI originales analizadas. La Figura 4.24 (e)-(h) muestra los resultados de la primera partición. En esta primera partición, sucede algo semejante que para el agrupamiento mediante el k-means ya que la reducción del número de datos asignados a la región considerada como microcalcificación respecto a los datos asignados a la región considerada como tejido sano es muy significativa para cada una de las imágenes ROI analizadas. La Figura 4.24 (i)-(l) muestra los resultados de la segunda partición. La Figura 4.24 (m)-(p) muestra los resultados de la tercera partición. La Figura 4.24 (q)-(s) muestra los resultados de la cuarta partición. Al igual que con el agrupamiento aplicando el k-means, para el agrupamiento aplicando el FCM se puede continuar agrupando los datos pero en las imágenes se puede apreciar una convergencia con los datos asignados al grupo de las microcalcificaciones (grupo con la información de interés), es decir, se mantiene con una pequeña variación conforme aumenta el número de particiones. Esto es considerado como criterio para detener la segmentación. Además de este criterio, también se toma en cuenta el nivel de separación entre los grupos obtenido a través de la máxima separabilidad entre grupos definida en la expresión (4.31). La Figura 4.25 muestra las gráficas correspondientes a la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI de la Figura 4.19 aplicando un proceso de agrupamiento mediante el FCM. 107

142 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) 250 (c) 250 (d) (e) (f) (g) (h) (i) (j) (k) (l) (m) (n) (ñ) (o) (p) (q) (r) (s) Figura 4.24: Segmentación de imágenes ROI mediante agrupamiento de datos aplicando el FCM. 108

143 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Valor de separabilidad Valor de separabilidad No. grupos (a) No. grupos (b) Valor de separabilidad Valor de separabilidad No. grupos No. grupos (c) (d) Figura 4.25: Análisis de la máxima separabilidad entre grupos durante la segmentación de las imágenes ROI mediante agrupamiento por el FCM. En las gráficas se muestra el numero de grupos vs. valor de separabilidad J (j) d. Finalmente, en la Figura 4.26(a)-(d), se muestran las imágenes correspondientes la mejor partición del conjunto de datos X de acuerdo con el valor de la máxima separabilidad entre grupos. La Figura 4.26(e)-(h) muestra las imágenes de la mejor partición pero representadas de forma binaria, es decir, los píxeles en blanco representan a los datos que fueron asignados como microcalcificaciones y los píxeles en negro representan a los datos que fueron asignados al resto de las regiones de la imagen ROI y que fueron consideradas como tejido sano. 109

144 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) (c) (d) (e) (f) (g) (h) Figura 4.26: (a)-(d) Imágenes correspondientes a la mejor partición de los datos de acuerdo con el valor de la máxima separabilidad entre grupos. (e)-(h) Imágenes binarias de la mejor partición de los datos utilizando el FCM Sub-segmentación de imagen mediante PFCM Antes de comenzar la descripción de la sub-segmentación, cuyo fundamento está directamente relacionado con el funcionamiento de un algoritmo de agrupamiento particional, es necesario hacer una analogía entre el funcionamiento de los algoritmos particionales y la teoría de prototipos tal y como se presentó en [Ojeda-Magaña, 2010]. La finalidad de los algoritmos de agrupamiento particionales es dividir una base de datos numérica en K grupos distintos, donde los datos de cada uno de los grupos tienen una similitud con respecto a su centro y una diferencia o disimilaridad hacia los demás centros de los otros grupos, justificando de esta forma la existencia de cada grupo. Los algoritmos de agrupamiento permiten obtener una representación más simple de la base de datos (subgrupos) con el fin de ayudar a un mejor conocimiento de la misma. Para la etapa de la segmentación propuesta en el modelo de esta tesis, aplicando el enfoque de la sub-segmentación por el PFCM, se propone utilizar el concepto de la tipicalidad con el fin de que proporcione una mejor interpretación de los datos en cada uno de los subgrupos encontrados. La teoría de prototipos consiste en clasificar objetos que pertenecen a una categoría semántica a partir de la semejanza de éstos con respecto a un prototipo (mejor ejemplo de la categoría, centro desde el punto de vista de agrupamiento de datos). Por lo tanto, en cada categoría, debe haber una semejanza interna entre los objetos y una diferencia o disimilaridad externa, es decir, los objetos de una categoría deben ser diferentes a los otros objetos de las otras categorías. El prototipo se basa en la noción de tipicalidad, en cuanto a que todos los objetos de una categoría no tienen la misma representación, es decir, que hay objetos que son más típicos que otros. De acuerdo con 110

145 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO esto, en este trabajo se asocian los conceptos de tipicalidad y grado de pertenencia con la categorización de conceptos lingüísticos para entender mejor la información que se puede extraer de una base de datos numérica mediante algoritmos de agrupamiento particionales híbridos como el PFCM. En los algoritmos de agrupamiento particionales se pueden asociar la disimilaridad externa y la semejanza interna, siendo éstos conceptos de la teoría de prototipos, al FCM y al PCM, respectivamente. De acuerdo con [?], el valor del grado de pertenencia difuso del FCM está influenciado por la posición de todos los centros de los grupos. Por este motivo, a este valor se le conoce como tipicalidad relativa y, por analogía con la teoría de prototipos, ésta permite hacer una disimilaridad externa entre los grupos. Por otro lado, una de las características del PCM es que resuelve la restricción del FCM que cuenta con una tipicalidad relativa. El valor del grado de pertenencia posibilista del PCM está relacionado con la semejanza interna de los datos agrupados y su centro, de acuerdo con la teoría de prototipos. Por este motivo con el PCM se obtiene una tipicalidad absoluta o simplemente tipicalidad. Los datos agrupados que están más cercanos a su centro se definen como datos tipicos, los más alejados como atípicos y, si tienen un valor típico nulo o casi nulo, como ruido. Resumiendo, existe una gran semejanza entre la teoría de prototipos y los algoritmos particionales, donde la teoría de prototipos busca categorizar conceptos lingüísticos y, a partir de las características que tenga cada objeto con respecto a un prototipo, definirlo como típico o atípico. En el caso de los algoritmos de agrupamiento particionales, lo primero es encontrar los centros en cada uno de los grupos de datos que se forman en el espacio de las características. Una vez encontrados, se determinará el grado de tipicalidad a partir de una medida de similitud. Si los datos están cerca del centro serán considerados como típicos, si están en la frontera del grupo se consideran como atípicos y si están fuera del grupo pueden ser considerados como ruido. En los apartados anteriores se presentó la segmentación de microcalcificaciones en imágenes ROI mediante un proceso de agrupamiento aplicando dos de los algoritmos particionales más utilizados para realizar esta tarea tan importante en el procesamiento de imagen. A pesar de los buenos resultados obtenidos, es evidente que uno de los principales inconvenientes de aplicar agrupamiento para realizar la segmentación es conocer el nivel de división de los datos, es decir, saber en cuantos grupos se va a dividir el conjunto de datos para obtener la información de interés que, posteriormente, se representará a través de una imagen segmentada. En dicha imagen, los píxeles representarán las etiquetas de los datos asignados a un grupo durante el proceso de agrupamiento. Concretamente para esta etapa de este trabajo de tesis, la segmentación consiste en ubicar las regiones correspondientes a microcalcificaciones en la imagen. Para el caso de la segmentación de las microcalcificaciones en las imágenes aplicando el k-means y el FCM, el nivel de agrupamiento era desconocido. Para solucionar este problema aplicando estos algoritmos, se propusieron dos criterios. Primero, fijar un número de particiones e ir aumentándolo, supervisando el resultado hasta que se obtenga la información (conocimiento) de interés. Segundo, utilizar el valor de la máxima separabilidad de los grupos, con el objetivo de asegurar que la información obtenida sea de lo más fiable posible. Finalmente, de acuerdo con la información proporcionada por la base de datos de las imágenes de mamografía, 111

146 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento se pudo comprobar que la ubicación de las microcalcificaciones era lo más aproximada a la obtenida mediante la segmentación por agrupamiento aplicando el k-means y el FCM. Para tratar de solucionar el inconveniente del nivel de agrupamiento, al que se enfrentan el k-means y el FCM para la segmentación, se propone aplicar un nuevo enfoque de segmentación. Dicho enfoque está basado en el algoritmo de agrupamiento PFCM y fue presentado en [Ojeda-Magaña et al., 2009a] donde se le llamó sub-segmentación. La técnica está basada en un algoritmo de agrupamiento particional y la forma en la que realiza el agrupamiento de los datos es semejante a como lo hacen el k-means y el FCM, solo que ahora se aprovechará toda la información que proporciona el PFCM de los datos, con respecto a los grupos en los que se divide en conjunto de datos. Esta información consiste en el valor de pertenencia difuso y en el valor de tipicalidad. Esto significa que los datos pueden pertenecer a más de un grupo pero con diferentes valores, tanto de grado de pertenencia difuso como de tipicalidad. Para el caso de la segmentación de imagen, se puede utilizar cualquiera de los dos valores, con lo que los píxeles de la imagen representarían el valor de pertenencia difuso o el valor de tipicalidad. En el caso de que fuera el valor de pertenencia difuso, sería el mismo caso que con el FCM. Para la sub-segmentación se utilizará la información correspondiente al valor de la tipicalidad. La finalidad de usar este valor es que, a través de éste, se puede obtener una mejor información de los datos con respecto de los grupos y el centro, tal y como se demostró en el ejemplo de agrupamiento de la base de datos Iris aplicando el PFCM, presentado en la subsección Esta información es conocida como datos típicos y atípicos. De acuerdo con esta información, los datos típicos son aquellos que son más representativos del grupo. Por el contrario, los datos menos representativos serán los datos atípicos. A partir de esta información de cada grupo se obtienen sub-grupos, en los cuales se encuentra la información que puede ser de interés para una aplicación. De acuerdo con [Ojeda-Magaña et al., 2009a], la manera de obtener estos sub-grupos con datos típicos y atípicos es a través de una técnica conocida como umbralización. A continuación se presenta la secuencia de la sub-segmentación basada en el algoritmo PFCM. Algoritmo de sub-segmentación 1. Obtener un conjunto de datos (características extraídas de la imagen). 2. Inicializar los parámetros (a, b, m,η) y proponer el número de grupos K o regiones S j, j...k. 3. Ejecutar el PFCM que se presentó en la subsección 4.3.4, para obtener: La matriz con los valores de pertenencia difusos U. La matriz con los valores de pertenencia posibilista o valores de tipicalidad T. 112

147 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO 4. Asignar los datos a los grupos respectivos. La asignación se puede realizar por medio del grado de pertenencia difuso o del valor de la tipicalidad de los datos. Los valores del grado de pertenencia difuso se almacenan en la matriz U, mientras que los valores de la tipicalidad se almacenan en la matriz T. 4.1 Si la asignación de los datos se realiza por medio del grado de pertenencia difuso, el resultado serán datos agrupados, a los que se les llamará grupos difusos. Desde el punto de vista de imagen se les llamará Regiones Difusas (RD) que son obtenidas de acuerdo a la siguiente expresión: S j = max[u ji ], j=1,...,k. (4.35) Por tanto, cada dato x i solo puede pertenecer a un grupo (región) difuso S j 4.2 Si la asignación de los datos se realiza por medio del valor de la tipicalidad, el resultado serán datos agrupados, a los que se les llamará grupos posibilistas. Desde el punto de vista de imagen se les llamará Regiones Posibilistas (RP) que son obtenidas de acuerdo a la siguiente expresión: S j = max[t ji ], j=1,...,k. (4.36) Por tanto, cada dato x i solo puede pertenecer a un grupo (región) posibilista S j 5. Obtener el valor máximo de la tipicalidad para cada dato en S j, aplicando la siguiente expresión (4.37): T max = max[t ji ], j=1,...,k. (4.37) Nota: las expresiones (4.36) y (4.37) son iguales, solo que para el caso de la subsegmentación se utilizará de la misma forma que en la expresión (4.37), con el fin de obtener el nuevo enfoque. 6. Proponer un valor de umbral α en el rango 0 α Con el valorαylos valores T max de cada dato, aplicar una umbralización para obtener: el cual contiene los datos típicos, y T 1 = T max α (4.38) el cual contiene los datos menos típicos o atípicos. T 2 = T max <α (4.39) 113

148 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento 8. De las etiquetas de los datos x i de la sub-matriz T 1, se generan los siguientes subgrupos: y de la sub-matriz T 2 se generan T 1 = S_tipica 1,..., S_tipica K, j=1,...,k. (4.40) T 2 = S_atipica 1+K,..., S_atipica 2K, j=1,...,k. (4.41) de tal manera que cada RP sea definida por S j = S_tipica j S_atipica j+k. (4.42) 9. Seleccionar la sub-matriz T 1 o T 2 que, de acuerdo a la aplicación, contendrá información de interés para su análisis correspondiente. A continuación se realiza una descripción del algoritmo presentado para realizar una sub-segmentación de imagen. En el paso 1, el conjunto de datos se obtiene mediante el mapeo de la imagen o, si se tienen diferentes características, de varias imágenes. En el paso 2, para la inicialización de los parámetros (a, b, m, η) del PFCM, hay que tener especial cuidado en reducir el efecto de los outliers o ruido en los centros para una mejor identificación de las sub-regiones en la imagen. El paso 3 consiste en ejecutar el PFCM descrito en la subsección En el paso 4, se obtiene una segmentación utilizando las matrices U y T, obtenidas del PFCM en el paso 3, generando regiones a las cuales se les llamará Regiones Difusas o Regiones Posibilistas, dependiendo de si se utiliza el valor de pertenencia difuso o el valor de la tipicalidad de los datos. El paso 5 es considerado el paso más importante de la sub-segmentación. En esta etapa del algoritmo se considerarán solo las regiones posibilistas obtenidas en el paso anterior ya que la información proporcionada por el valor de la típicalidad es de mayor utilidad para obtener grupos de datos que sean lo más representativos y mejor agrupados. Esto no ocurre de la misma manera que con la información proporcionada por el valor de pertenencia difuso, como quedó demostrado en la subsección en el ejemplo de agrupamiento de la base de datos Iris aplicando el PFCM. En este caso, como se puede ver en la Figura 4.17, es mucho más fácil mejorar el agrupamiento los datos 114

149 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO utilizando el valor de la tipicalidad de los datos. De acuerdo con lo anterior, una manera de mejorar el agrupamiento es aplicando un valor de umbralαque, en este algoritmo, está definido en el intervalo 0<α<1 (Paso 6). Otra característica importante de utilizar el valor de umbral en el algoritmo propuesto es solucionar el inconveniente de los algoritmos particionales utilizados en aplicaciones de segmentación de imágenes y que tiene que ver con el nivel de agrupamiento, en este caso, el nivel de segmentación. Una vez aplicado este umbralαat max definida en la expresión (4.37), se obtiene una nueva división donde se generan dos sub-regiones y de aquí el termino de sub-segmentación. En el paso 7 se muestra la división de la matriz de posibilidad T de acuerdo a las ecuaciones (4.38), (4.39) y al valor de umbral α propuesto. Si el valor de α es muy cercano a 0, en uno de los sub-grupos se van a encontrar los datos más atípicos, pero si el valor deαes muy cercano a 1, en uno de los sub-grupos se van a encontrar los datos más típicos. En el paso 8 se obtienen cada una de las sub-matrices que contienen los datos más representativos y menos representativos en los que se ha dividido el conjunto de datos. Finalmente, en el paso 9, se elige el sub-grupo que sea de mayor interés de acuerdo a la aplicación de la sub-segmentación. En la Figura 4.27 se muestra un diagrama de bloques del proceso de la sub-segmentación de imagen basado en el algoritmo PFCM. S1 Fuzzy Matrix U S2 PFCM Algorithm (b) Stypical_1 Satypical_3 (a) Possibilistic Matrix T Threshold Stypical_2 ( c) Satypical_4 (d) Figura 4.27: Diagrama del proceso de la sub-segmentación de imagen. A continuación se muestran un par de ejemplos con dos tipos de imágenes diferentes, una imagen natural y una imagen ROI, con el fin de mostrar, de manera ilustrativa, el funcionamiento del algoritmo presentado. 115

150 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento Sub-segmentación de una imagen natural El primer ejemplo de la sub-segmentación es aplicado a una imagen natural, presentada en la Figura 4.28 conocida como Splash lounge chair, pero en este trabajo se le llamará sillón gota de leche o solamente "gota de leche". En la Figura 4.28(a) se puede apreciar dos regiones que pueden ser de interés, la gota (el sillón) y el fondo de la imagen. Para este ejemplo se define que el número de regiones en las que se va a segmentar la imagen es dos. Las condiciones iniciales para aplicar el algoritmo a la imagen son: Número de regiones en las que se va a dividir la imagen, K=2. Valor inicial de los centros para el FCM: seleccionados de forma aleatoria. Tipo de distancia: euclídea. m=2, a=1, b=2 yη=2. Valor de umbralα=0,17. Valor de toleranciaε=0,001 En este ejemplo, el conjunto de datos X es construido realizando un mapeo de la imagen con el valor de intensidad de nivel de gris, por lo que se tiene un vector columna de dimensiones (R C) 1, donde R y C son las dimensiones de la imagen en píxeles, que para esta imagen son Por lo tanto se tiene un vector con datos. Hasta este punto se han presentado los pasos 1 y 2 del algoritmo. En el paso 3 se ejecuta el algoritmo PFCM. En la Figura 4.28 se muestra el resultado de la segmentación del paso 4. La Figura 4.28(a) muestra la imagen original. La Figura 4.28(b) muestra el resultado de la partición difusa, donde la asignación de los datos se realiza de acuerdo con el paso 4.1. Los píxeles en esta imagen representan la etiqueta de los datos de acuerdo al grupo al que fueron asignados durante el proceso de agrupamiento. En la Figura 4.28(b) se observa como la imagen original queda segmentada en dos regiones ya que K=2. Estas regiones son consideradas como Regiones Difusas. La región (S 1 ) muestra la gota de leche (en color blanco) y la región (S 2 ) muestra el fondo de la imagen (color negro). Esta parte del algoritmo es considerada como una segmentación clásica, del mismo modo que lo hace el FCM. En la Figura 4.29 se muestran la regiones en las que se dividió la imagen utilizando la partición difusa pero utilizando los píxeles originales. En la Figura 4.29(a) se puede observar que la región que corresponde a la gota de leche no es totalmente homogénea, debido a que presenta variaciones importantes en los niveles de gris de ciertas áreas. Esto 116

151 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO (a) (b) Figura 4.28: Segmentación de la imagen de la gota de leche utilizando el grado de pertenencia difuso. (a) Imagen original. (b) Imagen segmentada en 2 regiones utilizando la partición difusa. pudo ser generado por algunos factores como, por ejemplo, la iluminación en el momento de obtener la imagen. Otro ejemplo de esto es la base de la gota de leche en la que, debido a la sombra que se refleja en ella, la segmentación de esa región indica que la base de la gota forma parte del fondo de la imagen. (a) (b) Figura 4.29: Imagen segmentada utilizando los píxeles originales. (a) Región difusa S 1. (b) Región difusa S 2. La Figura 4.30 muestra el resultado del paso 4.1 del algoritmo. En la Figura 4.30(a) se muestra la imagen de la gota de leche original y en la Figura 4.30(b) se muestra el resultado de la partición posibilista. Los píxeles, en esta imagen, representan la etiqueta de los datos según el grupo al que fueron asignados durante el proceso de agrupamiento. En este caso, en la Figura 4.30(b) se observa como la imagen original queda segmentada 117

152 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento en dos regiones ya que K = 2. Estas regiones son consideradas como Regiones Posibilistas. La región (S RP1 ) muestra la gota de leche (color blanco) y la región (S RP2 ) muestra el fondo de la imagen (color negro). (a) (b) Figura 4.30: Segmentación de la imagen de la gota de leche utilizando el valor de la tipicalidad. (a) Imagen original. (b) Imagen segmentada en 2 regiones utilizando la partición posibilista. En la Figura 4.31 se muestran la regiones en las que se dividió la imagen utilizando la partición posibilista junto con los píxeles originales de la gota de leche. Al igual que ocurrió con la asignación de los datos usando el grado de pertenencia difuso, en la Figura 4.31(a) se puede apreciar que las regiones correspondientes a la gota de leche y al fondo no son regiones totalmente homogéneas. Esto se debe a los cambios importantes de los niveles de gris en ciertas regiones. (a) (b) Figura 4.31: Imagen segmentada utilizando los píxeles originales. (a) Region posibilista S 1. (b) Region posibilista S

153 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO De acuerdo con los resultados presentados en las Figuras 4.28 y 4.30, se puede observar que la segmentación de imagen por medio de algoritmos de agrupamiento particionales no siempre es satisfactoria para algunas aplicaciones, y más cuando se trata encontrar o aislar objetos de interés que se encuentran en regiones que no son muy homogéneas o que tienen muchos cambios de intensidad dentro de una imagen. Como resultado de esto, algunas veces los objetos de interés no están bien segmentados o alguna parte de ellos se asocia a otro objeto, como es el caso de la imagen de la gota de leche. Esto se debe a que los algoritmos de agrupamiento trabajan en el espacio de las características y no tienen en cuenta la información espacial de los píxeles. Continuando con la descripción ilustrativa del proceso del algoritmo, hasta esta parte se ha realizado una segmentación de imagen de una forma clásica, a través de la información de las matrices de partición difusa y posibilista provistas por la función correspondiente del algoritmo PFCM. El objetivo del algoritmo, de ahora en adelante, es encontrar los datos más típicos y más atípicos de los grupos o regiones de una imagen como el ejemplo de la gota de leche. Los datos típicos corresponderán a un sub-grupo de datos o píxeles que pertenecen a un grupo o región segmentada y que se encuentran muy cercanos al centro del grupo o la región correspondiente. Los datos atípicos corresponderán a un sub-grupo de datos o píxeles que pertenecen a un grupo o región segmentada y que se encuentran muy alejados del centro del grupo o la región correspondiente. De acuerdo con el paso 5, se obtiene la matriz T max con los valores máximos del grado de tipicalidad de cada uno de los datos. En el paso 6 se propone el valor del umbralα, en el rango establecido, y se obtiene una sub-división de T max en dos sub-matrices (T 1, T 2 ) (Paso 7). Donde T 1 se obtiene mediante la expresión (4.38) y T 2 mediante la expresión (4.39). A través de estas desigualdades se obtienen los datos típicos (S tipicai ) y atípicos (S atipicai ), respectivamente, de cada una de las Regiones Posibilistas. Para realizar la sub-segmentación de la imagen de la gota de leche, se propone el valor del umbralα=0,17 y se aplican las expresiones (4.38) y (4.39) para encontrar los píxeles típicos y atípicos de las regiones S 1 (correspondiente a la gota) y S 2 (correspondiente al fondo) de la imagen. Realizando un análisis de la imagen resultante (ver Figura 4.32), después de aplicar el valor de umbral se observa como se obtienen nuevas regiones o sub-regiones desde el punto de vista de la sub-segmentación. Para este ejemplo de la gota de leche, se analizan los píxeles atípicos de cada una de las regiones, ya que se considera que en éstos hay información que puede ser de interés. Por ejemplo el punto brillante dentro de región correspondiente a la gota. En algunas aplicaciones reales, estos píxeles atípicos son de suma importancia ya que pueden pertenecer, por ejemplo: a un grupo de píxeles que corresponden a microcalcificaciones en una mamografía [Quintanilla-Domínguez et al., 2011b], a algún tipo de defecto en tablas de madera (conocidos como nudos) [Ojeda-Magaña et al., 2007], a un cierto grado de madurez de algunas frutas [Ojeda-Magaña et al., 2010] o a regiones porosas en imágenes de suelo 119

154 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento [Ojeda-Magaña et al., 2014], [Cortina-Januchs et al., 2011]. La Figura 4.32 muestra el resultado de la sub-segmentación de la imagen de la gota de leche, en la que se pueden observar las regiones S RP1 y S RP2 y sus correspondientes sub-regiones, donde S RP1 = S tipica1 S atipica3 y S RP2 = S tipica2 S atipica4. (a) (b) (c) Figura 4.32: Sub-segmentación de la imagen de la gota de leche. (a) Imagen original. (b) Sub-segmentación de las regiones posibilistas (S 1, S 2 ). (c) Representación en color de la sub-segmentación. De acuerdo con los resultados de la sub-segmentación, en la Figura 4.32(c) se pueden apreciar los datos típicos (S tipicos1 ) de S RP1 (gota) los cuales corresponden al color rojo. El color amarillo representa a los píxeles que corresponden a los datos atípicos (S atipicos3 ) de la región S RP1. El color azul corresponde a los píxeles de los datos típicos (S tipicos2 ) de S RP2 (fondo) por último en color cian representa a los píxeles de los datos atípicos (S atipicos4 ) de S RP2. La Figura 4.33 muestra la sub-segmentación de la imagen de la gota de leche pero ahora representada por medio de sus píxeles originales. 120

155 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO (a) (b) (c) (d) (e) (f) Figura 4.33: Representación de la sub-segmentación de la imagen de la gota de leche con sus píxeles originales. (a) Región S RP1 = S tipicos1 S atipicos3 (b) S tipicos1. (c) S atipicos3. (d) S RP2 = S tipicos2 S atipicos4. (e) S tipicos2. (f) S atipicos4 De acuerdo con los resultados presentados en la Figura 4.33, se puede observar, que mediante la sub-segmentación, fue posible encontrar, de manera más fácil y rápida, las regiones con píxeles atípicos de las regiones típicas de una imagen ya que, a través de una segmentación clásica, son más difíciles de identificar. La Figura 4.33(b) muestra los píxeles típicos de la región correspondiente a la gota (S RP1 ) (Figura 4.33 (a)), en la cual, se puede apreciar que la gran mayoría de los píxeles pertenecen a esta región aunque no en su totalidad, debido a que esta región no es completamente homogénea, ya que cuenta con algunas imperfecciones que fueron generadas en el momento de la adquisición de la imagen. La Figura 4.33(c), muestra los píxeles más atípicos de la región S RP1 y, como ya se mencionó, estos corresponden a imperfecciones generadas dentro de las regiones que son más o menos homogéneas, como es el caso que se presenta. En la Figura 4.33(e) se puede observar los píxeles típicos de la región correspondiente al fondo (S RP2 ) (Figura 4.33 (d)). Se puede apreciar que existen algunos píxeles que fueron asignados a la región S RP2 perteneciendo estos a la región de la gota S RP1. Esto se debe a la existencia de píxeles con valores de intensidad de nivel de gris muy parecidos entre ambas regiones. En la Figura 4.33(f) se pueden observar las regiones de los píxeles atípicos de la región correspondiente al fondo de la imagen. La mayoría de éstos se concentran, principalmente, en la parte superior izquierda de la imagen como 121

156 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento se muestra en la Figura 4.32(c) (píxeles en color cian), aunque en la base de la gota también se pueden encontrar algunos píxeles atípicos que fueron asignados a la región S RP2 correspondiente al fondo, aunque es evidente que pertenecen a la región de la gota. Como estos píxeles se encuentran en la frontera de ambas regiones, tienen píxeles con niveles de intensidad muy similares tanto en el fondo como en la gota. A continuación se muestra otro ejemplo de sub-segmentación. En este caso se aplica a una imagen ROI extraída de una mamografía, donde el objetivo es segmentar aquellas regiones que correspondan a microcalcificaciones Sub-segmentación de microcalcificaciones en una imagen ROI En el ejemplo que se presentó en apartado anterior se propuso que el número de regiones en las que se segmentaría la imagen fuera dos ya que, lo que se pretendía con ese ejemplo, era mostrar el funcionamiento del algoritmo empleando el enfoque de la sub-segmentación. En principio se podía pensar que lo único que interesaba de la imagen era separar la gota del fondo, aunque se observó que en esa imagen existía información que podía ser de interés, por lo que se hizo un análisis más profundo para identificar esas posibles regiones y mostrar, de una manera ilustrativa, los beneficios de la subsegmentación, además de poder apreciar la diferencia con la segmentación clásica. Para este nuevo ejemplo se tiene un objetivo más específico al tratarse de una aplicación real. El objetivo es obtener, mediante la sub-segmentación, las regiones que correspondan a microcalcificación que, en este caso, van a corresponder a los datos atípicos de la región que se le llamará región sospechosa S RP1, mientras que a la otra región se le llamará tejido sano S RP2. Como ya se mostró en la segmentación de las microcalcificaciones en las imágenes ROI aplicando los algoritmos k-means y FCM en las respectivas subsecciones, uno de los principales inconvenientes al que se enfrentan estos algoritmos es el nivel de agrupación para encontrar las regiones correspondientes a microcalcificaciones. Con la sub-segmentación se pretende demostrar que, por medio de un valor pequeño de agrupaciones y un valor de umbral definido por el usuario, es posible encontrar las regiones correspondientes a microcalcificaciones presentes en una imagen ROI, solucionando así el inconveniente de la segmentación clásica por algoritmos de agrupamiento tipo k-means y FCM. La Figura 4.34 muestra una imagen ROI a la que se le aplicará el algoritmo presentado en la subsección Las condiciones iniciales para aplicar la sub-segmentación a la imagen ROI mostrada en la Figura 4.34 son: Número de regiones en las que se va a dividir la imagen, K=2. Valor inicial de los centros para el FCM: seleccionados de forma aleatoria. Tipo de distancia: euclídea. m=2, a=1, b=2 yη=2. 122

157 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO Figura 4.34: Imagen ROI original. Valor de umbralα=0,1. Valor de toleranciaε=0,001 De igual manera que con la imagen del ejemplo anterior, el conjunto de datos X se construye haciendo un mapeo de la imagen con los valores de intensidad de nivel de gris, obteniendo un vector columna de dimensiones (R C) 1, donde R, C, son las dimensiones de la imagen en píxeles que para esta imagen son, Por lo tanto tenemos un vector con datos. Una vez aplicada la sub-segmentación, en la Figura 4.35 se muestra la imagen ROI segmentada en dos regiones. La Figura 4.35(a) corresponde al resultado de la partición difusa y la Figura 4.35(b) muestra el resultado de la partición posibilista. En ambas figuras se pueden apreciar dos regiones, S 1 y S 2, que son de interés para un análisis posterior. La región S 1 (región sospechosa) se representa de color gris y la región S 2 (tejido) de color negro. De acuerdo con el algoritmo de la sub-segmentación, las regiones que son de interés para su análisis son las correspondientes a la partición posibilista, S RP1 (región sospechosa) y S RP2 (tejido). En la Figura 4.36 se muestran las particiones difusa y la posibilista pero representadas a través de sus píxeles originales en la imagen ROI. En las Figuras 4.36(b) y 4.36(e) se puede observar claramente que en la región S 1 existen sub-regiones que presentan algunos cambios significativos en los niveles de gris en áreas específicos y que, en este caso, pueden corresponder a regiones que sean de interés para alcanzar el objetivo planteado en este ejemplo. De acuerdo con algunos trabajos como [Vega-Corona et al., 2003] y [Cheng et al., 2003], las microcalcificaciones, por lo general, se presentan como puntos brillantes o como grupos de píxeles con un nivel de gris alto dentro de una ROI. De acuerdo con esto, existe una probabilidad de que estos píxeles correspondan a esos puntos específicos de la región S 1. Continuando con el algoritmo 4.4.2, en la Figura 4.37 se muestran los resultados obtenidos de la sub-segmentación utilizando un valor de umbral α = 0,1, aplicado a las 123

158 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) Figura 4.35: Imagen ROI segmentada en 2 regiones: (a) utilizando la partición difusa, (b) utilizando la partición posibilista. (a) (b) (c) (d) (e) (f) Figura 4.36: Representación de las regiones S 1 y S 2 usando los píxeles originales. (a) Partición difusa. (b) Región S 1 de la partición difusa. (c) Región S 2 de la partición difusa. (d) Partición posibilista. (e) Región S 1 de la partición posibilista. (f) Región S 2 de la partición posibilista. regiones obtenidas de la partición posibilista (S RP1 y S RP2 ) de la imagen ROI y con el objetivo de encontrar las sub-regiones correspondientes a los píxeles típicos y atípicos de la regiones S RP1 y S RP2. En la Figura 4.37 se puede observar la sub-región (S tipicos1 ) que corresponde a los píxeles típicos de la region S RP1 representados en color rojo, mientras que los píxeles atípicos de 124

159 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO (a) (b) (c) Figura 4.37: Sub-segmentación de la imagen ROI. (a) Imagen original. (b) Subsegmentación de las regiones (S 1, S 2 ) de la partición posibilista. (c) Representación en color de la sub-segmentación de la imagen ROI. esta región están representados en color amarillo y representan a la sub-región (S atipicos3 ) de S RP1. La Figura 4.37 muestra también la sub-región (S tipicos2 ) que corresponde a los píxeles típicos de la región S RP2, representados en color azul, mientras que los píxeles atípicos correspondientes a esta región están representados en color cian y representan la sub-región (S atipicos4 ). La Figura 4.38 muestra la sub-segmentación de la imagen ROI, donde las regiones (S RP1, S RP2 ) y sus sub-regiones correspondientes (S tipica1, S atipica3, S tipica2, S atipica4 ) están representadas mediante sus píxeles originales. De acuerdo con los resultados de la sub-segmentación de la imagen ROI, los píxeles atípicos de la región S RP1 coinciden con las regiones correspondientes a las microcalcificaciones presentes en la imagen. Aunque también es importante analizar los píxeles que se encuentran en la esquina inferior izquierda de la imagen. Es evidente que estos píxeles se encuentran en la región correspondiente a tejido S RP2, no obstante el algoritmo los asignó al grupo de píxeles atípicos de la región sospechosa S RP1 pero, más que píxeles atípicos de esta región, son considerados como ruido [Ojeda-Magaña et al., 2009a]. Para evitar este tipo de problemas es necesario aplicar una técnica de preprocesamiento a la imagen como, por ejemplo, una mejora del contraste Sub-segmentación de imagen usando PFCM En la subsección se presentó la descripción y el análisis del algoritmo de la sub-segmentación, tanto para una imagen natural como para la imagen ROI. Para esta última, el objetivo era segmentar las microcalcificaciones en una región extraída de una mamografía digitalizada. En este apartado se presentan los resultados obtenidos de la sub-segmentación para las imágenes ROI de la Figura 4.19, en las cuales también se requiere segmentar las microcalcificaciones. Al igual que para la segmentación mediante 125

160 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) (c) (d) (e) (f) Figura 4.38: Representación de la sub-segmentación de la imagen ROI con sus píxeles originales. (a) Región S RP1 = S tipicos1 S atipicos3. (b) Sub-región S tipicos1. (c) Sub-región S atipicos3. (d) Región S RP2 = S tipicos2 S atipicos4. (e) Sub-región S tipicos2. (f)sub-región S atipicos4 el k-means y el FCM, las condiciones iniciales para aplicar la sub-segmentación mediante el PFCM en las imágenes ROI son las siguientes: Vector de datos X, para cada imagen ROI. Número de regiones: K = 2. Valor inicial de los centros para el FCM: seleccionados de forma aleatoria. Tipo de distancia: euclídea. m=2, a=1, b=4 yη=2. Valores de umbral α = 0,04, 0,03, 0,02, 0,01. Valor de toleranciaε=0,001. Los valores m = 2, a = 1, b = 4,η = 2 y los valores de umbralαson seleccionados de manera empírica después de haber realizado varios experimentos. En la Figura 4.40 se muestra el resultado del etiquetado de los píxeles por medio del agrupamiento utilizando el algoritmo presentado en la subsección 4.4. La Figura

161 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO muestra las imágenes ROI originales que serán procesadas mediante la sub-segmentación Figura 4.39: Imágenes ROI originales. La Figura 4.40 (a)-(d) muestra las imágenes ROI segmentadas de acuerdo con el paso 4.2 del algoritmo de la sub-segmentación. La Figura 4.40 (e)-(h) muestra los resultados de la segmentación de las microcalcificaciones en las imágenes ROI aplicando la sub-segmentación con un valor de umbralα = 0,04. Las imágenes de la Figura 4.40 (i)-(l) muestran los resultados de la segmentación de las microcalcificaciones en las imágenes ROI aplicando la sub-segmentación con un valor de umbral α = 0,03. Las imágenes de la Figura 4.40 (m)-(o) muestran los resultados de la segmentación de las microcalcificaciones en las imágenes ROI aplicando la sub-segmentación con un valor de umbralα = 0,02 y finalmente las imágenes de la Figura 4.40 (p)-(s) muestran los resultados de la segmentación de las microcalcificaciones en las imágenes ROI aplicando la sub-segmentación con un valor de umbralα=0,01. De acuerdo con los resultados presentados en esta sección, se demuestra que la segmentación de imagen mediante algoritmos de agrupamiento resulta ser una muy buena opción para ubicar aquellas regiones correspondientes a microcalcificaciones en las imágenes ROI. Es importante destacar que una parte del éxito en la segmentación se debe a la mejora del contraste que sufrieron las imágenes mediante el uso de la transformada Top-hat. Una de las razones por la que se consideró importante realizar esta mejora a las imágenes ROI fue porque las microcalcificaciones, generalmente, corresponden a un % muy pequeño del total de píxeles que forman la imagen ROI. Si no se realizara este preprocesamiento a algoritmos como el k-means y el FCM les costaría más trabajo segmentar esas regiones de la imagen correspondientes a las microcalcificaciones, ya que estos algoritmos no tienen en cuenta la información espacial de los píxeles. No efectuar un preprocesamiento equivaldría a incrementar el número de regiones que serían necesarias para segmentar la imagen y cumplir con el objetivo, lo que ya se demostró en los apartados correspondientes. Por otro lado, ese incremento del número de regiones para segmentar la imagen, también afecta directamente al coste computacional. 127

162 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) (k) (l) (m) (n) (ñ) (o) (p) (q) (r) (s) Figura 4.40: Sub-segmentación de microcalcificaciones de imágenes ROI mediante agrupamiento aplicando algoritmo propuesto en la subsección 4.4. (a)-(d) Segmentación de acuerdo con el paso 4.2 del algoritmo de la sub-segmentación. (e)-(h) Sub-segmentación con umbral α = 0,04. (i)-(l) Sub-segmentación con umbral α = 0,03. (m)-(o) Subsegmentación con umbralα=0,02. (p)-(s) Sub-segmentación con umbralα=0,01 128

163 4. SEGMENTACIÓN DE MICROCALCIFICACIONES MEDIANTE AGRUPAMIENTO La aplicación de la sub-segmentación para el caso del algoritmo PFCM que se propuso redundó en una disminución notable del número de grupos en los que se requería dividir el espacio de características y que, para el caso de la segmentación de las microcalcificaciones, se mantuvo constante en 2. Por otro lado, una parte del fundamental del buen funcionamiento de la sub-segmentación se puede atribuir al valor de umbralαque fue aplicado a la matriz de tipicalidad T y que, por medio de una desigualdad, permitió la identificación de los datos correspondientes a los píxeles más típicos y atípicos presentes en cada una de las regiones. Con este valor de umbral se solucionó el problema del nivel de agrupamiento o incremento del número de regiones al que se tuvieron que enfrentar los algoritmos de agrupamiento clásicos para realizar la segmentación. Por otro lado, se observó que, a medida que disminuía el valor del umbral, la identificación de los píxeles más atípicos en las regiones se hacía más evidente. Los resultados obtenidos de identificación de datos atípicos mediante sub-segmentación pudieron ser validados positivamente al cotejarlos con la información que se tenía, a priori, de las microcalcificaciones presentes en las imágenes. La coincidencia de ambas fuentes permitió certificar que las regiones identificadas por el algoritmo como atípicas, sí correspondían a las regiones con microcalcificaciones. De acuerdo con los resultados presentados en este capítulo, primero aplicando algoritmos particionales como el k-means y el FCM para realizar una segmentación clásica y luego aplicando una nueva propuesta llamada sub-segmentación basada en un algoritmo particional como el PFCM, se llega a la conclusión de que ambos enfoques son una excelente alternativa para realizar la segmentación de las microcalcificaciones presentes en imágenes de mamografía digitalizada. Es importante realizar un resumen de las ventajas y desventajas de las propuestas empleadas para esta etapa tan importante de este trabajo de tesis. Las principales ventajas de la sub-segmentación vs. la segmentación tradicional se enumeran a continuación: Aprovechar parte de la información proporcionada por el PFCM, como el valor de la tipicalidad de los datos, para llevar a cabo la sub-segmentación. El motivo principal para utilizar esta información es que proporciona un valor para cada dato, que muestra cuan representativo es ese dato con respecto a un grupo. De acuerdo con esto, se demuestra que permite obtener una mejor agrupación de los datos, lo que se traduce en la obtención de información útil (conocimiento) que sirva de ayuda en alguna aplicación. Permite mejorar el nivel de agrupamiento de los datos reduciendo notablemente el número de grupos para llevar a cabo la primera parte de la sub-segmentación, que se puede considerar como una segmentación clásica. En el caso específico de la ubicación de las regiones correspondientes a microcalcificaciones, el número de grupos se mantuvo con el valor constante igual a dos. El resto de la sub-segmentación se llevó a cabo utilizando un valor de umbral previamente definido. De acuerdo al punto anterior, es obvio que el coste computacional aplicando la sub-segmentación es mucho menor que aplicando la segmentación clásica. 129

164 4.4 Segmentación y sub-segmentación mediante algoritmos de agrupamiento Por otro lado las principales desventajas de la sub-segmentación vs. la segmentación clásica son las siguientes: La sub-segmentación es más compleja de implementar debido a que el PFCM es un algoritmo híbrido del PCM y FCM. Además depende de un número mayor de parámetros de inicialización. Los algoritmos como el k-means y el FCM son más fáciles de implementar y dependen de un número menor de parámetros de inicialización. El valor del umbral es obtenido de manera empírica y, algunas veces, puede depender del contraste de la imagen. 130

165 Parte III Clasificación de Microcalcificaciones 131

166

167 Capítulo 5 Clasificación de Microcalcificaciones mediante RNA 5.1. Introducción El origen de la Inteligencia Artificial (AI, Artificial Intelligence) se remonta a la década de los 50 s en la conferencia titulada Dartmouth Summer Research Conference on Artificial Intelligence, que se llevo a cabo en la universidad Dartmouth College y estuvo organizada por el profesor John McCarthy. En la literatura, se pueden encontrar diferentes definiciones de AI por ejemplo, de acuerdo con [Palma-Méndez & Marín-Morales, 2008], el propósito general de la AI es desarrollar modelos conceptuales a través de una escritura formal y estrategias de programación en máquinas físicas, con el objetivo de reproducir, de la forma más eficiente y completa posible, las tareas cognitivas y científico-técnicas de los sistemas biológicos que se han etiquetado como inteligentes. En [Nilsson, 2001] la AI tiene por objeto el estudio del comportamiento inteligente de las máquinas y esto supone percibir, razonar, aprender, comunicarse y actuar en entornos complejos. En los últimos años, las Redes Neuronales Artificiales (RNA) (ANN, Artificial Neural Networks) han resurgido para resolver ciertas aplicaciones del mundo real, donde la información que se presenta es masiva, imprecisa y distorsionada, y que las máquinas en las que se asienta la AI (máquinas de von Neumann), a pesar de su gran potencia, no pueden resolver de manera eficaz, como por ejemplo problemas de visión o aprendizaje [Del Brío & Sanz-Molina, 2006]. Las RNA están inspiradas en las redes neuronales biológicas del cerebro humano, están constituidas por elementos que se comportan de forma similar a la neurona biológica en sus funciones más comunes y se encuentran organizados de una forma parecida a la 133

168 5.2 Fundamentos de las Redes Neuronales Artificiales que presenta el cerebro humano. Debido a esto, las RNA presentan ciertas características propias del cerebro, por ejemplo, las RNA aprenden de la experiencia, generalizan de ejemplos previos a ejemplos nuevos y abstraen las principales características de un conjunto de datos. De acuerdo con lo anterior, las RNA se pueden utilizar con éxito en una gran variedad de aplicaciones en diferentes campos como: la clasificación de patrones en medicina, la predicción usando series de tiempo (medio ambiente y economía), el procesado de señal y el agrupamiento de patrones, entre otros. En este trabajo de tesis, se considera una RNA, específicamente un Perceptrón multicapa con un algoritmo de aprendizaje de retropropagación, con el fin de clasificar patrones, correspondientes a píxeles pertenecientes a microcalcificaciones o al tejido sano sobre una imagen ROI. En el resto del capítulo, se presentan, de forma general, fundamentos, estructuras y clasificación de las RNA, y, de una manera más detallada, el perceptrón multicapa así como su algoritmo de aprendizaje Fundamentos de las Redes Neuronales Artificiales En esta sección se comienza con una breve definición de una red neuronal desde el punto de vista biológico. También se analizará su funcionamiento para facilitar su analogía con las RNA Neurona biológica La neurona es una unidad celular que compone el sistema nervioso, que se puede ver como un elemento de procesamiento de información. Esta llega a través de otras neuronas o de algún sentido. Vista como un sistema, la neurona recibe información de otras neuronas por medio de las dendritas (entradas), que forman una estructura muy fina de filamentos que rodea al cuerpo de la neurona. Si la información es tal que genere una energía interna, se dice que la neurona se dispara, generando una señal de salida que es propagada hacia otras neuronas a través del axón (salida), un tubo largo y delgado que se ramifica en el extremo en pequeños bulbos que casi tocan a las dendritas de las neuronas vecinas. Las señales que entran a la neurona procedentes de otras neuronas pasan a través de una unión conocida como sinapsis. La sinapsis está rellena de fluidos neurotransmisores que aceleran o retardan la propagación de la información. Desde un punto de vista eléctrico, la sinapsis se puede ver como un ajuste de impedancia. Este proceso químico genera señales eléctricas que llegan hasta el núcleo de la neurona. En la Figura 5.1 se muestra la estructura básica de una neurona biológica. La sinapsis juega un papel muy importante en la neurona, ya que en ella se realiza el proceso que conduce a la generación de memoria o aprendizaje. La interconexión de varias neuronas generan una red neuronal. 134

169 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA Figura 5.1: Neurona biológica. Estructura básica Definición de RNA En la literatura se pueden encontrar diferentes formas de definir las RNA. En [Andina & Pham, 2007], definen a las RNA como una máquina diseñada para modelar la forma en que el cerebro realiza una determinada tarea, donde su capacidad de aprendizaje depende de ensayos repetidos. En [Haykin, 1994], una RNA es un procesador en paralelo masivamente distribuido que tiene la facilidad para el almacenamiento de conocimiento obtenido a través de la experiencia para luego hacerlo utilizable. El conocimiento de la red es obtenido a través de un proceso de aprendizaje que es almacenado en las conexiones interneuronales conocidas como pesos sinápticos. En [Kohonen, 1998], se define a las RNA como redes de elementos simples, generalmente adaptativos, masivamente interconectados en paralelo y con organización jerárquica, que intentan interactuar con los objetos del mundo real de la misma forma que lo hace el sistema nervioso biológico. En resumen, las RNA son sistemas de procesamiento de información de forma distribuida y en paralelo, cuya estructura y funcionamiento están inspirados en las redes neuronales biológicas. Las RNA consisten en un gran número de elementos de procesamiento llamados neuronas artificiales, que se encuentran conectados entre si a través de de canales unidireccionales llamados conexiones, que tienen un valor numérico 135

170 5.2 Fundamentos de las Redes Neuronales Artificiales modificable conocido como peso. De acuerdo a su constitución y a sus fundamentos, las RNA presentan algunas características semejantes a las del cerebro. Entre las cuales se pueden destacar: que son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante. Esto hace que las RNA ofrezcan algunas ventajas y que este tipo de tecnología se esté aplicando en diferentes áreas. Dentro de las ventajas se pueden mencionar [Hilera & Martínez, 1995]: Aprendizaje adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o una experiencia inicial. Autoorganización. Una RNA pude crear su propia organización o representación de la información que recibe mediante un proceso de aprendizaje. Tolerancia a fallos. La destrucción parcial de una RNA conduce a una degradación de su estructura, sin embargo, algunas capacidades de las RNA se puede retener, inclusive si sufren un gran daño. Operación en tiempo real. Una de las características más importantes de las RNA es que pueden procesar una gran cantidad de datos de forma rápida, debido a su implementación paralela. Para que la mayoría de las RNA puedan operar en tiempo real, la necesidad de cambio en los pesos de las conexiones o entrenamiento es mínima. Esto hace que las RNA sean una buena alternativa para el reconocimiento y clasificación de patrones en tiempo real. Fácil inserción dentro de la tecnología existente. Se pueden fabricar circuitos integrados especiales para las RNA que mejoran su capacidad para ciertas tareas. Esto facilitará la integración modular en los sistemas existentes La neurona artificial La Figura 5.2 muestra el esquema básico de una neurona artificial, propuesto por McCulloch y Pitts en En esta Figura 5.2 se puede apreciar que las entradas a la neurona corresponden al vector de entrada X cuyos componentes son alterados por los pesos de la matriz W conocidos como pesos sinápticos. El punto de suma denominado net representa el nivel de energía generado por las entradas, que pasa al núcleo de la neurona representado por una función de activación f() y que produce la salida de la neurona. La función de activación puede ser del tipo lineal o no lineal y se selecciona de acuerdo al problema a resolver. De acuerdo con la Figura 5.2 la energía generada por las entradas corresponde a: net(t) = N w ij (t)x j (t) (5.1) j=1 136

171 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA Sinapsis x 2 x 1 w i1 w i2 Cuerpo celular Salida Entradas x j w ij w in f ( ) Axón y i x N Dendritas b Umbral y = f( X j Wij - b i) i Figura 5.2: Representación de una neurona artificial. donde x j corresponde a las señales de entrada de la neurona y w ij son los pesos sinápticos. La salida de la neurona dependerá del tipo de función de activación y se puede expresar como: y i (t)= f (net(t)) (5.2) que vista desde la entrada sería: y i (t)= f ( N w ij (t)x j (t) ) (5.3) j=1 En ocasiones, el modelo de la neurona puede incluir una entrada extra llamada bias b, que modifica el umbral de disparo de la neurona, ver Figura 5.2, por tanto las expresiones (5.1) y (5.5) se modifican a: net(t) = N w ij (t)x j (t)±b (5.4) j=1 y i (t)= f ( N w ij (t)x j (t)±b ) (5.5) j= Funciones de activación La función de activación calcula el estado de actividad de una neurona; ya que una neurona puede estar activa (excitada) o inactiva (no excitada), transformando la entrada global en un valor de activación generalmente en un rango [0,1] o [-1 1], es decir, una neurona puede estar inactiva (0 o -1) o activa (1). Resumiendo, la función de activación es la encargada de definir la salida de la neurona. Las funciones de activación más comunes son: 137

172 5.2 Fundamentos de las Redes Neuronales Artificiales 1. Función identidad: f (x)=x (5.6) 2. Función escalón: o 1 si x 0 f (x)= 0 si x<0 1 si x 0 f (x)= 1 si x<0 (5.7) (5.8) 3. Función lineal saturada: 1 si x 1 f (x)= x si 1<x<1 1 si x 1 (5.9) 4. Función sigmoidal: 5. Función tangente hiperbólica: f (x)= 1 1+e ax (5.10) f (x)= 1 e ax 1+e ax (5.11) 6. Función gaussiana: f (x)=ae Bx2 (5.12) En la Figura 5.3 se muestran las representaciones gráficas de estas funciones Aprendizaje de las RNA De acuerdo con [Palma-Méndez & Marín-Morales, 2008], una RNA puede tratar de resolver dos tipos básicos de problemas: problemas de clasificación y problemas de regresión, aunque para este trabajo solo se considera el problema de clasificación. Para la clasificación, el objetivo consiste en crear un procedimiento por medio del cual un nuevo caso representado por unos atributos observados (características) que constituyen la entrada de la RNA, se asigne a una de entre un conjunto de clases definidas. A la construcción de estos clasificadores también se les conoce como reconocimiento de patrones. Suponiendo que una RNA tenga un número suficiente de neuronas, podrá ajustar 138

173 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA f(x) f(x) x x f(x) f(x) (d) x (c) (b) f(x) f(x) (a) x x x (e) (f) Figura 5.3: Funciones de activación aplicadas en las RNA. (a) Identidad. (b) Escalón. (c) Lineal saturada. (d) Sigmoidal. (e) Tangente hiperbólica. (f) Gaussiana. 139

174 5.3 Arquitectura de las RNA cualquier tipo de función continua con una precisión con tan solo seleccionar los valores adecuados para los parámetros ajustables de dicha red. Dichos parámetros son, por lo general, los pesos sinápticos, lo que los convierte en el medio que la red emplea para almacenar el conocimiento. Al proceso mediante el cual una RNA aprende a realizar la tarea para la que está siendo entrenada, se le conoce como entrenamiento o aprendizaje. De forma matemática, consiste en la modificación de los pesos para lograr la meta propuesta en el entrenamiento. El proceso de aprendizaje de las RNA está basado en el uso de ejemplos que representan el problema. A estos ejemplos se les conoce como patrones de entrenamiento. El objetivo del aprendizaje de las RNA es modelar el proceso que han generado estos patrones y para que se cumpla tal objetivo, es conveniente que el número y tipo de patrones sea lo suficientemente representativo de la relación que se desea aprender. El aprendizaje de las RNA puede ser de dos tipos: supervisado o no supervisado. Para el aprendizaje supervisado se dispone información tanto de los valores de entrada como de los valores de la salida deseados. El objetivo de la red es aprender la correspondencia entre la entrada y la salida. En el caso del aprendizaje no supervisado, los patrones de entrada del conjunto de entrenamiento no disponen de ninguna información de los patrones de salida, es decir, el aprendizaje lo realiza sin ningún tipo de supervisión externa de manera que la RNA siga alguna regla de auto-organización. Más adelante, en la subsección 5.5.1, a modo de ilustración, se muestra lo que es el proceso de entrenamiento de RNA aplicado al modelo del Perceptrón descrito en la sección Arquitectura de las RNA Se le llama arquitectura a la topología, estructura o patrón de una RNA. La distribución de las neuronas dentro de una red se realiza formando niveles o capas con un número determinado de neuronas cada una. A partir de su situación dentro de la red, se pueden distinguir tres tipos de capas: 1. Capa de entrada: es la capa que recibe datos o señales que provienen de fuentes externas a la red. 2. Capas Ocultas: son las capas internas de la red y no tienen contacto directo con el entorno exterior. Las neuronas de esta capa pueden estar interconectadas de distintas maneras y junto con el número de capas ocultas que determinan las distintas topologías de las RNA. En esta capa se realiza gran parte del procesamiento. 3. Capa de salida: esta capa se encarga de transferir la respuesta de la red hacia el exterior. 140

175 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA En la Figura 5.4 se muestra la estructura de una RNA multicapa donde cada neurona únicamente está conectada con neuronas de una capa superior. x 1 f(x) f(x) f(x) f(x) y 1 Entradas x 2 f(x) f(x) f(x) f(x) y 2 Salidas x N f(x) f(x) f(x) f(x) y M Capa de Entrada Capas Ocultas Capa de Salida Figura 5.4: Ejemplo de una arquitectura neuronal multicapa. La conectividad entre las neuronas de una RNA está relacionada con la forma en que las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas. La señal de la salida de una neurona puede ser una entrada de otra neurona o incluso ser una entrada de sí misma (conexión autorrecurrente). Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles precedentes, la red se describe como de propagación hacia adelante, como se muestra en la Figura 5.4. Cuando las salidas pueden ser conectadas como entradas de niveles previos o del mismo nivel, incluyéndose ellas mismas, a la red se la conoce como de propagación hacia atrás Clasificación de las RNA Considerando las características más relevantes de las RNA, la clasificación de estas se puede realizar de acuerdo con: Según el proceso de aprendizaje: Redes neuronales con aprendizaje supervisado. Redes neuronales con aprendizaje no supervisado. La diferencia fundamental entre ambos tipos es en la existencia o no de un agente externo (supervisor) que controle el proceso del aprendizaje de la red. Según el número de capas: 141

176 5.5 El Perceptrón Red neuronal monocapa. Las RNA monocapa más representativas son la red de Hopfield, la red de memoria asociativa y las máquinas estocásticas de Botzmann y Cauchy. Red neuronal multicapa. Las RNA multicapa más representativas son el Perceptrón, Adaline, Madaline, Retropropagación (Backpropagation) y los modelos de LVQ (Learning Vector Quantizer) y TMP (Topology Preserving Map) de Kohonen. Según el tipo de conexión: Redes con conexiones hacia adelante (feedforward). Este tipo de redes, todas las señales se propagan hacia adelante a través de las capas de la red. No existen conexiones hacia atrás ni autorrecurrentes, ni laterales, excepto en los casos propuestos por Kohonen (LVQ y TPM). Las RNA del tipo feedforward más conocidas son, el Perceptrón multicapa, Adaline, Madaline y Backpropagation. Redes con conexiones hacia adelante y hacia atrás. En este tipo de redes la información se transmite tanto hacia adelante como hacia atrás durante el funcionamiento de la red. Para que esto sea posible, existen conexiones hacia adelante y conexiones hacia atrás entre las neuronas. Debido a la gran cantidad de aplicaciones en reconocimiento o clasificación de patrones, así como su tipo de conexión (feedforward) y su tipo de aprendizaje (supervisado), en la siguiente sección se tratará un modelo de RNA de los más populares, el Perceptrón Multicapa, que es usado en este trabajo de tesis con la finalidad de clasificar patrones, correspondientes a píxeles pertenecientes a microcalcificaciones o al tejido sano sobre una imagen ROI El Perceptrón El Perceptrón fue el primer modelo de RNA desarrollado por Frank Rosenblatt en 1958, se basa en el modelo de McCulloch-Pitts y su regla de aprendizaje es una modificación de la propuesta por Hebb [Palma-Méndez & Marín-Morales, 2008]. La estructura del Perceptrón está inspirada en las primeras etapas de procesamiento de los sistemas sensoriales de los animales como, por ejemplo, la visión [Del Brío & Sanz-Molina, 2006]. El Perceptrón despertó un gran interés debido a su capacidad para aprender a reconocer patrones sencillos. El Perceptrón está formado por dos capas. La primera está formada por varias neuronas lineales para recibir las entradas a la red y una neurona en la capa de salida, capaz de decidir cuando una entrada (patrón) pertenece a una de las dos clases que es capaz de reconocer. Es importante resaltar que las neuronas de la entrada no realizan ningún cálculo, solamente envían información a las neuronas de salida. La Figura 5.5 muestra el esquema de un Perceptrón. 142

177 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA x 1 w 1 x 2 w 2 w 3 f ( ) y x 3 Figura 5.5: Representación de un Perceptrón. La única neurona de salida del Perceptrón realiza la suma ponderada de las entradas, resta el umbral y pasa el resultado a una función de activación del tipo escalón. La regla de decisión es responder a +1 si el patrón presentado pertenece a la clase A o 1 si pertenece a la clase B. De esta forma, la salida dependerá de la suma de las entradas x i ponderadas y del valor de umbral b. El Perceptrón puede utilizarse como clasificador así como para representar funciones booleanas, pues su neurona de salida es de tipo binario. Una manera de analizar el comportamiento del Perceptrón es a través de la representación de las regiones de decisión en un mapa en el espacio multidimensional de entradas a la red, donde se puede apreciar los patrones que pertenecen a una clase o a otra. x 2 Clase A Clase B x 1 Figura 5.6: Regiones de decisión en el plano. El Perceptrón separa las regiones por un hiperplano (una línea recta si se trabaja en dos dimensiones, ver Figura 5.6), cuya ecuación es determinada por los pesos de 143

178 5.5 El Perceptrón las conexiones y el valor de umbral de la función de activación de la neurona. De esta manera, los valores de los pesos pueden adaptarse mediante diferentes algoritmos de entrenamiento o aprendizaje de la red. De acuerdo con la Figura 5.6, se puede apreciar que un Perceptrón solo puede discriminar entre dos clases linealmente separables. Sea una RNA de tipo Perceptrón con dos entradas x 1 y x 2 y una salida y, de acuerdo con la expresión 5.5, se tiene y= f (w 1 x 1 + w 2 x 2 b) (5.13) Como la función de activación del Perceptrón es una función escalón, se obtiene la salida: 1 si w 1 x 1 + w 2 x 2 b y= 0 si w 1 x 1 + w 2 x 2 < b (5.14) Considerando x 1 en el eje de las abscisas y x 2 en el eje de las ordenadas en el plano, la expresión w 1 x 1 + w 2 x 2 b=0 x 2 = w 1 x 1 + b (5.15) w 2 w 2 representa una recta (hiperplano, si fuera n-dimensional) que divide el espacio en dos regiones, aquellas en las que la neurona asigna una salida 1 (clase A) o 0 (clase B), respectivamente como se observa en la Figura 5.6. Debido a que el Perceptrón solo consta de una capa de entrada y otra de salida con una única neurona, tiene una capacidad de representación bastante limitada. Esto hace que el Perceptrón sea solo capaz de discriminar patrones que sean linealmente separables. La función XOR (OR-exclusiva) es el caso más conocido de la imposibilidad de representar a través del Perceptrón Aprendizaje del Perceptrón El algoritmo de aprendizaje del Perceptrón es del tipo supervisado. El Perceptrón es entrenado para responder a cada vector de entrada con su correspondiente salida de acuerdo a la función de activación. Se ha demostrado que la regla de aprendizaje converge a una solución en un tiempo finito, si la solución existe. La regla de aprendizaje del Perceptrón se puede expresar mediante (5.16), conocida como aprendizaje por corrección de error. Este tipo de aprendizaje consiste en el ajuste de los pesos en función de la diferencia entre los valores deseados y los obtenidos en la salida de la red es decir, en función del error en la salida [Hilera & Martínez, 1995]. w ij =αx j (y T i y i) (5.16) donde, w ij es la variación en el peso de la conexión entre las neuronas i y j ( w ij = w actual w anterior ), ij ij 144

179 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA x j es valor de entrada en la neurona j, y T i es valor de salida deseado para la neurona i, y i es valor de salida en la neurona i, y η es el factor de aprendizaje en el rango (0 < η 1), el cual se encarga de regular la velocidad en la actualización. El esquema de aprendizaje del Perceptrón es suministrar pares (X, Y T ) a la red, donde X es una entrada que espera tener como salida deseada Y T. Una vez que la red calculó la salida Y para la entrada X, se compara la salida con la salida deseada Y T y el error entre ellas se utiliza para actualizar los pesos y el valor de umbral de la red. A continuación se describe el algoritmo de aprendizaje del Perceptrón para M neuronas de entrada y una neurona en la salida. Algoritmo de Aprendizaje del Perceptrón 1. Definir el valor de los pesos y el umbral, generalmente se asignan valores de manera aleatoria. 2. Suministrar una patrón de entrada X= (x 1, x 2,...,x N ) del conjunto de entrenamiento a la red junto con la salida deseada Y T 3. Calcular la salida actual de acuerdo con: y(t)= f (net(t))= ( N w ij (t)x j (t) b ) (5.17) j=1 4. Realizar la actualización de los pesos (5.18) y del umbral (5.19) de acuerdo con las expresiones: w ij (t+1)=w ij (t)+η[y T (t) y(t)]x j (t) (5.18) b ij (t+1)=b ij (t)+η[y T (t) y(t)]x j (t) (1 j N) (5.19) dondeηrepresenta un factor de ganancia y se encuentra en el rango 0 η 1. Este factor debe ser ajustado de forma que satisfaga tanto los requerimientos de aprendizaje rápido como la estabilidad de las estimaciones de los pesos. 5. Repetir los pasos 2-4 para cada patron de entrada del conjunto de entrenamiento X hasta que el error que se produce para cada uno de los patrones sea cero o se cumpla 145

180 5.6 Perceptrón Multicapa la expresión (5.20), o bien el número de iteraciones permitidas para el entrenamiento se cumplan. Y T Y (5.20) 5.6. Perceptrón Multicapa El Perceptrón Multicapa (Multilayer Perceptron, MLP ) es otro tipo de RNA que parte del principio del Perceptrón. Debido a las deficiencias que presenta el Perceptrón, el MLP surge como una necesidad de resolver las limitaciones de éste. Para ello se realizó un cambio de función de activación, pasando de una función no diferenciable como lo es la función escalón a una función diferenciable como por ejemplo: la función identidad o la función sigmoidal. El MLP es una RNA del tipo feedforward que está formada por una capa de entrada, al menos una capa oculta y una capa de salida, su estructura se muestra en la Figura 5.7. x 1 f ( ) x 2 f ( ) f ( ) x 3 f ( ) f ( ) f ( ) y x 4 f ( ) Figura 5.7: Representación de una RNA-MLP. El MLP permite establecer regiones de decisión mucho más complejas que las de dos semiplanos como lo hace el Perceptrón en una sola capa. De acuerdo con la Figura 5.7, cada una de las capas está formada por un conjunto de neuronas que reciben su vector de entrada de las neuronas situadas en la capa inmediatamente anterior y su vector de salida se convierte en la entrada de las neuronas de la capa inmediatamente posterior donde, generalmente, cada neurona está conectada 146

181 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA a todas las neuronas de la siguiente capa. Esto es conocido como conectividad total. La propagación se realiza de manera que cada neurona hace una combinación lineal de las señales procedentes de la capa anterior siendo los coeficientes de esta combinación, los pesos sinápticos. A continuación, se aplica una función de activación de tipo no lineal que tiene que cumplir con dos condiciones: continua y diferenciable. El número de neuronas que forman las capas de entrada y salida está determinado por el problema, mientras que el número de capas ocultas así como de neuronas cada una de ellas no está fijado ni por el problema ni por ninguna regla teórica, por lo que el usuario es quien decide la estructura de la red en función de la aplicación. Existen algunos métodos empíricos para la caracterización de las capas ocultas, pero cada uno de ellos funciona bien únicamente en un determinado tipo de problema. Ante estos inconvenientes, la solución ideal es implementar una red con muchas capas ocultas y una gran cantidad de neuronas en cada una de ellas; sin embargo, esto genera una serie de inconvenientes tales como: Aumento en la carga computacional. Esto implica una mayor dificultad de implementación en tiempo real así como un aumento del tiempo de entrenamiento de la red. Perdida en la capacidad de generalización. Esto significa que, a mayor número de neuronas en la capa oculta, mayor número de pesos sinápticos, por lo que la red está caracterizada por más parámetros, permitiendo una mejor modelización de los patrones utilizados pero se pierde la capacidad de generalización ya que un patrón no usado en la modelización tendrá más dificultades en el momento de ajustarse a un modelo con un gran número de parámetros Algoritmo de Retropropagación El algoritmo de Retropropagación (Backpropagation Algorithm, BP), fue desarrollado por Rumelhart, Hinton y Williams en Basándose en los trabajos previos de Werbos y Parker, formalizaron un método para que una RNA aprendiera la asociación que existe entre los patrones de entrada a ésta y las clases correspondientes, utilizando más capas de neuronas de las que utilizó Rosenblat para desarrollar el Perceptrón. El algoritmo de Retropropagación, mejor conocido como Backpropagation (propagación del error hacia atrás), está basado en la generalización de la regla delta y, a pesar de sus limitaciones, es usado en un rango amplio de aplicaciones de las RNA. De manera resumida, el funcionamiento del BP consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo. Primero se aplica un patrón de entrada como estímulo para la primera capa de la red y se va propagando a través de todas las capas posteriores hasta obtener una salida. Se compara este resultado 147

182 5.7 Algoritmo de Retropropagación con la salida que se desea obtener y se calcula el valor del error para cada neurona de la capa de salida. Posteriormente, estos errores se propagan hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo un porcentaje de error aproximado a la contribución de la neurona intermedia en la salida original. Este proceso se repite por cada capa hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. De acuerdo al valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que la siguiente vez que se presente el mismo patrón la salida esté más cercana a la deseada Funcionamiento del BP El BP utiliza la regla delta generalizada para ajustar los pesos al igual que lo hace la regla delta, que se expresa mediante la ecuación 5.16, utilizada para el Perceptrón es decir, los pesos se actualizan de acuerdo a la diferencia entre la salida deseada y la obtenida. La regla delta que fue propuesta por Widrow en 1960 ha sido extendida a redes con capas intermedias y es conocida como regla delta generalizada con conexiones hacia adelante (feedforward). Sus neuronas tienen funciones de activación continuas del tipo lineal o sigmoidales y generan el algoritmo BP. Este tipo de funciones de activación son no decrecientes y derivables. La función sigmoidal pertenece a este tipo de funciones, a diferencia de la función escalón que se utiliza en el Perceptrón, ya que esta última no es derivable en el punto donde se produce la discontinuidad. El BP también utiliza una función de error asociada a la red con la finalidad de buscar el estado de estabilidad de mínima energía o de mínimo error a través del camino descendente de la función de error. De acuerdo con esto, realimenta el error del sistema para realizar la modificación de los pesos en un valor proporcional al gradiente decreciente de la función de error. A continuación se describe el algoritmo BP para el entrenamiento de una red MLP de acuerdo con la Figura 5.7. Algoritmo Backpropagation 1. Determinar el valor de los pesos, generalmente se asignan valores de manera aleatoria. 2. Suministrar una patrón de entrada X=x 1, x 2,...,x N del conjunto de entrenamiento a la red junto con la salida deseada Y T. 3. Calcular la salida actual de la red, de acuerdo con el siguiente proceso: 148

183 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA 3.1. Calcular las entradas para las neuronas de las capas ocultas procedentes de las neuronas de la capa de entrada, para una neurona j oculta N net h pj = w h ji x pi+ b h j (5.21) i=1 donde h representa el índice de la capa oculta, el subíndice p, al p-ésimo vector de entrenamiento, y j a la j-ésima neurona oculta De acuerdo con (5.22), calcular las salidas de las neuronas ocultas y pj = f (net h pj ) (5.22) 3.3. Realizar los mismos cálculos para obtener las salidas de las neuronas de la capa de salida: N net o pk = w o kj x pj+ b o k (5.23) j=1 y pk = f o k (neto pk ) (5.24) donde el índice (o=output) representa a la capa de salida, y el subíndice k a la k-ésima neurona de la capa en la capa de salida. 4. Calcular los parámetros del error para todas las neuronas, si la neurona k corresponde a una neurona de la capa de salida, entonces: δ o pk = (y Tpk y pk) f o k (neto pk ) (5.25) donde f tiene que ser continua y derivable, lo que indica la imposibilidad de usar la función escalón. En general, hay dos tipos de función de salida que pueden servir, la función identidad (5.26) y la función sigmoidal (5.27): f k (net jk )=net jk (5.26) f k (net jk )= 1 1+e net jk (5.27) la selección de la función de activación depende de la forma en que se decida representar los datos de salida. Para la función lineal se tiene: f o k = 1 mientras que la derivada para la función de sigmoidal es: f o k = f o k (1 f o k )= y pk(1 y pk ) entonces, los términos del error para las neuronas de salida quedan, para una salida con función lineal: δ o k = (y Tpk y pk) (5.28) 149

184 5.7 Algoritmo de Retropropagación y para una salida con función sigmoidal: δ o k = (y Tpk y pk)y pk (1 y pk ) (5.29) si la neurona j no es de la capa de salida, entonces la derivada parcial del error no puede ser evaluada directamente. Por tanto, el desarrollo se obtiene a partir de valores conocidos y otros que puedan ser evaluados. Para este caso el error se representa mediante: δ h pj = f h j (net h pj ) δ o pk wo kj (5.30) donde el error en las capas ocultas depende de todos los términos del error de la capa de salida. De aquí surge el término de propagación hacia atrás. Específicamente, para la función sigmoidal: k δ h pj = x pi(1 x pi ) δ o pk wo kj (5.31) donde k representa a todas la neuronas de la capa superior a la capa de la neurona j. 5. Actualización de los pesos. El cálculo de los pesos de las neuronas de la capa de salida se realizan de acuerdo con: k w o kj (t+1)=wo kj (t)+ wo kj (t+1) (5.32) w o kj (t+1)=ηδo pk y pj para los pesos de las neuronas de la capa oculta w h kj (t+1)=wh kj (t)+ wh kj (t+1) (5.33) w h ji (t+1)=ηδh pj x pi En ambos casos, para acelerar el proceso de entrenamiento, se puede añadir un término conocido como momento que es una constante que determina el efecto en (t+1) del cambio de los pesos en el instante t; que, para la neurona de la capa de salida, es: β(w o kj (t) wo kj (t 1)) y para las neuronas de la capa oculta es β(w h ij (t) wh ji (t 1)) 150

185 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA 6. El proceso del entrenamiento se repite hasta que error sea lo más aproximado a cero o menor a un valor establecido, para cada uno de los patrones aprendidos Aplicaciones de las Redes Neuronales Artificiales Desde el punto de vista de las aplicaciones, la ventaja de las RNA reside en el procesado paralelo, adaptativo y no lineal. De acuerdo con esto, las RNA pueden utilizarse en un gran número y variedad de aplicaciones. A continuación en la Tabla 5.1 se presentan algunas de las áreas de aplicación de las RNA. Area Aplicación Referencias Medicina Diagnósticos médicos [Shyang-Lih et al., 2004], [Halkiotis et al., 2007], [Papadopoulos et al., 2002] Segmentación de imágenes médicas [Chuan-Yu, 2006], [Fu et al., 2010] Reconocimiento y clasificación de patrones en imágenes médicas [Marcano-Cedeño et al., 2011b], [Marcano-Cedeño et al., 2011c] [Quintanilla-Domínguez et al., 2011b] Industria Sistemas de control y robots automatizados [Oubbati & Palm, 2010], [Lin & Goldenberg, 2001] Control de producción en líneas de [Marzi, 2008] procesos Inspección de calidad [Marcano-Cedeño et al., 2009] Medio Ambiente Predicción usando series de temporales [Barrón-Adame et al., 2012] [Kurt et al., 2008] Análisis de tendencias y patrones [Marcano-Cedeño et al., 2011a] Finanzas Detección de posibles fraudes Valoración del riesgo de los créditos [Khashman, 2009], [Thomas, 2000] [Lee et al., 2002] Análisis y procesado de señal Reconocimiento de patrones en imágenes [Marcano-Cedeño et al., 2010] [Marinai et al., 2005] Reconocimiento de voz [Trentin & Gori, 2001] Clasificación de señales de radar [Andina et al., 2009] Tabla 5.1: Aplicaciones de las Redes Neuronales Artificiales. Se pueden buscar hechos comunes en la lista de aplicaciones. La mayoría de ellas, consisten en realizar un reconocimiento de patrones: buscar un patrón en una serie de ejemplos Diseño del clasificador Como se mencionó anteriormente en este capítulo, un clasificador es un algoritmo que puede asignar una determinada clase a un objeto representado por un conjunto de datos o patrones en función de sus características o atributos extraídos. La clasificación 151

186 5.9 Diseño del clasificador puede ser de dos tipos: supervisada o no supervisada. En este trabajo se considera del tipo supervisada. Durante el proceso de la clasificación, se toman en cuenta dos tipos de consideraciones: Qué tipo de clasificador es el más adecuado. Qué características del objeto usar para clasificarlo. De acuerdo con el tipo de problema que se plantea en esta etapa, que es clasificar aquellos píxeles que fueron detectados como microcalcificación o como tejido sano en la etapa anterior, para la primera consideración se utiliza una RNA del tipo MLP con tres capas de conexión usando el algoritmo de aprendizaje BP. Para la segunda consideración, se utiliza una extracción de características, que están relacionadas con la estructura de los niveles de gris del entorno de los píxeles. El objetivo es que el clasificador aprenda estas características y generalice. En la siguiente subsección se profundizará más sobre este tema Extracción de características En esta subsección se estudiará la etapa de la extracción de características de los niveles de gris sobre una región de interés de una mamografía. Estas características servirán para generar un conjunto de patrones con una etiqueta que represente a las microcalcificaciones o a lo que se considere como tejido sano. Al conjunto de patrones construido se le llamará vector de características (FV). Para esta etapa, se parte de una población correspondiente a todos los píxeles de las imágenes ROI analizadas. A priori se sabe que, en cada una de las imágenes ROI utilizadas, existen píxeles que corresponden a microcalcificaciones (MC c ) y píxeles que corresponden a tejido sano (TS c ), por tanto, cada píxel analizado pertenecerá a una de las dos posibles clases. Y={y (q) } q=1,...,r C y 1 clase microcalcificación MC c y 0 clase tejido sano TS c (5.34) Además de realizar el procesamiento mediante la transformada Top-hat, en este trabajo se analiza la estructura de la imagen mediante el uso de características que tienen que ver con el entorno de los píxeles que se analizan, también conocidos como píxeles contextuales [Loog & van Ginneken, 2002] [Vega-Corona et al., 2003]. Es importante resaltar que, si el píxel pertenece a microcalcificación, su nivel de intensidad de gris es alto, pero si se tratara de ruido, al realizar el análisis de su entorno (información contextual), se evitará que el píxel analizado sea considerado como microcalcificación [Vega-Corona et al., 2003]. 152

187 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA En este trabajo se considera que la dependencia de la intensidad del nivel de gris de los píxeles sobre la intensidad del nivel de gris de píxeles de su entorno está definida mediante las expresiones 5.35 y 5.36, donde este tipo de análisis genera un conjunto de píxeles llamados contextuales. I µ (x, y)= 1 m n [ 1 m I σ (x, y)= m n x=1 y=1 m x=1 y=1 n f (x, y) (5.35) n ] 1/2 ( f (x, y) I µ (x, y)) 2 (5.36) donde, f (x, y) es la intensidad del nivel de gris de la imagen ROI original en la posición (x, y), I µ (x, y) representa la media de la intensidad de los niveles de gris de una región determinada por el tamaño de una ventana de dimensiones m n centrada en la posición (x, y), y I σ (x, y) representa la desviación estándar de la intensidad de los niveles de gris de una región determinada por una ventana de dimensiones m n centrada en la posición (x, y). Este tipo características fueron usadas en algunos trabajos previos relacionados con la detección de microcalcificaciones, entre los que se pueden citar [Vega-Corona et al., 2003], [Cheng et al., 2003], [Cheng et al., 2004], [Fu et al., 2005], [Peng et al., 2006],[Quintanilla-Domínguez et al., 2011b]. En la Figura 5.8 se muestra como se genera un píxel contextual mediante una ventana centrada en el píxel que es analizado. Figura 5.8: Generación de un píxel contextual. En la Tabla 5.2, se muestran los modelos de pares de ventanas utilizadas para generar el conjunto de características. Modelo i ws µ i ws σ Tabla 5.2: Modelos de tamaños de regiones a analizar los vectores de los píxeles contextuales mediante las media y la desviación estándar. 153

188 5.9 Diseño del clasificador De acuerdo con los modelos propuestos en la Tabla 5.2, el vector de características queda expresado mediante 5.37 y contiene información relevante sobre las microcalcificaciones y sobre el tejido sano de las imágenes ROI analizadas. FV=[i µ3 3, i σ3 3, i µ5 5, i σ5 5, i µ7 7, i σ7 7 ] (5.37) donde: [{I µ (x, y)} 1 x R,1 y C ] ws i µws ={i (q) µ ws } q=1,...,r C (5.38) [{I σ (x, y)} 1 x R,1 y C ] ws i σws ={i (q) σ ws } q=1,...,r C (5.39) En este trabajo, el vector de características y su correspondiente clase deseada {FV, Y} obtenida mediante la segmentación y presentada en el capítulo anterior, son fundamentales para la etapa de clasificación Estructura de la red Para este trabajo se utilizó un MLP de cuatro capas con un algoritmo de aprendizaje de BP. La capa de entrada sirve solo para dar paso al vector con las características de entrada a todas las neuronas de la capa intermedia. Para esta capa, se cuenta con un número de neuronas de acuerdo con el número de características o atributos del vector FV de entrada, representado por la expresión Para la capa intermedia, con la finalidad de comparar diferentes estructuras, se ha variado en número de neuronas de esta capa de acuerdo con la Tabla 6.5. Para la capa de salida, solo fue necesario tener una neurona, debido a que solo hay dos posibles clases, microcalcificación o tejido sano Y. La función de activación usada para cada una de las neuronas es del tipo sigmoidal en un rango [0, 1]. La función de medida del error está relacionada con el MSE (Error cuadrático medio, Mean Square Error) que se define como: ε= 1 M M (y (i) ŷ (i) ) 2 (5.40) i=1 donde q, es el índice del q ésimo vector a ser clasificado, ŷ (q) es la salida actual del clasificador, y q es la salida deseada y M es el número total de vectores del entrenamiento. El vector de características FV fue dividido en dos sub-conjuntos: uno de entrenamiento y uno de prueba. Se consideró un 80 % de los datos para entrenar y un 20 % de los datos para probar. En ambos casos los patrones fueron seleccionados de manera aleatoria. 154

189 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA Normalización de los datos De acuerdo con el rango de los datos utilizados por la RNA es necesario aplicar un proceso de normalización de los datos en un rango entre [0, 1], ya que, sí no se aplica este proceso, puede afectar el comportamiento del clasificador. Para llevar a cabo la normalización se aplica el método de escalamiento lineal simple, el cual se encuentra definido como: FV N = FV min FV max FV min FV (5.41) Donde FV N, es vector de características normalizado en el rango [0,1], mientras que max FV y min FV son los valores máximo y mínimo del vector de características FV, respectivamente Evaluación del desempeño del clasificador En este apartado se utilizan algunos términos empleados en el área médica en el proceso de toma de decisiones y que, para este trabajo, son usados para para medir o evaluar los resultados cuando se realiza el proceso de la clasificación de casos normales y anormales, que en este caso sería detección o no detección de microcalcificaciones. Para evaluar el desempeño de los clasificadores se utilizaron dos criterios: El primer criterio de evaluación fue mediante el cálculo de la sensibilidad y especificidad. El segundo criterio es mediante una gráfica bidimensional de la sensibilidad vs. (1-especificidad) conocida como curva ROC. La sensibilidad es la probabilidad de clasificar correctamente a un individuo, en este caso un patrón, cuyo estado real sea el definido como positivo respecto a la condición que estudia la prueba. A la sensibilidad también se le conoce como Fracción de Verdaderos Positivos (FVP) y está definida como: Sensibilidad = FVP = VP VP+FN (5.42) La especificidad es la probabilidad de clasificar correctamente a un individuo cuyo estado real sea definido como negativo. A la especificidad también se le conoce como Fracción de Verdaderos Negativos (FVN) y está definida como: Especificidad=FVN=1 FFP= VN VN+FP (5.43) donde, FFP es la Fracción de Falsos Positivos y 155

190 5.9 Diseño del clasificador VP = Verdaderos Positivos, son patrones que resultaron clasificados como microcalcificaciones y se prueba que son microcalcificaciones. FP = Falsos Positivos, son patrones que resultaron clasificados como microcalcificaciones y se prueba que no lo son. FN = Falsos Negativos, son patrones que resultaron clasificados como tejido sano y se prueba que son microcalcificaciones. VN = Verdaderos Negativos, son patrones que resultaron clasificados como tejido sano y se prueba que son tejido sano. La Tabla 5.3 muestra los resultados de la clasificación con respecto a valores reales de la prueba. A la Tabla 5.3 también se le conoce como tabla de contingencia o matriz de confusión. Resultados MC c TS c Deseados Resultados MC c VP FN TS c FP VN Tabla 5.3: Matriz de confusión. La curva ROC (Receiver Operating Characteristic) es una forma gráfica y fácil de evaluar el desempeño del clasificador. Este tipo de curvas fueron desarrolladas en los años cincuenta como herramientas el análisis de detección e interpretación de señales de radar [Burgueño et al., 1995]. Posteriormente se introdujeron en aplicaciones de sistemas de diagnostico médico [Swets & Pickett, 1982]. La curva ROC es un gráfico en el que se observan todos los pares (sensibilidad/especificidad) resultantes de la variación continua de los puntos de corte en todo el rango de resultados observados. El eje de las ordenadas está representado por la sensibilidad o FVP y el eje de las abscisas está representado por la FFP o (1-especificidad). Cada punto de la curva esta representado por un par (sensibilidad, 1 especi f icidad) correspondiente a un nivel de decisión determinado. Cuando la curva se aproxima más hacia la esquina superior 156

191 5. CLASIFICACIÓN DE MICROCALCIFICACIONES MEDIANTE RNA izquierda de los ejes de la gráfica, se considera que la prueba, en este caso el clasificador, tiene un buen desempeño. Una vez que se ha construido la curva ROC, es posible calcular el área bajo la curva (AUC) mediante la regla trapezoidal, es decir, como la suma de las áreas de todos los rectángulos y trapecios que se pueden formar bajo la curva. La AUC indica la exactitud global de la prueba obtenida en la clasificación, en donde la exactitud máxima correspondería a un valor en el intervalo 0, 5 AUC 1. Para una mayor referencia sobre el análisis de las curvas ROC, se pueden consultar las siguientes citas [Swets & Pickett, 1982], [Burgueño et al., 1995], [Bradley, 1997]. 157

192 Diseño del clasificador

193 Parte IV Metodología y Resultados 159

194

195 Capítulo 6 Metodología, experimentación y resultados 6.1. Introducción A lo largo de esta tesis se han presentado, de manera parcial, algunos de los resultados de cada una de las etapas del sistema de detección automática de microcalcificaciones en mamografía digitalizada. Finalmente, en este capítulo, se muestran todos los resultados obtenidos mediante la elaboración de tres experimentos, que serán definidos y desarrollados a lo largo de éste Plataforma y equipo El software utilizado durante el desarrollo de las etapas planteadas en este trabajo de tesis fue MATLAB R versión 7.9 R2009b del cual se utilizaron algunas de las herramientas (toolbox) disponibles. Las herramientas que se emplearon fueron: Image Processing Toolbox TM y Neural Network Toolbox TM. Por otro lado, todas las simulaciones se realizaron en un ordenador con procesador Intel Quad Core a 3.0 GHz con 4 GB de memoria RAM y un sistema operativo Microso f t R Windows Selección de Regiones de Interés De acuerdo con el sistema propuesto y presentado en el Capítulo 2, que ya se mostró en la Figura 2.1, la primera etapa consiste en la selección de imágenes ROI. Para llevar a cabo esta etapa se realiza el siguiente procedimiento: 1. Seleccionar un conjunto de mamografías con el tipo de lesión correspondiente a microcalcificaciones. 2. Ubicar la zona en donde se encuentra la lesión. 161

196 6.3 Selección de Regiones de Interés 3. Ubicar las coordenadas de centro de la lesión. 4. Extraer la región de interés en base a un número especifico de píxeles. En este trabajo se van a utilizar imágenes de la base de datos mini-mias, en la que se encuentra toda la información que es necesaria para realizar la selección y extracción de las imágenes ROI de forma detallada. Una de las razones principales por la que esta base de datos ha sido utilizada en este trabajo se debe a que diferentes trabajos de investigación la utilizaron con la misma finalidad de detectar microcalcificaciones. También han sido un referente importante en esta investigación, [Chen et al., 2002], [Cheng et al., 2003], [Shyang-Lih et al., 2004], [Rashed et al., 2007], [Pal et al., 2008], [Stojic & Reljin, 2010]. Otra razón, no menos importante, es el fácil acceso a las imágenes así como la información sobre éstas. A continuación se presenta, de forma resumida, la información [Suckling et al., 1994]. Cuenta con un total de 322 imágenes de mamografía. El tamaño de todas las imágenes es de con una resolución espacial de 200µm/pixel. Tipo de tejido predominate: el tejido puede ser de tres tipos: graso, graso glandular y denso. Tipo de lesión: los tipos de lesiones encontradas son microcalcificaciones, masas circunscritas, masas espiculadas, masas mal definidas, distorsión arquitectural o densidades asimétricas. Diagnóstico: el tipo de diagnóstico es, benigno o maligno. Coordenadas del centro (x, y) de la lesión: estas coordenadas corresponden al centro de una circunferencia que encierra la lesión. Radio aproximado de la circunferencia expresado en píxeles. En la Figura 6.1 se muestra el procedimiento de la extracción de una ROI. Al final de esta etapa se cuenta con una colección de imágenes ROI que serán usadas para entrenar y probar el sistema propuesto. El tamaño de las imágenes ROI usadas para este trabajo es de y píxeles con una resolución espacial de 200µm/pixel. En la Figura 6.2 se muestran algunas imágenes ROI extraídas de la base datos. Una vez extraídas todas las imágenes ROI, el siguiente paso es separarlas para formar dos subconjuntos, uno con imágenes ROI de tamaño , que será utilizado para entrenamiento y prueba del sistema y otro formado con imágenes ROI de tamaño , que será usado solo para probar el sistema. Las Figuras 6.3 y 6.4, muestran algunas imágenes ROI correspondientes al subconjunto de entrenamiento-prueba y al subconjunto de prueba, respectivamente. 162

197 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS y x Figura 6.1: Extracción manual de una ROI utilizando la información proporcionada por la base de datos Mejora de imagen mediante la transformada Top-hat Una vez definidos los subconjuntos con las imágenes ROI, la siguiente etapa del sistema consiste en realizar un procesamiento a las imágenes basado en una mejora de contraste de la imagen mediante operaciones de morfología matemática. Por lo general, las microcalcificaciones en una imagen corresponden a píxeles con un nivel de intensidad mayor que los píxeles de sus alrededores, aunque en algunas ocasiones no es así, por ejemplo, en un seno con tejido denso, el contraste de las microcalcificaciones respecto a este tejido es muy bajo, lo que dificulta al ojo humano distinguirlas [Cheng et al., 2003]. Debido a esto, la finalidad de realizar esta mejora de imagen es aumentar el contraste de las microcalcificaciones respecto al tejido para facilitar su identificación. La mejora del contraste de las imágenes ROI se hace mediante morfología matemática basada en la transformada Top-hat. Dicho proceso se describió en este trabajo en el capítulo 3, específicamente en la Subsección Los resultados de esta mejora de contraste fueron parte de los trabajos, [Quintanilla-Domínguez et al., 2010], [Vega-Corona et al., 2011], [Quintanilla-Domínguez et al., 2011a] y [Quintanilla-Domínguez et al., 2011b], que forman parte del sustento de esta tesis. Para realizar el proceso de mejora de imagen se utiliza el mismo SE a diferentes tamaños 3 3, 5 5 y 7 7. Donde el SE utilizado es conocido como flat disk-shaped SE. En la Figura 6.5 se muestran los SE utilizados Experimento 1 Para este experimento se van a considerar 10 imágenes ROI del subconjunto entrenamiento-prueba de la Figura 6.3. De aquí en adelante se presentará la metodología propuesta así como los resultados obtenidos de cada etapa para estas imágenes ROI. 163

198 6.4 Mejora de imagen mediante la transformada Top-hat Figura 6.2: Imágenes ROI originales de la base de datos. 164

199 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Figura 6.3: Subconjunto de imágenes ROI definidas para el entrenamiento-prueba del sistema. Figura 6.4: Subconjunto de imágenes ROI definidas solo para prueba del sistema. Figura 6.5: Elementos estructurantes usados para la mejora del contraste de las imágenes ROI. 165

200 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos En la Figura 6.6 se muestra el proceso de la mejora de imagen mediante la transformada Top-hat. SE_3x3 Figura 6.6: Mejora de imagen mediante la transformada Top-hat. Definidos la forma y el tamaño del SE, se realiza el proceso de la mejora del contraste de imagen mediante la transformada Top-hat, en la Figura 6.7 se muestran los resultados de las imágenes procesadas para los SE utilizados Segmentación de microcalcificaciones mediante agrupamiento de datos Construcción del conjunto de datos En el Capítulo 4 se presentó la segmentación de microcalcificaciones en imágenes ROI aplicando algoritmos de agrupamiento particiones como, el k-means, el FCM y una nueva técnica basada en el PFCM a la que se llamó sub-segmentación. Para llevar a cabo la segmentación y la sub-segmentación es necesario preparar el conjunto de datos X que, posteriormente, será agrupado. El proceso de agrupamiento se realiza en el espacio de las características, es decir, sin tener en cuenta la información espacial de los píxeles de la imagen. Se considera que este conjunto de datos se ha construido a partir de las imágenes ROI obtenidas de la etapa de la mejora del contraste. El objetivo de construir así el conjunto de datos X es facilitar el trabajo del proceso de agrupamiento para una mejor ubicación las microcalcificaciones. Para cada imagen ROI original se obtienen tres imágenes debido al proceso de mejora de contraste y, para cada imagen mejorada, se obtiene un vector fila (x se ), al que se le aplica la transpuesta para obtener un vector columna. Lo anterior se puede expresar de la siguiente manera: 166

201 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) Figura 6.7: Mejora del contraste de las imágenes ROI mediante la transformada Top-hat, usando SE de tamaños: (a) 3 3. (b) 5 5. (c)

202 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos [{I T (x, y)} 1 x R,1 y C ] se x se ={x ise } i=1,...,r C (6.1) donde, se representa el tamaño del SE, x ise representa el nivel de gris del i-ésimo píxel de I T, R y C corresponden al tamaño de la imagen. Este procedimiento se realiza para cada imagen procesada con cada uno de los SE usados. Entonces, X para cada imagen ROI se puede expresar de la siguiente manera: X=[x 3 3, x 5 5, x 7 7 ] (6.2) En la Figura 6.8, se muestra de forma ilustrativa el proceso de la construcción del conjunto de datos X. x 1 x 1 x 2 x 2 x 3 x 3 x 4 x 4 x 5 x 5 x 6 x 6 x 1 x 2 x 3 x 4 x 5 x 6 X = x r x c x r x c x r x c Figura 6.8: Proceso de construcción del conjunto de datos X para cada imagen ROI Segmentación mediante agrupamiento de datos Una vez formado el conjunto de datos X, el siguiente paso es obtener una etiqueta para cada uno de los datos que lo conforman. Esta asignación se debe a que, X carece de una etiqueta que lo relacione con alguna clase o grupo en particular. Para realizar esa tarea, se han utilizado algoritmos de agrupamiento particionales, los cuales fueron descritos en el Capítulo 4. El objetivo de aplicar algoritmos de agrupamiento particionales para obtener la etiqueta de los datos de X, es debido a que estos algoritmos proporcionan información (conocimiento) basada en alguna propiedad de similitud y que es de utilidad para esta aplicación especifica. En este caso, la información proporcionada está relacionada con la partición de X a un nivel determinado hasta obtener datos agrupados. Desde un punto de vista de imagen, estos representan una región determinada de la imagen, es decir, se obtiene una imagen segmentada en la cual cada píxel representa la etiqueta de los datos durante el proceso de agrupamiento. Específicamente para el problema que se aborda en este trabajo de tesis, los píxeles de la imagen segmentada representan dos grupos de interés (clases), clase microcalcificación (MC c ) y clase tejido sano (TS c ). Esto significa que cada uno de los datos X después del proceso de agrupamiento pertenecerá a una de las 168

203 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS dos clases definidas. En la Figura 6.9 se muestra el diagrama a bloques del proceso de la segmentación y sub-segmentación. Proceso de Etiquetado Mejora de Imagen por Transformada Top-Hat Creación del vector de datos (X) Segmentación y sub-segmentación de Imagen mediante k-means, FCM y PFCM Figura 6.9: Proceso de la segmentación y sub-segmentación mediante el agrupamiento de patrones para las imágenes ROI Segmentación mediante k-means En el Capítulo 4 en el apartado , se presentó el algoritmo k-means, que fue aplicado a diferentes conjuntos de datos obtenidos de algunas imágenes ROI, con el objetivo de asignar los datos a una de las dos clases de interés, la clase microcalcificación y a la clase tejido sano, respectivamente. Con el mismo objetivo, ahora el k-means es aplicado a cada una de las imágenes consideradas para el Experimento 1 bajo las siguientes condiciones iniciales: Número de particiones: 2 a 5. Valores iniciales de los centros: seleccionados aleatoriamente. Tipo de distancia: euclídea. Valor de toleranciaε=0,001 Una diferencia importante entre una de las condiciones iniciales presentadas para este experimento y los ejemplos que se presentaron en el Capítulo 4 es el número de particiones. Para este experimento, se definió un número menor de particiones que en los ejemplos presentados en el Capítulo 4. Las razones principales por las que se decidió 169

204 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos hacer esto son: en los ejemplos presentados en ese capítulo se observó que, a medida que el nivel de agrupamiento aumentaba, se presentaba una convergencia en el centro del grupo de datos que era asignado a microcalcificaciones, por tanto, el número de datos asignados a ese grupo se mantenía más o menos constante. Por otro lado, también se pudo observar que el valor de la máxima separabilidad entre grupos era mucho mayor cuando el nivel de agrupamiento era menor y que, a medida que éste aumentaba, el valor de máxima separabilidad entre grupos disminuía. De acuerdo a lo antes mencionado, se decidió seleccionar un número menor de particiones del grupo de datos. En la Figura 6.10 se muestran las imágenes ROI segmentadas bajo las condiciones propuestas para este algoritmo. Estas imágenes representan la etiqueta de cada uno de los vectores que componen el vector de patrones X. Como se mencionó en la subsección , el grupo de interés es aquel cuyos vectores del conjunto de patrones X obtuvieron la etiqueta que se consideró como microcalcificación, que generalmente coincide con el grupo que contiene el menor número de vectores. En la Figura 6.10 se presentaron los resultados de la segmentación de las imágenes ROI por medio de agrupamiento usando el algoritmo k-means. Debido a que el agrupamiento se realizó de manera individual para cada imagen ROI, se pudo realizar un análisis de la convergencia entre los centros de los grupos así como un análisis de manera visual para cada partición y, de forma especifica, para el grupo de interés. Se pudo observar que se mantienen con una variación mínima, por tanto, este fue el criterio que usó para detener la partición de X Segmentación mediante el FCM En el capítulo 4, en el apartado , se presentó el algoritmo FCM, que fue aplicado a diferentes conjuntos de datos X obtenidos de algunas imágenes ROI, con el objetivo de asignar los datos a una de las dos clases de interés, la clase microcalcificación y a la clase tejido sano. Con el mismo objetivo, ahora el FCM es aplicado a cada una de las imágenes consideradas para el Experimento 1 bajo las siguientes condiciones iniciales: Número de particiones: 2 a 5. Valores iniciales de los centros: seleccionados aleatoriamente. Medida de la distancia: euclidiana. Valor de m=2. Al igual que para la segmentación de imagen mediante agrupamiento aplicando el k-means, la condición inicial del número de particiones fue modificada. En este experimento, se definió un número menor particiones que en los ejemplos presentados en el Capítulo 4. Las razones por las que se decidió hacer esto fueron las mismas que para el ejemplo de agrupamiento aplicando el k-means: a medida que nivel de agrupamiento aumentaba se presentaba una convergencia en el centro del grupo de datos que era 170

205 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) 50 (d) Figura 6.10: Resultados de la segmentación de las imágenes ROI mediante agrupamiento por k-means. (a) Imágenes ROI originales. (b) Resultados de la primera partición. (c) Resultados de la segunda partición. (c) Resultados de la tercera partición. 171

206 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos asignado a microcalcificaciones, por tanto, el número de datos asignados a ese grupo se mantenía más o menos constante. Por otro lado, el valor de la máxima separabilidad entre grupos era mucho mayor cuando el nivel de agrupamiento era menor y que, a medida que éste aumentaba, el valor de máxima separabilidad entre grupos disminuía. De acuerdo con esto, se optó por seleccionar un número menor de particiones del grupo de datos. En la Figura 6.11 se muestran las imágenes ROI segmentadas bajo las condiciones propuestas para este algoritmo. Estas imágenes representan la etiqueta que fue asignada a cada uno de los datos del conjunto X durante el proceso de agrupamiento utilizando este algoritmo, aunque para este caso la asignación de la etiqueta fue utilizando el valor máximo del grado de pertenencia de la matriz difusa U generada. El grupo de interés es aquel cuyos datos del conjunto X obtuvieron la etiqueta que se consideró como microcalcificación que, por lo general, coincide con el grupo que contiene el menor número de datos Sub-segmentación mediante PFCM En este caso, el algoritmo descrito en el capítulo 4 en la subsección es aplicado para etiquetar el conjunto de datos X para cada una de las imágenes ROI del experimento 1, bajo las siguientes condiciones iniciales: Número de grupos: 2. Valores iniciales de los centros: seleccionados aleatoriamente. Medida de la distancia: euclidiana. Valores de los parámetros del PFCM: a=1, b=2, m=2,η=2. Valores de umbral:α=0,04,α=0,03,α=0,02. En la Figura 6.12 se muestran las imágenes ROI segmentadas mediante la subsegmentación a diferentes valores de umbral α. Como se mencionó en la subsección 4.4.2, el sub-grupo de interés es aquel cuyos datos del conjunto de datos X obtuvieron la etiqueta que se consideró como microcalcificación, de acuerdo con sus valores de tipicalidad de la matriz T correspondiente a la partición posibilista, que se encuentren por debajo del valor de umbral α definido, los cuales para este trabajo son considerados como los datos más atípicos. Los resultados del proceso de agrupamiento utilizando los algoritmos propuestos se representan como imágenes segmentadas. En la Tabla 6.1 se muestran los resultados del número de datos asignados a microcalcificaciones y a tejido sano, para las 10 imágenes ROI consideradas para el Experimento

207 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) 50 (d) Figura 6.11: Resultados de la segmentación de las imágenes ROI mediante agrupamiento por FCM. (a) Imágenes ROI originales. (b) Resultados de la primera partición. (c) Resultados de la segunda partición. (c) Resultados de la tercera partición. Grupo No. de vectores asignados por: k-means fcm sub-segmentación Tejido Sano Microcalcificaciones Tabla 6.1: Resultados de la asignación de etiquetas a los vectores de las imágenes ROI. 173

208 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos (a) (b) (c) (d) Figura 6.12: Resultados de la sub-segmentación de las imágenes ROI mediante el PFCM. (a) Imágenes ROI originales. (b) Resultados utilizando el valor de α = 0,04. (c) Resultados utilizando el valor de α = 0,03 (c) Resultados utilizando el valor de α = 0, Modelo de comparación, segmentación de imagen Con el objetivo de realizar una comparación de la segmentación de imágenes ROI aplicando algoritmos de agrupamiento, en este apartado se muestra una segmentación de microcalcificaciones en imágenes ROI basada en un modelo que fue presentado en [Fu et al., 2005]. Este modelo se compone principalmente de las siguientes técnicas de procesamiento de imagen: Mejora del contraste: esta mejora de contraste esta basada en la transformada Tophat. 174

209 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Detección de bordes: la detección de bordes es llevada a cabo aplicando filtrado espacial mediante un par de filtros ampliamente conocidos, Sobel & Canny. Operaciones morfológicas tales como rellenado y cerradura de regiones. Para una mejor referencia, en la Figura 6.13 se muestra un diagrama a bloques del modelo de segmentación. Imágenes ROI Realce de Microcalcificación Detección de Contornos & Rellenado Microcalcificación Segmentada Figura 6.13: Modelo de comparación para segmentar microcalcificaciones basado en el modelo propuesto por [Fu et al., 2005]. Para la implementación del modelo se utilizaron las funciones del Image Processing Toolbox TM de MATLAB R versión 7.9 R2009b. A continuación se presenta una descripción de cada una de las etapas del modelo de comparación así como los parámetros iniciales considerados para cada una de ellas Selección de las imágenes ROI El primer bloque del modelo corresponde con una selección de imágenes ROI. Para este caso, se van a emplear las mismas que se utilizaron en el experimento 1. En la Figura 6.14 se pueden apreciar nuevamente algunas imágenes ROI que van a ser utilizadas. Figura 6.14: Imágenes ROI utilizadas para la segmentación aplicando el modelo de comparación. 175

210 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos Realce de microcalcificación La segmentación mediante el modelo comparación se puede resumir en dos etapas principales que están representadas por los bloques Realce de Microcalcificación y Detección de Contornos & Rellenado como se muestra en la Figura La primera etapa se compone de una mejora de contraste de las microcalcificaciones sobre el tejido circundante. El objetivo de esta etapa, es facilitar su identificación en la imagen ROI. La mejora del contraste se lleva a cabo empleando una operación de morfología matemática que es conocida como transformada Top-hat. Esta operación se describió en el capítulo 3, específicamente en la Subsección La forma de aplicar la transformada Top-hat específicamente para este modelo es la misma que se realizó en la propuesta de este trabajo. Se utiliza un SE del mismo tipo (flat disk-shaped SE) pero existe una diferencia que radica en que, para el modelo de comparación se utiliza un SE de tamaño 7 7 y para la metodología propuesta en este trabajo se utilizó el mismo SE pero con 3 tamaños diferentes. La decisión de contemplar ese tamaño se tomó de acuerdo con los resultados obtenidos en los trabajos [Wirth et al., 2004] y [Fu et al., 2005]. El tipo y tamaño de SE se muestra en la Figura Figura 6.15: Elemento estructurante usado para la mejora del contraste de las imágenes ROI en el modelo de comparación. Definidos la forma y el tamaño del SE, se realiza el proceso de la mejora del contraste de imagen mediante la transformada Top-hat. En la Figura 6.16 se muestran los resultados de las imágenes procesadas para el SE utilizado Detección de contornos La segunda etapa del modelo de segmentación consiste en realizar dos operaciones ampliamente utilizadas en el procesamiento de imagen: la detección contornos (bordes) así como el relleno de regiones y cerradura. Estas últimas se realizan aplicando operaciones morfológicas. En el capítulo 3 en el apartado se presentó el filtrado espacial como una 176

211 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Figura 6.16: Mejora del contraste de las imágenes ROI mediante la transformada Top-hat, usando un SE de tamaño 7 7 técnica clásica de mejora de contraste de imagen. En este modelo, es utilizado para realizar una tarea de procesamiento de imagen como es la detección de bordes. La detección de bordes está considerada como una técnica básica en la segmentación de imagen que se basa esencialmente en una discontinuidad o un cambio abrupto de los valores de intensidad de los píxeles de una imagen. Para realizar la detección de bordes, el principio del funcionamiento es el mismo que para la mejora del contraste en la imagen que fue presentado en el apartado Como se mencionó entonces, el filtrado espacial se realiza por medio de la operación de convolución entre una región de la imagen y un filtro, también conocido como kernel, ventana o máscara de convolución. La operación de convolución consiste en la suma de productos entre los coeficientes del filtro y las intensidades de los píxeles que se encuentran dentro de la máscara de convolución en un punto de interés en la imagen. Este proceso se va aplicando por medio del desplazamiento de la máscara de convolución a cada píxel de la imagen. Básicamente, la máscara de convolución es una matriz cuadrada, por lo general de tamaño impar, en la que los valores de sus coeficientes determinan la naturaleza del proceso. El valor del nuevo píxel en el punto (x, y) generado por el filtro, dependerá de los valores de los píxeles que coincidan con los coeficientes del filtro y los valores de estos coeficientes. Para el caso del modelo de comparación presentado, los filtros que se van a utilizar para llevar a cabo la detección de bordes mediante filtrado espacial son los filtros de Sobel & Canny. En [Canny, 1986][Gonzalez & Woods, 2002] se puede encontrar una amplia descripción y aplicaciones sobre este tipo filtros. En la Figura 6.17 se muestran los resultados de la detección de bordes encontrados en las imágenes ROI previamente procesadas mediante la transformada Top-hat. En la Subsección del Capítulo 3 se presentaron las operaciones morfológicas. En 177

212 6.5 Segmentación de microcalcificaciones mediante agrupamiento de datos (a) (b) Figura 6.17: Detección de bordes aplicando filtros de: (a) Sobel (b) Canny. ese apartado se definieron dos operaciones morfológicas básicas como son la erosión y la dilatación así como otras operaciones que se pueden realizar a partir de la combinación de estas. Como resultado de una combinación de esas operaciones morfológicas se tiene la operación de cerradura, que fue definida en la misma subsección. Básicamente, el Relleno de Regiones se realiza mediante una dilatación condicional al complementario del objeto a partir de un punto inicial también conocido como semilla. Una descripción más detallada sobre este tipo de operación se puede encontrar en [Gonzalez & Woods, 2002]. En ambas operaciones es necesario definir un SE y que para este tipo de operaciones se eligió de manera experimental un (flat disk-shaped SE) de dimensión 7 7. De acuerdo con 178

213 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS el diagrama de bloques mostrado en la Figura 6.13 para la segmentación de microcalcificaciones en imágenes ROI aplicando el modelo de comparación finalmente se obtienen los siguientes resultados mostrados en la Figura 6.18 (a) (b) Figura 6.18: (a) Relleno de regiones una vez encontrados los bordes aplicando los filtros de Sobel & Canny respectivamente. (b) Segmentación de microcalcificaciones en imágenes ROI aplicando el modelo propuesto en [Fu et al., 2005]. De acuerdo con los resultados obtenidos del proceso de segmentación aplicando la metodología mostrada en la Figura 6.13, en la Tabla 6.2 se muestran el número de datos 179

214 6.6 Extracción de características asignados a microcalcificaciones y tejido sano, para las 10 imágenes ROI consideradas. Grupo No. de vectores asignados Modelo de comparación Tejido Sano Microcalcificaciones 4575 Tabla 6.2: Resultados de la asignación de etiquetas a los vectores de las imágenes ROI aplicando el modelo de comparación Extracción de características Para la etapa de extracción de características de las imágenes ROI, se aplican la Media y la Desviación Estándar que fueron definidas en el Capítulo 5 en la subsección Este tipo de características aportan información contextual de los píxeles analizados es decir, si se analiza un pixel, la información contextual corresponde a la información (en este caso la intensidad de nivel de gris) que aportan los píxeles de su entorno (región) basado en una ventana de dimension fija. Una vez que se realiza el proceso de extracción de características, éstas serán utilizadas posteriormente por una RNA, para realizar una detección automática de microcalcificaciones. En la Figura 6.19, se muestra el proceso de la etapa de extracción de características del sistema propuesto. Proceso de Etiquetado Mejora de Imagen por Transformada Top-Hat Creación del vector de datos (X) Segmentación y sub-segmentación de Imagen mediante k-means, FCM y PFCM Extracción de Características por medio de la Media y Desviación Estándar Creación del vector de características ( FV) Figura 6.19: Proceso para la extracción de características. 180

215 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS De acuerdo con la Figura 6.19 estas características son extraídas de la imagen ROI original por medio de ventanas rectangulares que, para este trabajo, tendrán tres diferentes de tamaños (ws), 3 3, 5 5 y 7 7. Cada imagen obtenida de este proceso es considerada una característica que puede ser usada para generar un conjunto de patrones. En este conjunto de patrones llamado vector de características (FV), existen patrones que representan a las clases de MC c y TS c respectivamente. Posteriormente este FV, será utilizado como entrada de un clasificador basado en un RNA para discriminar patrones pertenecientes a MC c y a TS c. Este FV se construye de la siguiente manera: FV=[i µ3 3, i σ3 3, i µ5 5, i σ5 5, i µ7 7, i σ7 7 ] (6.3) donde: [{I µ (x, y)} 1 x R,1 y C ] ws i µws ={i (q) µ ws } q=1,...,r C (6.4) [{I σ (x, y)} 1 x R,1 y C ] ws i σws ={i (q) σ ws } q=1,...,r C (6.5) Las etiquetas de las dos clases de FV fueron obtenidas en el proceso de segmentación y sub-segmentación mediante agrupamiento. Debido al gran número de patrones que pertenecen a la clase TS c con respecto al número de patrones que pertenecen a la clase MC c, que se pudo observar en la Tabla 6.1, un balanceo de patrones fue realizado, en el que por cada patrón correspondiente a microcalcificación se tomaron 10 de tejido sano, es decir el balanceo fue de 1 a 10. La Tabla 6.3 muestra los subconjuntos de FV para las clases MC c y TS c después de realizarse el balanceo. Clase No. de vectores balanceados para: k-means fcm sub-segmentación modelo de comparación Tejido Sano Microcalcificaciones Tabla 6.3: Resultados del balanceo de FV Clasificación mediante una RNA Selección de la estructura de red Con la finalidad de identificar automáticamente las microcalcificaciones en las imágenes ROI utilizaremos un clasificador basado en una RNA específicamente un Perceptrón Multicapa. La Figura 6.20 muestra el proceso para la etapa de la clasificación del sistema propuesto. 181

216 6.7 Clasificación mediante una RNA Proceso de Etiquetado Mejora de Imagen por Transformada Top-Hat Creación del vector de datos (X) Segmentación y sub-segmentación de Imagen mediante k-means, FCM y PFCM Extracción de Características por medio de la Media y Desviación Estándar Creación del vector de características ( FV) Clasificador basado en RNA (MLP) Figura 6.20: Proceso de clasificación de características. Para evaluar comparativamente el rendimiento del clasificador, diferentes estructuras de redes son entrenadas y probadas con el mismo conjunto de entrenamiento y con el mismo conjunto de prueba. Un 80 % del total de los patrones fueron utilizados para entrenar la RNA y el 20 % restante se usó para probar la RNA, ver Tabla 6.4. Número de patrones FV MCs/NT Entrenamiento Prueba Total k-means MCs NT fcm MCs NT PFCM MCs NT modelo de MCs comparación NT Tabla 6.4: Número de patrones usados para el entrenamiento y prueba de los diferentes clasificadores utilizados. Los resultados de esta etapa fueron obtenidos de acuerdo a las consideraciones analizadas en el capítulo 5 en la subsección Después de haber realizado diferentes pruebas, los mejores resultados obtenidos de la etapa de clasificación fueron con las estructuras de red mostradas en la Tabla 6.5 y los siguientes parámetros: 182

217 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS 1. Número de neuronas de entrada igual al número de características (atributos) de FV: Número de capas ocultas: Neuronas en la capa oculta: ver Tabla Neuronas en la capa de salida: Tasa de aprendizaje: Tipo de función de activación: función sigmoidal con valores entre [0,1]. 7. Todos los valores de los pesos son inicializados aleatoriamente. 8. Fase de entrenamiento: BP. 9. Condiciones de entrenamiento: a) Épocas: b) Error cuadrático medio (MSE): Conjunto de patrones Estructura de la red Error cuadrático (FV) medio I HL O MSE k-means fcm PFCM modelo de comparación Tabla 6.5: Mejores estructuras de red usadas en la etapa de clasificación Evaluación del clasificador Para medir el desempeño de los clasificadores se aplicaron dos formas de evaluación. La primera es a través de una matriz de confusión, que determina el grado de exactitud de la clasificación, es decir, la probabilidad de detección de las microcalcificaciones vs. la probabilidad de una falsa detección de las microcalcificaciones. La Tabla 6.6 muestra la matriz de confusión de los clasificadores presentados para el experimento 1, en función de especificidad, sensibilidad y exactitud de la clasificación. La segunda forma de evaluación es mediante una curva ROC. La curva ROC es una representación gráfica en 183

218 6.8 Resultados visuales en la detección de las microcalcificaciones Clasificador Resultados Resultados del Sensibilidad Especificidad Exactitud de MLP-BP deseados Clasificador ( %) ( %) la clasificación MC NT ( %) k-means Estructura 1 MC : 15 : 1 NT fcm Estructura 2 MC : 24 : 1 NT PFCM Estructura 3 MC : 12 : 1 NT Modelo de comparación Estructura 4 MC : 15 : 1 NT Tabla 6.6: Matrices de confusión de las mejores clasificaciones obtenidas aplicando los diferentes clasificadores. dos dimensiones de la sensibilidad vs. (1-especificidad) para un clasificador binario según se varía el umbral de discriminación. En la Figura 6.21 se muestran las gráficas de las curvas ROC así como el area bajo la curva (AUC) para los clasificadores con las mejores estructuras usadas para el experimento Resultados visuales en la detección de las microcalcificaciones Una vez que se ha evaluado el desempeño de los clasificadores, la siguiente etapa consiste en mostrar los resultados finales para la detección de las microcalcificaciones en las imágenes ROI. Para mostrar estos resultados se parte de la etapa de clasificación en la que se tiene una RNA entrenada con toda la información correspondiente a las características extraídas de las imágenes ROI del conjunto de imágenes que se eligieron como imágenes de entrenamiento, así como su correspondiente etiqueta o clase obtenida en la etapa de segmentación. La manera de representar dicha etiqueta es mediante una imagen segmentada de forma binaria, es decir, una imagen donde los patrones clasificados como microcalcificación tienen el valor de 1 mientras que los patrones clasificados como tejido sano van a tener el valor de 0. Por tanto se va poder apreciar el resultado de la detección de una manera visual, con la finalidad de que el experto realice la interpretación o la evaluación del resultado. 184

219 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Sensibilidad Sensibilidad AUC = AUC = Especificidad Especificidad (a) (b) Sensibilidad Sensibilidad AUC = AUC = Especificidad Especificidad (c) (d) Figura 6.21: Curvas ROC del experimento 1, generadas por los clasificadores para FV con las etiquetas obtenidas por: (a) k-means. (b) FCM. (c) Sub-segmentación por PFCM. (d) Modelo de comparación. 185

220 6.8 Resultados visuales en la detección de las microcalcificaciones En las Figuras 6.22, 6.23, 6.24 y 6.25 se muestran los resultados de la detección de las microcalcificaciones en imágenes ROI para el experimento 1, aplicando la metodología propuesta en este trabajo, utilizando segmentación mediante el k-means y el clasificador con estructura 1, el FCM y el clasificador con estructura 2, la sub-segmentación por PFCM y el clasificador con estrctura 3 y el modelo de comparación con el clasificador con estructura 4, respectivamente Experimento 2 Una parte adicional del experimento 1, consiste en realizar la detección de microcalcificaciones en las imágenes ROI del conjunto que se definió como de prueba, ver Figura 6.4. Para llevar a cabo esto, fue necesario aplicar algunas de las etapas de la metodología propuesta, entre las cuales están: 1. Extracción de características: Media y Desviación Estándar. 2. Formación de FV. 3. Clasificación de patrones del conjunto FV. En este caso, no se cuenta con la etiqueta de FV de cada una de las imágenes ROI que se seleccionaron para prueba, por lo que esta etiqueta será el resultado de la etapa de clasificación y que también se va a representar mediante una imagen segmentada de forma binaria en la cual, a los patrones clasificados en la clase microcalcificación MC c se les asignará la etiqueta con un valor de 1, mientras que a los patrones clasificados en la clase tejido sano TS c se les asignará una etiqueta con el valor de 0. Es necesario destacar que, para este experimento, el modelo de comparación ya no se va aplicar. Esto se debe a que, en el apartado anterior, de acuerdo con el desempeño del clasificador empleado para el modelo de comparación, éste fue el que obtuvo un menor valor en el porcentaje en la exactitud de la clasificación con respecto a los otros clasificadores utilizados. 186

221 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) Figura 6.22: Resultados de la detección de las microcalcificaciones utilizando segmentación por k-means y el clasificador con estructura 1 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 187

222 6.8 Resultados visuales en la detección de las microcalcificaciones (a) (b) (c) Figura 6.23: Resultados de la detección de las microcalcificaciones utilizando segmentación por el FCM y el clasificador con estructura 2 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 188

223 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) Figura 6.24: Resultados de la detección de las microcalcificaciones utilizando la subsegmentación por PFCM y el clasificador con estructura 3 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 189

224 6.8 Resultados visuales en la detección de las microcalcificaciones (a) (b) (c) Figura 6.25: Resultados de la detección de las microcalcificaciones utilizando el modelo de comparación y el clasificador con estructura 4 del experimento 1. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 190

225 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS En la Figura 6.26 se muestran los resultados de la detección de las microcalcificaciones en las imágenes ROIs del conjunto de prueba de la Figura 6.4 para el experimento 2, usando el k-means y el clasificador con la estructura 1. (a) (b) (c) Figura 6.26: Resultados de la detección de las microcalcificaciones utilizando segmentación mediante k-means y el clasificador con estructura 1 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 191

226 6.8 Resultados visuales en la detección de las microcalcificaciones En la Figura 6.27 se muestran los resultados de la detección de las microcalcificaciones en las imágenes ROI del conjunto de prueba de la Figura 6.4 para el experimento 2, usando el FCM y el clasificador con la estructura 1. (a) (b) (c) Figura 6.27: Resultados de la detección de las microcalcificaciones utilizando segmentación mediante FCM y el clasificador con estructura 2 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 192

227 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS En la Figura 6.28 se muestran los resultados de la detección de las microcalcificaciones en las imágenes ROI del conjunto de prueba de la Figura 6.4 para el experimento 2, usando sub-segmentación mediante el PFCM y el clasificador con la estructura 3. (a) (b) (c) Figura 6.28: Resultados de la detección de las microcalcificaciones utilizando subsegmentación por PFCM y el clasificador con estructura 3 de las imágenes del subconjunto de prueba del experimento 2. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 193

228 6.8 Resultados visuales en la detección de las microcalcificaciones Experimento 3 Para realizar este experimento se dispone de un total de 30 imágenes ROI del subconjunto entrenamiento-prueba, el cual, se muestra en la Figura 6.3. La metodología aplicada en el experimento 1 será la misma que se aplique para este experimento 3, aunque es importante resaltar que, para este experimento, ya no se aplicará el modelo de comparación para la etapa de segmentación, debido a que en el experimento 1 se demostró que aplicando la metodología propuesta se obtuvieron resultados inferiores de manera cuantitativa comparados con los resultados aplicando la sub-segmentación. A continuación se presentan las consideraciones y resultados para este experimento Mejora de imagen por la transformada Top-hat Para la mejora de las imágenes ROI mediante la transformada Top-hat, se utilizará un SE del non-flat conocido como ball-shaped. El tamaño del SE es de Además, para este tipo de SE, se ha considerado un parámetro de altura, que, para este caso, es de 5. Para una mayor referencia sobre este tipo de SE en [Wirth et al., 2004], presentaron una metodología de mejora de imagen basada en operaciones de morfología matemática aplicada en imágenes ROI, con el objetivo de mejorar el contraste de las microcalcificaciones. En la Figura 6.29 se muestra el SE utilizado para este experimento. Figura 6.29: SE del tipo non-flat usado para el experimento Segmentación de imagen mediante agrupamiento De la misma forma que se llevo a cabo la segmentación de las imágenes ROI en el experimento 1, se realizará esta para el experimento 3. Es necesario igualmente construir un vector de patrones X para cada una de las ROI obtenidas en la etapa previa. Como se mencionó en el experimento 1, el objetivo de esta etapa es obtener una etiqueta para cada uno de elementos que conforman el vector de patrones X. El vector de datos se construye de igual manera que en el experimento 1, pero ahora con la diferencia de que solo cuenta con un vector unidimensional (x se ) debido a que se aplica la transformada Top-hat con 194

229 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS un solo SE. Una vez aplicada la descomposición ( f ila f ila) de la imagen ROI mejorada, el vector de patrones X queda de la siguiente manera: X=[x ] (6.6) Etiquetado del vector de datos mediante el k-means. Las condiciones para aplicar el algoritmo k-means son las siguientes: Número de particiones: 2 a 5. Valores iniciales de los centros: seleccionados aleatoriamente. Medida de la distancia: euclídea. Etiquetado del vector de datos mediante el FCM. Las condiciones para aplicar el algoritmo FCM son las siguientes: Número de particiones: 2 a 5. Valor inicial de los centros: seleccionados aleatoriamente. Medida de la distancia: euclidiana. Valor de m=2. Etiquetado del vector de datos mediante la sub-segmentación por PFCM. Las condiciones para aplicar el algoritmo de la sub-segmentación son las siguientes: Número de particiones: 2. Valores iniciales de los centros: seleccionados aleatoriamente. Medida de la distancia: euclídea. Valores de los parámetros del PFCM: a = 1, b = 2, m = 2, η = 2. Valor umbral del algoritmo de la sub-segmentación:α=0,02. De acuerdo con los resultados obtenidos en los procesos de agrupamiento mediante los algoritmos presentados, en la Tabla 6.7 se muestran los resultados finales de los vectores de asignados a microcalcificaciones y tejido sano para las 30 imágenes ROI utilizadas para este experimento. 195

230 6.8 Resultados visuales en la detección de las microcalcificaciones Grupo No. de vectores asignados por: k-means fcm sub-segmentación Tejido Sano Microcalcificaciones Tabla 6.7: Resultados de la asignación de etiquetas a los vectores de las imágenes ROI, para el experimento Extracción de características Para la etapa de extracción de características también se van a utilizar la Media y la Desviación Estándar para formar vector de características (FV) cuyas etiquetas de las dos clases (MC c y TS c ) fueron obtenidas en el proceso de segmentación y sub-segmentación mediante agrupamiento. En este caso, las características también son extraídas de las imágenes ROI originales por medio de ventanas rectangulares, de tamaños de ventanas (ws), 3 3, 5 5 y 7 7. De la misma manera que para el experimento 1, existe un gran número de patrones que pertenecen a la clase TS c respecto al número de patrones que pertenecen a la clase MC c. Es pues necesario realizar un balanceo de patrones que, para este experimento 3, es de 1 a 5 debido a que para este experimento tenemos un número mayor de imágenes ROI. En la Tabla 6.8 se muestran los subconjuntos de FV para las clases MC c y TS c después de haber realizado el balanceo. Clase No. de vectores balanceados para: k-means fcm sub-segmentación Tejido Sano Microcalcificaciones Tabla 6.8: Resultados del balanceo para el experimento Clasificación mediante una RNA Una vez realizado el proceso de extracción de características representadas por FV, éstas serán utilizadas para realizar una detección automática de microcalcificaciones mediante una RNA, específicamente un MLP. Para evaluar comparativamente el rendimiento del clasificador en este caso particular, diferentes estructuras de redes son entrenadas y probadas con el mismo conjunto de entrenamiento y con el mismo conjunto de prueba respectivamente. El 80 % del total de los datos fueron utilizados para entrenar la RNA y el 20 % restante se usó para probar la RNA, ver Tabla

231 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Número de patrones FV MCs/NT Entrenamiento Prueba Total k-means MCs NT fcm MCs NT PFCM MCs NT Tabla 6.9: Número de patrones usados para entrenamiento y prueba para cada clasificador en el experimento 3. Los resultados, para esta etapa, fueron obtenidos de acuerdo con las consideraciones analizadas en el capítulo 5 en la subsección Los mejores resultados obtenidos en este experimento 3 se produjeron con las estructuras de red, que se muestran en la Tabla 6.10 y con los siguientes parámetros: 1. Número de neuronas de entrada igual al número de características (atributos) de FV: Número de capas ocultas: Neuronas en la capa oculta: ver Tabla Neuronas en la capa de salida: Tasa de aprendizaje: Tipo de función de activación: función sigmoidal con valores entre [0,1]. 7. Todos los valores de los pesos son inicializados aleatoriamente. 8. Fase de entrenamiento: BP. 9. Condiciones de entrenamiento: a) Épocas: b) Error cuadrático medio (MSE):

232 6.8 Resultados visuales en la detección de las microcalcificaciones Conjunto de patrones Estructura de la red Error cuadrático (FV) medio I HL O MSE k-means fcm PFCM Tabla 6.10: Mejores estructuras de red usadas en la etapa de clasificación del experimento Evaluación del clasificador La Tabla 6.11 muestra la matriz de confusión generada por los resultados de los clasificadores presentados en este experimento 3, en función de especificidad, sensibilidad y exactitud de la clasificación. En la Figura 6.30 se muestran las curvas ROC que evalúan el desempeño los clasificadores utilizados en este experimento. Clasificador Resultados Resultados del Sensibilidad Especificidad Exactitud de MLP-BP deseados Clasificador ( %) ( %) la clasificación MC NT ( %) k-means Estructura 1 MC : 21 : 1 NT fcm Estructura 2 MC : 15 : 1 NT PFCM Estructura 3 MC : 21 : 1 NT Tabla 6.11: Matriz de confusión de los clasificadores usados en el experimento Resultados visuales en la detección de las microcalcificaciones Para mostrar estos resultados, se parte de la etapa de clasificación donde se tiene una RNA entrenada con la información correspondiente a las características extraídas de las imágenes ROI del conjunto de imágenes que se eligieron como imágenes de entrenamiento, así como su correspondiente etiqueta o clase obtenida en la etapa de segmentación. De la misma manera que se hizo para el experimento 1, la forma de representar la etiqueta es mediante una imagen segmentada forma binaria, es decir, una imagen 198

233 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS Sensibilidad AUC = Especificidad (a) Sensibilidad AUC = Especificidad 1 (b) Sensibilidad AUC = Especificidad (c) Figura 6.30: Curvas ROC del experimento 3, generadas por los clasificadores para FV con las etiquetas obtenidas por: (a) k-means. (b) FCM. (c) Sub-segmentación por PFCM. 199

234 6.8 Resultados visuales en la detección de las microcalcificaciones donde los patrones clasificados como microcalcificación tienen el valor de 1, mientras que los patrones clasificados como tejido sano van a tener el valor de 0. Por tanto se va poder poder observar el resultado de la detección de una manera visual, con la finalidad de que un experto analice o evalúe el resultado. En las Figuras 6.31, 6.32 y 6.33 se muestran los resultados de la detección de las microcalcificaciones en imágenes ROI para el experimento 3, aplicando la metodología propuesta, utilizando segmentación por el k-means y el clasificador con estructura 1, el FCM y el clasificador con estructura 2 y la sub-segmentación por el PFCM y el clasificador con estrctura 3, respectivamente. 200

235 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) Figura 6.31: Resultados de la detección de las microcalcificaciones utilizando segmentación por k-means y el clasificador con estructura 1 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 201

236 6.8 Resultados visuales en la detección de las microcalcificaciones (a) (b) (c) Figura 6.32: Resultados de la detección de las microcalcificaciones utilizando segmentación por el FCM y el clasificador con estructura 2 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 202

237 6. METODOLOGÍA, EXPERIMENTACIÓN Y RESULTADOS (a) (b) (c) Figura 6.33: Resultados de la detección de las microcalcificaciones utilizando la subsegmentación por el PFCM y el clasificador con estructura 3 del experimento 3. (a) Imágenes ROI originales. (b) Detección de microcalcificaciones. (c) Píxeles clasificados como microcalcificaciones resaltados en la ROI original. 203

Una investigación australiana reveló que posiblemente la disminución

Una investigación australiana reveló que posiblemente la disminución CIENTÍFICOS TRABAJAN EN DETECCIÓN DE CÁNCER DE MAMA A TRAVÉS DE REDES NEURONALES ARTIFICIALES Constituye un apoyo para el médico y los radiólogos para evitar falsos diagnósticos Fernando Álvarez Una investigación

Más detalles

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE Capítulo 4 Algoritmos de Aprendizaje 26 CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE En este capítulo se proporcionan las descripciones matemáticas de los principales algoritmos de aprendizaje para redes neuronales:

Más detalles

Guía del paciente. Braquiterapia: El mejor modo de tratar el cáncer. Porque la vida es para vivirla

Guía del paciente. Braquiterapia: El mejor modo de tratar el cáncer. Porque la vida es para vivirla Guía del paciente Braquiterapia: El mejor modo de tratar el cáncer Porque la vida es para vivirla El objetivo de este folleto es ayudar a aquellas personas que han recibido un diagnóstico de cáncer, así

Más detalles

Sistemas de Sensación Segmentación, Reconocimiento y Clasificación de Objetos. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides

Sistemas de Sensación Segmentación, Reconocimiento y Clasificación de Objetos. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides Sistemas de Sensación Segmentación, Reconocimiento y Clasificación de Objetos CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides Introducción La visión artificial, también conocida como visión por computador

Más detalles

Análisis y cuantificación del Riesgo

Análisis y cuantificación del Riesgo Análisis y cuantificación del Riesgo 1 Qué es el análisis del Riesgo? 2. Métodos M de Análisis de riesgos 3. Método M de Montecarlo 4. Modelo de Análisis de Riesgos 5. Qué pasos de deben seguir para el

Más detalles

1. Introducción. 1.1. Organización de la tesis

1. Introducción. 1.1. Organización de la tesis 1. Introducción 1.1. Organización de la tesis El incremento en el uso de imágenes médicas ha propiciado el desarrollo de herramientas que permitan aprovechar de la mejor manera posible la información obtenida,

Más detalles

Fundamentos de la Visión Artificial. Prof. Dr. Francisco Gómez Rodríguez Prof. Manuel J. Domínguez Morales 1

Fundamentos de la Visión Artificial. Prof. Dr. Francisco Gómez Rodríguez Prof. Manuel J. Domínguez Morales 1 Fundamentos de la Visión Artificial Prof. Dr. Francisco Gómez Rodríguez Prof. Manuel J. Domínguez Morales 1 Índice 1. Introducción a lavisión Artificial 2. Adquisición y representación de imágenes 3. Filtrado

Más detalles

Qué es la menopausia y Cuáles son sus etapas

Qué es la menopausia y Cuáles son sus etapas Qué es la menopausia y Cuáles son sus etapas Nociones básicas que debes conocer Contenido Contenido... 2 Conceptos básicos sobre la menopausia que se deben conocer... 3 Qué es la menopausia?... 3 La menopausia

Más detalles

6. Tratamiento de la dependencia tabáquica en pacientes fumadores con diagnóstico de EPOC

6. Tratamiento de la dependencia tabáquica en pacientes fumadores con diagnóstico de EPOC 6. Tratamiento de la dependencia tabáquica en pacientes fumadores con diagnóstico de EPOC La dependencia tabáquica presenta determinadas características, que pueden hacer que se considere una enfermedad

Más detalles

Sabías que. el 95% de los casos de cáncer de mama pueden ser curados, siempre y cuando la enfermedad sea detectada en estadíos tempranos.

Sabías que. el 95% de los casos de cáncer de mama pueden ser curados, siempre y cuando la enfermedad sea detectada en estadíos tempranos. Sabías que el cáncer de mama es el tumor más frecuente en la mujer y es la primera causa de mortalidad por cáncer en mujeres. En Argentina, se diagnostican alrededor de 16.500 nuevos casos de cáncer de

Más detalles

Importancia de la investigación clínica EN ONCOLOGÍA. ONCOvida. oncovida_20.indd 1 10/10/11 12:53

Importancia de la investigación clínica EN ONCOLOGÍA. ONCOvida. oncovida_20.indd 1 10/10/11 12:53 Importancia de la investigación clínica EN ONCOLOGÍA 20 ONCOvida C O L E C C I Ó N oncovida_20.indd 1 10/10/11 12:53 ONCOvida C O L E C C I Ó N oncovida_20.indd 2 10/10/11 12:53 1 2 3 4 5 6 7 Por qué es

Más detalles

Construyendo gráficos estadísticos con ayuda de Microsoft Excel

Construyendo gráficos estadísticos con ayuda de Microsoft Excel Construyendo gráficos estadísticos con ayuda de Microsoft Excel Eduardo Aguilar Fernández Universidad Nacional Heredia, Costa Rica eaguilar2@gmail.com Andrey Zamora Araya Universidad Nacional Heredia,

Más detalles

CAPITULO I. 1. Planteamiento del problema 1.1 Situación Problemática

CAPITULO I. 1. Planteamiento del problema 1.1 Situación Problemática CAPITULO I 1. Planteamiento del problema 1.1 Situación Problemática El problema de la obesidad se ha vuelto muy frecuente en las sociedades en vías de desarrollo, problemática que antes se asociaba a países

Más detalles

Centro de Capacitación en Informática

Centro de Capacitación en Informática Fórmulas y Funciones Las fórmulas constituyen el núcleo de cualquier hoja de cálculo, y por tanto de Excel. Mediante fórmulas, se llevan a cabo todos los cálculos que se necesitan en una hoja de cálculo.

Más detalles

SERVICIOS MEDICOS DE EMPRESAS: EMPLEADOS SANOS Y SEGUROS

SERVICIOS MEDICOS DE EMPRESAS: EMPLEADOS SANOS Y SEGUROS SERVICIOS MEDICOS DE EMPRESAS: EMPLEADOS SANOS Y SEGUROS Área de Salud Laboral de Medycsa Cada vez con mas frecuencia las empresas se enfrentan a la disyuntiva de decidir sobre la conveniencia o no de

Más detalles

CÁNCER DE MAMA. Se calcula que existen entre 15.000 y 18.000 nuevos casos de cáncer de mama por año en la Argentina.

CÁNCER DE MAMA. Se calcula que existen entre 15.000 y 18.000 nuevos casos de cáncer de mama por año en la Argentina. CÁNCER DE MAMA La mujer, en su integridad física y espiritual, hace especial cuidado de su salud, brindando atención a las diferentes partes de su cuerpo, pero es común que sienta sus mamas como el centro

Más detalles

UNIVERSIDAD DE CANTABRIA TESIS DOCTORAL

UNIVERSIDAD DE CANTABRIA TESIS DOCTORAL UNIVERSIDAD DE CANTABRIA ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE CAMINOS, CANALES Y PUERTOS TESIS DOCTORAL Desarrollo de una metodología para el estudio de la morfología de playas basado en mapas auto-organizativos

Más detalles

Cáncer de Colon. Un enemigo silencioso. El cáncer de colon es prevenible, tratable y curable.

Cáncer de Colon. Un enemigo silencioso. El cáncer de colon es prevenible, tratable y curable. Cáncer de Colon Un enemigo silencioso El cáncer de colon es prevenible, tratable y curable. Mundialmente ocurren unas 500.000 muertes por cáncer de colon al año. Uruguay no escapa a esta realidad y encabeza

Más detalles

Palabras clave: prevención, cáncer de mama, extensión

Palabras clave: prevención, cáncer de mama, extensión Título: PREVENCIÓN DEL CÁNCER DE MAMA (PRECANMA) Autores: María Virginia Croce, Martín E. Rabassa, Marina Isla-Larrain, Luciano Cermignani, Virginia Agustina Cobos, Carlos Manuel Cobos. Colaboradores:

Más detalles

Guía Docente Curso 2008-2009

Guía Docente Curso 2008-2009 Nombre: Sistemas de percepción robótica Denominación en inglés 1 : Robotic perception ESCUELA POLITECNICA SUPERIOR Guía Docente Curso 2008-2009 Titulación Ingeniería Industrial DATOS DE LA ASIGNATURA Código:

Más detalles

guía para pacientes BRCAplus : Prueba genética de cáncer de seno hereditario

guía para pacientes BRCAplus : Prueba genética de cáncer de seno hereditario guía para pacientes BRCAplus : Prueba genética de cáncer de seno hereditario Qué es el cáncer de seno hereditario? El cáncer de seno es el tipo de cáncer más común en las mujeres de Estados Unidos (afecta

Más detalles

Digitalización de imágenes con ayuda del histograma

Digitalización de imágenes con ayuda del histograma Digitalización de imágenes con ayuda del histograma Apellidos, nombre Vicente Atienza Vanacloig (vatienza@disca.upv.es) Departamento Centro Informática de Sistemas y Computadores (DISCA) Escuela Técnica

Más detalles

WEB 2.0 ESTUDIO SOBRE LA UTILIZACION DE LA WEB 2.0 POR PARTE DE LOS MENORES

WEB 2.0 ESTUDIO SOBRE LA UTILIZACION DE LA WEB 2.0 POR PARTE DE LOS MENORES WEB 2.0 ESTUDIO SOBRE LA UTILIZACION DE LA WEB 2.0 POR PARTE DE LOS MENORES Índice de tablas Índice de gráficos 1. Como utilizan los menores la Web 2.0. Datos del estudio elaborado por Protégeles. 1.1.

Más detalles

Anexo I. La visión. El proceso de la visión. 1. Introducción. 2. La visión

Anexo I. La visión. El proceso de la visión. 1. Introducción. 2. La visión Anexo I. La visión El proceso de la visión 1. Introducción El ojo humano ha sufrido grandes modificaciones a través de los tiempos como consecuencia de las diferentes formas de vida, desde cuando se usaba

Más detalles

MATERIAL 2 EXCEL 2007

MATERIAL 2 EXCEL 2007 INTRODUCCIÓN A EXCEL 2007 MATERIAL 2 EXCEL 2007 Excel 2007 es una planilla de cálculo, un programa que permite manejar datos de diferente tipo, realizar cálculos, hacer gráficos y tablas; una herramienta

Más detalles

Extracción de características de Galton de Huellas Dactilares por procesamiento digital de la imagen.

Extracción de características de Galton de Huellas Dactilares por procesamiento digital de la imagen. Extracción de características de Galton de Huellas Dactilares por procesamiento digital de la imagen. BAEZ MOYANO, Luciano Martín Universidad Tecnológica Nacional, Facultad Regional Córdoba Abstract El

Más detalles

Su éxito se mide por la pertinencia y la oportunidad de la solución, su eficacia y eficiencia.

Su éxito se mide por la pertinencia y la oportunidad de la solución, su eficacia y eficiencia. APUNTES PARA EL CURSO PROCESOS COGNITIVOS: RESOLUCIÓN DE PROBLEMAS Y TOMA DE DECISIONES Elaborado por Vicente Sisto Campos. Se trata de la confluencia de la capacidad analítica del equipo de identificar

Más detalles

Percepción sobre la posible legalización de la marihuana en un grupo de Adolescentes estudiantes de nivel medio superior en Quintana Roo.

Percepción sobre la posible legalización de la marihuana en un grupo de Adolescentes estudiantes de nivel medio superior en Quintana Roo. Percepción sobre la posible legalización de la marihuana en un grupo de Adolescentes estudiantes de nivel medio superior en Quintana Roo. Presenta: Psic. Sergio Castillo Barrera En el año 2015, el Departamento

Más detalles

BRCA1 y BRCA2 Prueba genética para detección de cáncer de mama y ovárico hereditarios. guía para el paciente

BRCA1 y BRCA2 Prueba genética para detección de cáncer de mama y ovárico hereditarios. guía para el paciente BRCA1 y BRCA2 Prueba genética para detección de cáncer de mama y ovárico hereditarios guía para el paciente Qué es el cáncer hereditario? El cáncer de mama es el tipo más común de cáncer en mujeres en

Más detalles

INFORME DE RESULTADOS ENCUESTA DE SATISFACCIÓN DEL PERSONAL DE ADMINISTRACIÓN Y SERVICIOS UNIVERSIDAD CATÓLICA SAN ANTONIO DE MURCIA

INFORME DE RESULTADOS ENCUESTA DE SATISFACCIÓN DEL PERSONAL DE ADMINISTRACIÓN Y SERVICIOS UNIVERSIDAD CATÓLICA SAN ANTONIO DE MURCIA INFORME DE RESULTADOS ENCUESTA DE SATISFACCIÓN DEL PERSONAL DE ADMINISTRACIÓN Y SERVICIOS UNIVERSIDAD CATÓLICA SAN ANTONIO DE MURCIA CURSO 2014 2015 1 ÍNDICE 1. INTRODUCCIÓN... 3 2. PARTICIPACIÓN EN LA

Más detalles

Energías no convencionales

Energías no convencionales Energías no convencionales Asignatura: CIENCIAS NATURALES Curso: 3 y 6º básico Duración: 6 minutos DESCRIPCIÓN: Amigo Salvaje es una entretenida serie documental que presenta a niños y al público en general

Más detalles

1.2 Qué es un Sistemas de Información Geográfica?

1.2 Qué es un Sistemas de Información Geográfica? 1.1 Introducción En los últimos años, se ha desarrollado software especializado que permite el manejo de cartografía por computadora, favoreciendo a diferentes áreas, en el proceso de toma de decisiones.

Más detalles

Población con discapacidad en Jalisco en 2010

Población con discapacidad en Jalisco en 2010 Nota Técnica: 11/11 Guadalajara, Jalisco, 03 de junio de 2011 Población con discapacidad en Jalisco en 2010 Resumen El Censo de Población y Vivienda 2010 captó las personas que de manera permanente tienen

Más detalles

POR QUÉ YA NO SE RECOMIENDA ESPERAR 3 MESES PARA HACERSE LA PRUEBA DEL VIH?

POR QUÉ YA NO SE RECOMIENDA ESPERAR 3 MESES PARA HACERSE LA PRUEBA DEL VIH? QUÉ ES LA PRUEBA DEL VIH? La prueba del VIH es la única forma fiable de saber si una persona está o no infectada por el VIH, el virus del sida. Las pruebas de diagnóstico del VIH que se emplean habitualmente

Más detalles

Cómo puede usted contribuir a la investigación médica?

Cómo puede usted contribuir a la investigación médica? National Cancer Institute Cómo puede usted contribuir a la investigación médica? U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES National Institutes of Health Done su sangre, sus tejidos y otras muestras

Más detalles

UNIVERSIDAD IBEROAMERICANA

UNIVERSIDAD IBEROAMERICANA UNIVERSIDAD IBEROAMERICANA AUTOCONCEPTO, EMOCIONES Y SENTIDO DE VIDA DE MUJERES CON CÁNCER DE MAMA TESIS Que para obtener el grado de MAESTRA EN DESARROLLO HUMANO Presenta: GABRIELA ELENA SCHROEDER HOPPENSTEDT

Más detalles

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio Refo 07 2004 15 al 19 de noviembre 2004 Colegio Alexander von Humboldt - Lima Tema: La enseñanza de la matemática está en un proceso de cambio La enseñanza de la matemática debe tener dos objetivos principales:

Más detalles

Imágenes del poder. 6.1 Las personas jóvenes y la imagen del poder.

Imágenes del poder. 6.1 Las personas jóvenes y la imagen del poder. 6 Imágenes del poder El objetivo general de este capítulo es analizar un conjunto de datos y tendencias que indican que los jóvenes se sienten cada vez más lejos de las formas políticas institucionalizadas

Más detalles

Actividades para mejoras. Actividades donde se evalúa constantemente todo el proceso del proyecto para evitar errores y eficientar los procesos.

Actividades para mejoras. Actividades donde se evalúa constantemente todo el proceso del proyecto para evitar errores y eficientar los procesos. Apéndice C. Glosario A Actividades de coordinación entre grupos. Son dinámicas y canales de comunicación cuyo objetivo es facilitar el trabajo entre los distintos equipos del proyecto. Actividades integradas

Más detalles

El cáncer de mama. se puede curar si se detecta a tiempo

El cáncer de mama. se puede curar si se detecta a tiempo El cáncer de mama se puede curar si se detecta a tiempo Qué es el cáncer de mama? Es una enfermedad que afecta la glándula mamaria y que, como todos los cánceres se produce cuando proliferan excesivamente

Más detalles

El rol y la situación de los registros de cáncer de base poblacional

El rol y la situación de los registros de cáncer de base poblacional cap ítulo 2. El rol y la situación de los registros de cáncer de base poblacional Los RCBP representan el estándar de oro en lo que se refiere al suministro de información sobre la incidencia del cáncer

Más detalles

CAPÍTULO I INTRODUCCIÓN. 1.1 Introducción. económico en que se desarrollan los negocios es altamente dinámico y como tal está en

CAPÍTULO I INTRODUCCIÓN. 1.1 Introducción. económico en que se desarrollan los negocios es altamente dinámico y como tal está en CAPÍTULO I INTRODUCCIÓN 1.1 Introducción En la actualidad ninguna empresa puede mantener su posición competitiva si continúa operando únicamente con los conocimientos que tiene hoy ya que el ambiente económico

Más detalles

Sistemas Conexionistas

Sistemas Conexionistas 1 Objetivo Sistemas Conexionistas Curso 2011/2012 El objetivo de esta práctica es usar un conjunto de redes de neuronas artificiales para abordar un problema de reconocimiento de figuras sencillas en imágenes

Más detalles

Prevención de cáncer de mama en comunidades rurales de San Luis de la Paz, Guanajuato

Prevención de cáncer de mama en comunidades rurales de San Luis de la Paz, Guanajuato Prevención de cáncer de mama en comunidades rurales de San Luis de la Paz, Guanajuato Introducción Se efectuó una encuesta mediante un cuestionario estructurado con el objeto de identificar el perfil de

Más detalles

Una experiencia en la enseñanza de los primeros cursos del área matemática.

Una experiencia en la enseñanza de los primeros cursos del área matemática. Una experiencia en la enseñanza de los primeros cursos del área matemática. Rodolfo Carvajal y Martín Matamala Departamento de Ingeniería Matemática, Facultad de Ciencias Físicas y Matemáticas, Universidad

Más detalles

Se coloca dentro del útero para ofrecer protección anticonceptiva y tiene unos hilos guía para su localización y extracción.

Se coloca dentro del útero para ofrecer protección anticonceptiva y tiene unos hilos guía para su localización y extracción. Qué es el DIU? El DIU (Dispositivo Intrauterino) es un objeto pequeño de plástico (polietileno) flexible que mide 4 cm aproximadamente. Existen varios tipos de DIU, los más comunes son: Los que contienen

Más detalles

22. FACTORES PSICOLÓGICOS PARA LA PREVENCIÓN DEL MALTRATO INFANTIL DESDE EL EMBARAZO.

22. FACTORES PSICOLÓGICOS PARA LA PREVENCIÓN DEL MALTRATO INFANTIL DESDE EL EMBARAZO. Paginación: Página 1 de 9 22. FACTORES PSICOLÓGICOS PARA LA PREVENCIÓN DEL MALTRATO INFANTIL DESDE EL EMBARAZO. R. Gómez Masera Universidad de Huelva raquel.gomez@dpsi.uhu.es RESUMEN El embarazo es un

Más detalles

Cómo investigar y no morir en el intento

Cómo investigar y no morir en el intento Cómo investigar y no morir en el intento INTRODUCCIÓN Desde el comienzo de los tiempos, el ser humano se ha planteado preguntas a cerca de sus experiencias y de la naturaleza de las actividades entorno

Más detalles

Ejemplo de aplicación de la Dimensión Fractal en Medicina

Ejemplo de aplicación de la Dimensión Fractal en Medicina Ejemplo de aplicación de la Dimensión Fractal en Medicina El cáncer de mama es la enfermedad de las mujeres más común en el mundo moderno. Las estadísticas muestran que el riesgo de la mujer de desarrollar

Más detalles

CAPITULO 3 REDES HIBRIDAS-COMPLEJAS. 3.1 Descripción de la Red Híbrida Compleja (HCNN)

CAPITULO 3 REDES HIBRIDAS-COMPLEJAS. 3.1 Descripción de la Red Híbrida Compleja (HCNN) CAPITULO 3 REDES HIBRIDAS-COMPLEJAS 3.1 Descripción de la Red Híbrida Compleja (HCNN) La predicción de eventos caóticos que se presentan en un mundo que nos rodea es de gran interés. Especialmente en aquellos

Más detalles

Cómo entender mejor a tus voluntarios

Cómo entender mejor a tus voluntarios Guía de Apoyo Guía de Apoyo Cómo entender mejor a tus voluntarios Quiere mejorar la forma en que trabaja con sus voluntarios? sea mejorar su base de conocimiento para la toma de decisiones estratégicas?

Más detalles

En este capítulo se describe las herramientas, así como los procesos involucrados en el análisis y desarrollo de sistemas de información, por otro

En este capítulo se describe las herramientas, así como los procesos involucrados en el análisis y desarrollo de sistemas de información, por otro CAPITULO 5 TEORIA SOBRE ANALISIS Y DISEÑO DE SISTEMAS DE INFORMACION En este capítulo se describe las herramientas, así como los procesos involucrados en el análisis y desarrollo de sistemas de información,

Más detalles

Gestión de Proyectos en Bibliotecas Universitarias bajo el Enfoque de Marco Lógico. Alejandra M. Nardi anardi@eco.unc.edu.ar

Gestión de Proyectos en Bibliotecas Universitarias bajo el Enfoque de Marco Lógico. Alejandra M. Nardi anardi@eco.unc.edu.ar Gestión de Proyectos en Bibliotecas Universitarias bajo el Enfoque de Marco Lógico Alejandra M. Nardi anardi@eco.unc.edu.ar Qué es el Marco Lógico? Es una herramienta para facilitar el proceso de conceptualización,

Más detalles

OncoBarómetro, Imagen social de las personas con cáncer. Resumen ejecutivo - 2013

OncoBarómetro, Imagen social de las personas con cáncer. Resumen ejecutivo - 2013 OncoBarómetro, Imagen social de las personas con cáncer Resumen ejecutivo - 2013 1 El cáncer no es solo una enfermedad médica, sino también una realidad social. Sin duda, conocer dicha vertiente social

Más detalles

INFERENCIA ESTADISTICA: CONTRASTE DE HIPÓTESIS

INFERENCIA ESTADISTICA: CONTRASTE DE HIPÓTESIS UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO DECANATO DE MEDICINA DEPARTAMENTO DE MEDICINA PREVENTIVA Y SOCIAL SECCIÓN DE EPIDEMIOLOGÍA-BIOESTADÍSTICA INFERENCIA ESTADISTICA: CONTRASTE DE HIPÓTESIS Objetivo:

Más detalles

4. METODOLOGÍA. 4.1 Materiales. 4.1.1 Equipo

4. METODOLOGÍA. 4.1 Materiales. 4.1.1 Equipo 4. METODOLOGÍA 4.1 Materiales 4.1.1 Equipo Equipo de cómputo. Para el empleo del la metodología HAZOP se requiere de un equipo de cómputo con interfase Windows 98 o más reciente con procesador Pentium

Más detalles

E-mail: heidi.iordachescu@wasatch.edu. Mrs. Nichols E-mail: noralba.nichols@wasatch.edu. Teléfono de la escuela: 435-654-2201

E-mail: heidi.iordachescu@wasatch.edu. Mrs. Nichols E-mail: noralba.nichols@wasatch.edu. Teléfono de la escuela: 435-654-2201 Nos llena de alegría el poder ser las maestras de su hijo este año. Mucha gente piensa que somos parcializadas, pero realmente creemos que el primer grado es el MEJOR! Nos encanta enseñar en este grado.

Más detalles

Manual de usuario de Solmicro BI. Página 1

Manual de usuario de Solmicro BI. Página 1 Manual de usuario de Solmicro BI Página 1 Índice 1. Estructura general del sistema, 2. Estructura de presentación de la información, 3. Acceso a Solmicro BI y los diferentes cuadros de mando, 4. Partes

Más detalles

Construcción de Escenarios

Construcción de Escenarios Construcción de Escenarios Consiste en observar los diferentes resultados de un modelo, cuando se introducen diferentes valores en las variables de entrada. Por ejemplo: Ventas, crecimiento de ventas,

Más detalles

ÍNDICE. Ficha técnica... 4. Encuesta y cuestionario... 6. Finalidad y resultados de la encuesta... 10 10. Primera parte: conocimiento...

ÍNDICE. Ficha técnica... 4. Encuesta y cuestionario... 6. Finalidad y resultados de la encuesta... 10 10. Primera parte: conocimiento... ÍNDICE Ficha técnica... 4 Encuesta y cuestionario... 6 Finalidad y resultados de la encuesta... 10 10 Primera parte: conocimiento... 12 Segunda parte: modo de conocimiento y valoración... 18 Tercera parte:

Más detalles

LA METODOLOGÍA DEL BANCO PROVINCIA

LA METODOLOGÍA DEL BANCO PROVINCIA 20 LA METODOLOGÍA DEL BANCO PROVINCIA Cómo gestionar activos de información? En 2007, el Banco Central de la República Argentina (BCRA) planteó algunas exigencias financieras para el sistema financiero

Más detalles

Capítulo 3. Estimación de elasticidades

Capítulo 3. Estimación de elasticidades 1 Capítulo 3. Estimación de elasticidades Lo que se busca comprobar en esta investigación a través la estimación econométrica es que, conforme a lo que predice la teoría y lo que ha sido observado en gran

Más detalles

El diagnóstico se realizó en el mes de octubre del año 2002 y se elaboró evaluando la

El diagnóstico se realizó en el mes de octubre del año 2002 y se elaboró evaluando la IV. IMPLANTACIÓN EN LAVANDERÍA AKI 4.1 EVALUACIÓN Y DIAGNÓSTICO El diagnóstico se realizó en el mes de octubre del año 2002 y se elaboró evaluando la aplicación de cada cláusula de la Norma ISO 9001:2000

Más detalles

España. Trabajo al servicio del desarrollo humano. Informe sobre Desarrollo Humano 2015

España. Trabajo al servicio del desarrollo humano. Informe sobre Desarrollo Humano 2015 Informe sobre Desarrollo Humano 2015 Trabajo al servicio del desarrollo humano Nota explicativa por país - Informe sobre Desarrollo Humano 2015 España Introducción El Informe sobre Desarrollo Humano 2015,

Más detalles

Todos los niños necesitan un hogar

Todos los niños necesitan un hogar CAMPAÑA DE ACOGIMIENTO FAMILIAR 2010 Todos los niños necesitan un hogar Para éste, ES URGENTE TU puedes DARSELO Con la colaboración de: SITUACIÓN DEL ACOGIMIENTO EN BIZKAIA El Departamento de Acción Social

Más detalles

Establecer la Paternidad

Establecer la Paternidad L o q u e t o d o P a d r e d e b e r í a s a b e r s o b r e Establecer la Paternidad Comité de Acceso a los Tribunales de Familia C o m i t é d e A c c e s o a l o s T r i b u n a l e s d e F a m i l

Más detalles

8. CONCERTACIÓN MULTISECTORIAL PARA LA LUCHA CONTRA LAS DROGAS EN EL

8. CONCERTACIÓN MULTISECTORIAL PARA LA LUCHA CONTRA LAS DROGAS EN EL 8. CONCERTACIÓN MULTISECTORIAL PARA LA LUCHA CONTRA LAS DROGAS EN EL MARCO DE LA PREVENCIÓN COMUNITARIA Se considera que la concertación multisectorial, es decir la posibilidad y necesidad que tienen las

Más detalles

SCREENING DEL CARCINOMA DE MAMA

SCREENING DEL CARCINOMA DE MAMA SCREENING DEL CARCINOMA DE MAMA CS Illes Columbretes Página 1 Algunas personas visitan al médico únicamente cuando sienten dolor o cuando notan cambios, como por ejemplo, una masa o nódulo en el seno.

Más detalles

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual Introducción Algunas de las personas que trabajan con SGBD relacionales parecen preguntarse porqué deberían preocuparse del diseño de las bases de datos que utilizan. Después de todo, la mayoría de los

Más detalles

www.fundibeq.org Es de aplicación a aquellos estudios o situaciones en que es necesario priorizar entre un conjunto de elementos.

www.fundibeq.org Es de aplicación a aquellos estudios o situaciones en que es necesario priorizar entre un conjunto de elementos. GRAÁFICOS DE GESTIÓON (LINEALES, BARRAS Y TARTAS) 1.- INTRODUCCIÓN Este documento introduce los Gráficos de Gestión de uso más común y de mayor utilidad: Gráficos Lineales, Gráficos de Barras y Gráficos

Más detalles

CAPÍTULO 3. ALGORITMOS DE PREVISIÓN BASADOS EN LA EXTRAPOLACIÓN DE LOS DATOS MÁS RECIENTES

CAPÍTULO 3. ALGORITMOS DE PREVISIÓN BASADOS EN LA EXTRAPOLACIÓN DE LOS DATOS MÁS RECIENTES CAPÍTULO 3. ALGORITMOS DE PREVISIÓN BASADOS EN LA EXTRAPOLACIÓN DE LOS DATOS MÁS RECIENTES El objetivo de esta tesina es la introducción de mejoras en la previsión meteorológica a corto plazo. El punto

Más detalles

Esperanzas de vida en salud

Esperanzas de vida en salud Las esperanzas de salud proporcionan un medio de dividir la esperanza de vida en fracciones vividas en distintas situaciones: por ejemplo en buena y mala salud. Estas medidas representan el creciente interés

Más detalles

Programa 47 Formación continua para egresados

Programa 47 Formación continua para egresados Programa 47 Formación continua para egresados El programa recogería las medidas necesarias para reforzar la actividad que la UPM desarrollase en este campo, con el objetivo de responder a las demandas

Más detalles

MODELOS DE RECUPERACION

MODELOS DE RECUPERACION RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN INGENIERÍA INFORMÁTICA RECUPERACIÓN Y ACCESO A LA INFORMACIÓN MODELOS DE RECUPERACION AUTOR: Rubén García Broncano NIA 100065530 grupo 81 1 INDICE 1- INTRODUCCIÓN

Más detalles

IDENTIFICACIÓN Y EVALUACIÓN DE IMPACTOS AMBIENTALES. Mayeline Gómez Agudelo

IDENTIFICACIÓN Y EVALUACIÓN DE IMPACTOS AMBIENTALES. Mayeline Gómez Agudelo IDENTIFICACIÓN Y EVALUACIÓN DE IMPACTOS AMBIENTALES Mayeline Gómez Agudelo Evaluación de Impacto Ambiental Predecir y evaluar las modificaciones que se pueden presentar en el ambiente por causa de las

Más detalles

Introducción a la Evaluación Cuantitativa de Riesgo Microbiano

Introducción a la Evaluación Cuantitativa de Riesgo Microbiano Programa de Estudio Título: Introducción a la Evaluación Cuantitativa de Riesgo Microbiano Instructor: Ing. Matthew E. Verbyla Ingeniería Civil y Ambiental University of South Florida Tampa, Florida, EE.UU.

Más detalles

Periodismo internacional: entre la

Periodismo internacional: entre la ÍNDICE Periodismo internacional: entre la Por Juan Ignacio Pérez Pereda En las secciones internacionales de los medios de comunicación es donde se presenta el resumen de los hechos más importantes sucedidos

Más detalles

ESTUDIO SOBRE LA INMIGRACIÓN Y EL SISTEMA SANITARIO PÚBLICO ESPAÑOL CONCLUSIONES

ESTUDIO SOBRE LA INMIGRACIÓN Y EL SISTEMA SANITARIO PÚBLICO ESPAÑOL CONCLUSIONES ESTUDIO SOBRE LA INMIGRACIÓN Y EL SISTEMA SANITARIO PÚBLICO ESPAÑOL CONCLUSIONES INTRODUCCIÓN El Foro Fundación Pfizer de Debate Social nace en 2007 como una iniciativa para crear una plataforma de análisis

Más detalles

DISEÑO DE INDICADORES DE DESIGUALDAD SOCIAL EN LAS CIUDADES.-

DISEÑO DE INDICADORES DE DESIGUALDAD SOCIAL EN LAS CIUDADES.- DISEÑO DE INDICADORES DE DESIGUALDAD SOCIAL EN LAS CIUDADES.- 1. Introducción. El presente documento es el referente metodológico para la selección inicial de los barrios deprimidos. Se recoge una propuesta

Más detalles

INDICADORES. PROBLEMAS ASOCIADOS A SU SELECCIÓN PARA MEDIR SUSTENTABILIDAD Y EFICIENCIA AMBIENTAL

INDICADORES. PROBLEMAS ASOCIADOS A SU SELECCIÓN PARA MEDIR SUSTENTABILIDAD Y EFICIENCIA AMBIENTAL FUNDACION NEXUS ciencias sociales medio ambiente salud INDICADORES. PROBLEMAS ASOCIADOS A SU SELECCIÓN PARA MEDIR SUSTENTABILIDAD Y EFICIENCIA AMBIENTAL Por Daniel Fernández Dillon Ingeniería Sanitaria

Más detalles

INFORME DE LA PRODUCTIVIDAD ESPAÑOLA EN FÍSICA SOLAR Y HELIOSFÉRICA EN EL PERIODO 1999-2008

INFORME DE LA PRODUCTIVIDAD ESPAÑOLA EN FÍSICA SOLAR Y HELIOSFÉRICA EN EL PERIODO 1999-2008 INFORME DE LA PRODUCTIVIDAD ESPAÑOLA EN FÍSICA SOLAR Y HELIOSFÉRICA EN EL PERIODO 1999-2008 M. Gómez y M. Collados Instituto de Astrofísica de Canarias 27 de Junio de 2012 RED DE INFRAESTRUCTURAS DE ASTRONOMÍA

Más detalles

proporción de diabetes = 1.500 = 0.06 6 % expresada en porcentaje 25.000.

proporción de diabetes = 1.500 = 0.06 6 % expresada en porcentaje 25.000. UNIDAD TEMATICA 3: Tasas Razones y proporciones Objetivo: Conocer los indicadores que miden los cambios en Salud, su construcción y utilización La información que se maneja en epidemiología frecuentemente

Más detalles

Los estados financieros proporcionan a sus usuarios información útil para la toma de decisiones

Los estados financieros proporcionan a sus usuarios información útil para la toma de decisiones El ABC de los estados financieros Importancia de los estados financieros: Aunque no lo creas, existen muchas personas relacionadas con tu empresa que necesitan de esta información para tomar decisiones

Más detalles

Seguimiento Académico de los. Estudiantes en Prácticas en Empresa

Seguimiento Académico de los. Estudiantes en Prácticas en Empresa Seguimiento Académico de los Estudiantes en Prácticas en Empresa IT-08 Facultad de Biología TÍTULO: Seguimiento Académico de los Estudiantes en Prácticas en Empresa CÓDIGO: IT-08 Alcance: Grado en Biología

Más detalles

Actualmente estás estudiando? (porcentajes) La proporción de hombres jóvenes que estudia (50.5%), es prácticamente igual a la de

Actualmente estás estudiando? (porcentajes) La proporción de hombres jóvenes que estudia (50.5%), es prácticamente igual a la de Actualmente estás estudiando? Sí No 51.6% 48.4% La proporción de hombres jóvenes que estudia (50.5%), es prácticamente igual a la de los que no lo hacen (49.5%), en tanto que, en el caso de las mujeres

Más detalles

PROYECTO DE DECLARACIÓN

PROYECTO DE DECLARACIÓN PROYECTO DE DECLARACIÓN Declárase de Interés Social y para la promoción de la Salud de la Ciudad Autónoma de Buenos Aires el libro "Palabra de Mujer. Un nuevo significado de la vida", realizado con la

Más detalles

MICROSOFT EXCEL 2007 (COMPLETO)

MICROSOFT EXCEL 2007 (COMPLETO) MICROSOFT EXCEL 2007 (COMPLETO) Descripción del funcionamiento de la hoja de cálculo Microsoft Excel XP, explicando todas las funciones de este programa para crear y modificar hojas de cálculo, tanto sencillas

Más detalles

INDICE. 1. Presentación 1. 2. Desarrollo de la Jornada 2. 3. Valoración 4. 3.1Gráficos 4. 3.2 Otras preguntas sobre contenido y valoración 6

INDICE. 1. Presentación 1. 2. Desarrollo de la Jornada 2. 3. Valoración 4. 3.1Gráficos 4. 3.2 Otras preguntas sobre contenido y valoración 6 Valoración Final INDICE 1. Presentación 1 2. Desarrollo de la Jornada 2 3. Valoración 4 3.1Gráficos 4 3.2 Otras preguntas sobre contenido y valoración 6 3.3 Valoración de los ponentes 6 3.4 Otras consideraciones

Más detalles

IV. DISCUSIÓN. El estrés ha sido objeto de estudio a través de un largo periodo de tiempo y aún

IV. DISCUSIÓN. El estrés ha sido objeto de estudio a través de un largo periodo de tiempo y aún IV. DISCUSIÓN El estrés ha sido objeto de estudio a través de un largo periodo de tiempo y aún así existen dudas acerca de éste y sus consecuencias. Se ha podido observar que por una parte es un gran incentivo

Más detalles

UNIVERSIDAD DE LAS AMÉRICAS LAUREATE INTERNATIONAL UNIVERSITIES Facultad de Ingeniería

UNIVERSIDAD DE LAS AMÉRICAS LAUREATE INTERNATIONAL UNIVERSITIES Facultad de Ingeniería UNIVERSIDAD DE LAS AMÉRICAS LAUREATE INTERNATIONAL UNIVERSITIES Facultad de Ingeniería Propuesta de un nuevo proceso tecnológico de extracción de azúcar de remolacha con cualidades organolépticas comerciales

Más detalles

LE PARECE QUE LA LUZ ARTIFICIAL O LA LUZ NATURAL ES EXCESIVAMENTE BRILLANTE O DESLUMBRANTE?

LE PARECE QUE LA LUZ ARTIFICIAL O LA LUZ NATURAL ES EXCESIVAMENTE BRILLANTE O DESLUMBRANTE? CATARATAS VER MÁS ALLÁ DE LO BORROSO ES SU VISIÓN BORROSA O NUBOSA? LE PARECEN LOS COLORES APAGADOS O SIN VIDA? YA NO LE SIRVEN SUS ANTEOJOS? LE PARECE QUE LA LUZ ARTIFICIAL O LA LUZ NATURAL ES EXCESIVAMENTE

Más detalles

Con la teoría no basta, y para poder comprender

Con la teoría no basta, y para poder comprender Por dónde comenzar y qué hacer para implementar sus principios El movimiento de las 5 s es una concepción ligada a la orientación hacia la calidad total que se originó en Japón, por Shingeo Shingo. Básicamente

Más detalles

Guía breve para la. Versión abreviada del Manual para la. evaluación de desempeño y potencial

Guía breve para la. Versión abreviada del Manual para la. evaluación de desempeño y potencial Guía breve para la evaluación de desempeño y potencial Versión abreviada del Manual para la evaluación de desempeño y potencial Febrero 2013 INSTITUCIONES PÚBLICAS SUSTENTADAS EN EL BUEN DESEMPEÑO DE SUS

Más detalles

Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones.

Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones. Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones. 2.1 Revisión sistema reconocimiento caracteres [9]: Un sistema de reconocimiento típicamente esta conformado por

Más detalles

Iniciativas para el Desarrollo del Jugador Normas para partidos en cancha pequeña & Registro por año de nacimiento Preguntas Frecuentes

Iniciativas para el Desarrollo del Jugador Normas para partidos en cancha pequeña & Registro por año de nacimiento Preguntas Frecuentes Iniciativas para el Desarrollo del Jugador Normas para partidos en cancha pequeña & Registro por año de nacimiento Preguntas Frecuentes General Por favor revise la Iniciativas para el Desarrollo del Jugador

Más detalles

Nivel Básico I Prof. Mariano Correa

Nivel Básico I Prof. Mariano Correa Nivel Básico I El presente material forma parte de los contenidos digitales del Inst. John Kennedy. Se prohíbe su uso o distribución sin consentimiento de su autor o de la institución misma. Índice: Introducción

Más detalles

UNIDAD 4. Producción: proceso por el cual los insumos se combinan, se transforman y se convierten en productos.

UNIDAD 4. Producción: proceso por el cual los insumos se combinan, se transforman y se convierten en productos. UNIDAD 4 Dra. Elena Alfonso Producción: proceso por el cual los insumos se combinan, se transforman y se convierten en productos. La relación entre la cantidad de factores productivos requerida y la cantidad

Más detalles

Prensas troqueladoras mecánicas actuadas mediante un servo motor. Por Dennis Boerger, Gerente de Producto: AIDA-America Corporation

Prensas troqueladoras mecánicas actuadas mediante un servo motor. Por Dennis Boerger, Gerente de Producto: AIDA-America Corporation Prensas troqueladoras mecánicas actuadas mediante un servo motor. Por Dennis Boerger, Gerente de Producto: AIDA-America Corporation Por muchos años, los usuarios de prensas mecánicas han tomado como un

Más detalles

Curso: Arquitectura Empresarial basado en TOGAF

Curso: Arquitectura Empresarial basado en TOGAF Metodología para desarrollo de Arquitecturas (ADM) El ADM TOGAF es el resultado de las contribuciones continuas de un gran número de practicantes de arquitectura. Este describe un método para el desarrollo

Más detalles