RECONOCIMIENTO Y CUANTIFICACIÓN DE CÉLULAS DE PECES EN IMÁGENES DE CORTES HISTOLÓGICOS T E S I S

Tamaño: px
Comenzar la demostración a partir de la página:

Download "RECONOCIMIENTO Y CUANTIFICACIÓN DE CÉLULAS DE PECES EN IMÁGENES DE CORTES HISTOLÓGICOS T E S I S"

Transcripción

1 INSTITUTO TECNOLÓGICO DE LA PAZ DIVISIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN MAESTRÍA EN SISTEMAS COMPUTACIONALES RECONOCIMIENTO Y CUANTIFICACIÓN DE CÉLULAS DE PECES EN IMÁGENES DE CORTES HISTOLÓGICOS T E S I S QUE PARA OBTENER EL GRADO DE MAESTRO EN SISTEMAS COMPUTACIONALES PRESENTA: ROMMEL OLACHEA COTA DIRECTOR DE TESIS: DR. SAÚL MARTÍNEZ DÍAZ MIEMBROS DEL JURADO: DR. SAÚL MARTÍNEZ DÍAZ, CICESE DR. ISRAEL MARCOS SANTILLÁN MÉNDEZ, UAQ MSC. ILIANA CASTRO LIERA, ITLP LA PAZ, BAJA CALIFORNIA SUR, MÉXICO, ENERO 2015.

2 INSTITUTO TECNOLÓGICO DE LA PAZ Resumen Ingeniería en Sistemas Computacionales Laboratorio de Procesamiento Digital de Imágenes Maestría en Sistemas Computacionales Reconocimiento y cuantificación de células de peces en imágenes de cortes histológicos por Rommel Olachea Cota La cuantificación y reconocimiento de células en imágenes de microscopio es una de las tareas más habituales de los investigadores en los distintos campos de la ciencia. Así por ejemplo, un biólogo puede reconocer y estimar la cantidad y nivel de desarrollo de células en imágenes de microscopio, para establecer el estado de salud de una especie o determinar el nivel de desarrollo de la especie bajo condiciones controladas. En el presente proyecto de investigación se realizó un reconocimiento y cuantificación de células de imágenes de microscopio de cortes histológicos de peces utilizando técnicas de procesamiento digital de imágenes y reconocimiento de patrones. Actualmente los algoritmos de segmentación y clasificación de células descritos en la literatura están desarrollados para obtener un buen desempeño en imágenes de microscopio con características muy específicas, por lo que para realizar el reconocimiento, cuantificación y nivel de desarrollo, se implementó una metodología de cuatro etapas principales. Primero se aplicó un pre procesamiento a las imágenes mediante filtros con la finalidad de eliminar ruido que se encontraba presente en las imagenes. Una vez aplicados los filtros necesarios, se procedió a realizar una segmentación de la imagen mediante un método de umbralización, para obtener las regiones potenciales que se puedan considerar células. Se determinó mediante un clasificador las regiones que son células. Para realizar el conteo se realizó un proceso de etiquetado a las regiones resultantes tras la clasificación para determinar su número.

3 Abstract Quantification and recognition of cells in microscopic images is one of the most common tasks for researchers in different science fields. For example, a biologist can recognize and determine the quantity, and the level of development of the cells in microscopic images, to determine the health of a species or the level of development of the species under controlled conditions. This investigation project does recognition and quantification of cells in microscopic images for histological cross-section of fish using tecniques of digital processing of images and pattern recognition. Currently the algorithms of cell segmentation and classification described in literature are developed to obtain good performance in microscopic images with very specific characteristics, so to do the recognition, quantification and level of development, a methodology was made that consists in four main stages. There will first be a pre processing to the images by filters to eliminate noise that could be present itself on the images. Once applied the necessary filtering, we proceed to segment the image by a thresholding method, to obtain the potential regions that might be considered cells. The cells are determined by a classifier (neural nets or vector support machine). To do the cell counting a labeling process to the resulting regions will be used after the classification to determine their number. iii

4 Agradecimientos Quiero agradecer a todas las personas que en algún momento a lo largo de este trabajo aportaron un consejo y ánimo para alcanzar la meta. Agradezco a mi compadre Andrés Miguel Rosales, mi compañero leal de aventuras, el cual fue una pieza importante para concretar esta meta. Gracias compadre por las arriadas al trabajo que me diste, no fue en vano. A mis directores Dr. Saúl, Dr. Alejandro por darme su paciencia e incentivo para seguir con la curiosidad de continuar investigando y descubriendo cosas. Agradezco al Dr. Israel Santillán por orientar mi brújula cuando sentía que perdía el rumbo. A mi madre Alma Delia, que con sus cuidados y detalles logro llegar conmigo a esta meta. A mi padre Ernesto Olachea, que aunque no concordemos en ideales y forma de ver la vida, si concordamos en que esta es la mejor manera de alcanzarlos. A CONACYT por hacer posible este trabajo. iv

5 ÍNDICE GENERAL Resumen ii Abstract iii Agradecimientos iv Índice General Índice de Figuras Índice de Tablas Abreviaciones v viii xi xii 1 Introducción Planteamiento del problema Motivación Importancia de la investigación Limitaciones y Suposiciones Objetivos Objetivo general Objetivos específicos Fundamentos Introducción Definición de imagen digital Vecindad de un pixel Conectividad Modelos de color Modelo RGB Modelo HSV Relación modelo RGB y HSV Conversión RGB a HSV Conversión de una imagen en color RGB a niveles de gris Segmentación v

6 Contents vi Umbralización Histograma de una imagen Umbralización por OTSU Descripción del Método de Otsu Filtrado espacial Filtro pasa bajas Filtro pasa altas Unsharp masking Rasgos geométricos Factor de compacidad Morfología matemática Dilatación morfológica Erosión morfológica Apertura y cerradura morfológica Extracción de frontera a través de operadores morfológicos Reconstrucción morfológica Reconstrucción en niveles de gris La transformada de Fourier La transformada discreta de Fourier Teorema de correlación Filtros correlacionadores Funciones discriminantes sintéticas Filtrado por correlación Metodología Introducción Determinación de características Separación manual de clases Umbralización y filtrado espacial por área de las imágenes generadas de las clases 1, 2, y Calculo de máximos y mínimos de área y factor de compacidad de cada clase Etapa de preprocesamiento Mejoramiento de la nitidez Eliminación de fondo de la imagen Conversión RGB a HSV Umbralización mediante el método de OTSU en los canales S y V Rellenado de hoyos Apertura morfológica Filtro de área Cerradura morfológica Recuperación de los niveles de gris Filtro SDF Generar filtro SDF Análisis de los picos de salida del plano de correlación Reconstrucción morfológica a partir de los puntos de interés Filtro por factor de compacidad

7 Contents vii 3.8 Eliminación de fronteras de las células Clasificación Resultados Resultados Conclusiones y trabajo futuro Conclusiones y trabajo futuro A Estancia IIMAS, Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 79 A.1 Introducción A.2 Objetivo A.3 Estado del arte A.4 Generación de base de datos de imágenes de fondo de ojo A.5 Clasificador de la retinopatía diabética A.6 Clasificación de imágenes phantom BIBLIOGRAFÍA 96

8 ÍNDICE DE FIGURAS 1.1 Corte histológico de células de ovocitos Células de ovocitos con vitelo marcadas Clasificación de células de ovocitos Costa de Baja California Sur Peces de la costa de Baja California Sur Vecindades de un pixel Tetraedro RGB Cono de colores del modelo HSV Graduaciones de saturación en el modelo HSV Componentes RGB de una imagen digital Imagen en niveles de gris Enfoques de la segmentación Umbralización utilizando el histograma Histograma de la imagen Máscara de 3 x Vecindad de una máscara Operación de convolución Filtro paso bajo Filtro paso alto Filtro unsharp masking Área de un objeto binario Perimetro de un objeto binario FC de 3 formas binarias Conjunto de puntos Elementos estructurales Suma vectorial Dilatación en una imagen binaria Erosión de una imagen binaria Apertura de una imagen binaria Cerradura de una imagen binaria Extracción de Frontera Metodología general propuesta Corte histológico de células de ovositos Muestras de células de ovocitos de clase Muestras de células de ovocitos de clase Muestras de células de ovocitos de clase viii

9 List of Figures ix 3.6 Imagen con muestras de clase Imagen binarizada clase Imagen con muestras de clase Imagen binarizada clase Imagen con muestras de clase Imagen binarizada clase Mínimos y máximos de área por clase de células Mínimos y máximos del FC por clase de células Filtro Unsharp mask Filtro Unsharp mask Proceso general de eliminación de fondo Conversión RGB a HSV de una imagen de corte histológico Histograma del componente H Histograma del componente S Histograma del componente Imagen Binaria Imagen Binaria con núcleos marcados Imagen Binaria sin huecos Elemento estructurante Imagen binaria Imagen binaria con apertura morfológica Imagen binaria antes de aplicar el filtro de área Imagen binaria resultado de aplicar el filtro de área Imagen binaria antes de aplicar la cerradura morfológica Imagen binaria con cerradura morfológica Imagen en niveles de gris Imagen binaria utilizada como máscara Imagen en niveles de gris con el fondo suprimido Conjunto de muestras de clase 1 utilizada Conjunto de muestras de clase 2 utilizada Conjunto de muestras de clase 3 utilizada Imagen de entrada S Plano de correlación c(x,y) Plano de correlación c(x,y) en 3D Ejemplo de puntos de correlación alto en el plano de correlación c(x,y) en 3D Ejemplo de puntos de correlación bajo en el plano de correlación c(x,y) en 3D Puntos de interés de la matriz de correlación Puntos de interés de la matriz de correlación Reconstrucción morfológica Imagen con marcas de células aisladas y de conglomerados de células Filtrado por factor de compacidad Extracción de Frontera de las células Total de células aisladas Clasificación de células

10 List of Figures x A.1 Proceso general de generación de imágenes phantom con lesiones aleatorias A.2 Imagen phantom generada con DR severa según criterio de Messidor, con µa = 23 y H = A.3 Imagen con cuadrantes trazados, regresada por la función getcuadrantes() 93

11 ÍNDICE DE TABLAS 2.1 Cálculo del FC para diferentes figuras FC para cada una de las clases Mínimos y máximos de área para cada una de las clases Criterio de clasificación por área. nopx = área de la célula en pixeles Conteo manual por clase en las imágenes de prueba Conteo manual resultado de la etapa de reconstrucción morfológica Conteo realizado por la metodología propuesta Conteo de falsos positivos de la metología propuesta A.1 Escala internacional de severidad de retinopatía diabética A.2 Escala de retinopatía diabética establecida por la ETDR A.3 Escala de clasificación de retinopatía diabética establecida por la Messidor 82 A.4 Valores de intensidad de los elementos en las imágenes de fondo de ojo.. 86 A.5 Funciones principales para la generación de imágenes phantom A.6 Reglas de clasificación de la retinopatía diabética A.7 Funciones principales involucradas en la clasificación A.8 Matriz de resultados A.9 Funciones para la generación de imágenes de prueba A.10 Descripción de nombres de archivos de salida A.11 Resultados de la clasificación xi

12 Abreviaciones RGB HSV FC MM TF DTF FFT BMP SDF Red Green Blue Hue Saturation Value Factor Compacidad Morfología Matemática Transformada de Fourier Discret Fourier Transform Fast Fourier Transform Bit MAP Función Discriminante Sintética xii

13 CAPITULO 1 Introducción "Lo importante es no dejar de hacerse preguntas." (Albert Einstein) Los océanos representan los ecosistemas más grandes de la tierra, cubriendo 361 millones de km 2, es decir el 71% de la superficie del planeta, con un volumen de millones de km 3. Las especies que los habitan resultan de vital interés para la comunidad científica, ya sea para fines económicos o de preservación. Uno de los procesos fundamentales en las investigaciones realizadas sobre las especies marinas, son la cuantificación y reconocimiento de los niveles de desarrollo de sus células. El conteo y clasificación de células es uno de los procesos primordiales en el campo de la microbiología y biología celular. Numerosos procesos en la medicina y biología requieren de este conteo y reconocimiento. Algunos de los muchos ejemplos de la necesidad de reconocer y cuantificar células son: En la biología la cuantificación y clasificación de células, permite hacer inferencia acerca del crecimiento o desarrollo logrado de especies en cautiverio o en su entorno natural. La concentración de células es un factor necesario a conocer para muchos experimentos en biología, para poder establecer la dosis de reactivos y productos químicos a aplicar en cultivos. Conocer concentraciones de bacterias, virus u otros organismos patógenos en la sangre o fluidos, puede arrojar información acerca del grado de crecimiento de un proceso infeccioso dentro de un organismo, así como también el grado de éxito con el que el sistema inmune está tratando a la infección. 1

14 Capítulo 1. Introducción 2 En medicina el conocer la concentración de células sanguíneas, como son las de los glóbulos blancos o rojos, pueden proporcionar información crucial acerca del estado de salud de una persona.

15 Capítulo 1. Introducción Planteamiento del problema Las células que se reconocen y cuantifican en el presente proyecto de investigación pertenecen a células de ovocitos de la especie del Tetrapturus audax (marlín rayado). Para realizar este reconocimiento y cuantificación, el investigador realiza una inspección de la imagen del corte histológico (figura 1.1) de manera visual y manual, en el cual solo reconoce las células a las que se les aprecia de manera significativa el núcleo o vitelo que se encuentra ubicado aproximadamente en el centro de la misma (figura 1.2). Para realizar la clasificación el investigador toma como base el tamaño o área de las células, y en base a esto realiza una clasificación de hasta 3 clases diferentes de células, siendo las células de clase 1 las de menor área y las células de clase 3 las de mayor (figura 1.3). Figura 1.1: Corte histológico de células de ovocitos Figura 1.2: Células de ovocitos con vitelo marcadas

16 Capítulo 1. Introducción 4 Figura 1.3: Clasificación de células de ovocitos por parte del experto en clases 1,2 y 3 De manera breve el problema que se aborda en el trabajo de tesis es el siguiente: dada una imagen que pertenece a un corte histológico de células de ovocitos, se deben extraer las células a las cuales se les aprecie de manera significativa el vitelo, para posteriormente realizar una clasificación en las 3 diferentes clases según el tamaño de las mismas. Sin embargo la segmentación de los ovocitos en las imágenes presenta algunas problemáticas en las imágenes, como la iluminación la cual es variable en cada imagen. EL contraste representa otro problema, esto es por la cantidad de hematoxilina [1] utilizada para realizar la tinción en los tejidos antes de la toma de la imagen a través del microscopio, lo que provoca que en algunas imágenes las estructuras de las células queden más resaltadas que en otras. Otra problemática que se presenta es que la frontera o separación entre las células es tenue o nula lo que dificulta la separación de estas.

17 Capítulo 1. Introducción Motivación Esta investigación responde inicialmente a una necesidad de los investigadores del Centro de Investigaciones Biológicas del Noroeste en el estudio de peces de las zonas costeras de la región de Baja California Sur (Fig.1.4). Esta necesidad se centra en la cuantificación y reconocimiento de células en cortes histológicos de peces, que permite a los investigadores determinar el grado de crecimiento de una especie en condiciones controladas, y contrastarlas con los especímenes que se encuentran en su entorno natural (Fig.1.5). Figura 1.4: Costa de Baja California Sur. Figura 1.5: Peces de la costa de Baja California Sur. 1.3 Importancia de la investigación Debido a la relevancia que tienen los procesos de cuantificación y clasificación de células en las ciencias biológicas y médicas, es inherente el valor que tiene el desarrollo de los algoritmos y metodología necesaria para desarrollar la cuantificación y clasificación de las células en cortes histológicos. Actualmente los algoritmos de segmentación y clasificación de células descritos en la literatura están desarrollados para obtener un buen desempeño en imágenes de microscopio con características muy específicas, por ejemplo forma, color, área, etc. Por lo tanto estos algoritmos suelen realizar una mala segmentación y clasificación cuando se presentan

18 Capítulo 1. Introducción 6 imágenes con rasgos de células distintas. Por esta razón, es importante el desarrollo de esta metodología para realizar una segmentación y clasificación con un porcentaje de éxito aceptable para las características específicas de las imágenes de cortes histológicos de peces a cuantificar y reconocer. La cuantificación y reconocimiento de las células en estos cortes se realiza manualmente por un observador experto. Con el desarrollo de esta metodología y algoritmos necesarios para el pre procesamiento, segmentación y clasificación, se acelera esta actividad, permitiendo a los investigadores realizar conclusiones más rápidamente acerca del desarrollo de la especie en condiciones controladas. La metodología y algoritmos a desarrollar pueden servir de base para futuros problemas relacionados con la cuantificación y clasificación de células de otras especies dentro del Centro de Investigaciones Biológicas del Noroeste Limitaciones y Suposiciones Limitaciones. La cantidad de muestras etiquetadas y clasificadas de células realizadas por un observador experto disponibles son pocas. Esto tiene un impacto en el clasificador a desarrollar. El tipo de corte que se realiza sobre las células de muestra afecta a la textura, tamaño y formas en el interior de la célula. Al no existir un método de cuantificación y reconocimiento para las células en cortes histológicos, no existe un punto de comparación con la metodología a desarrollar, por lo que los cotejos serán realizados contra un observador experto. Suposiciones. El banco de imágenes presentan el mismo grado de acercamiento (zoom) hacia las células presentes en las imágenes de microscopio. En las imágenes no se encuentran agentes patógenos, es decir, solo contendrán células de una especie de pez.

19 Capítulo 1. Introducción Objetivos Objetivo general Desarrollar y probar una metodología computacional, para el reconocimiento y cuantificación de las células de peces en imágenes de cortes histológicos utilizando técnicas de procesamiento digital de imágenes y reconocimiento de patrones Objetivos específicos Diseñar e implementar los algoritmos necesarios para realizar el pre procesamiento de las imágenes de microscopio para la preparación de la segmentación. Diseñar e implementar algoritmos de segmentación para realizar la segmentación de las imágenes. Diseñar e implementar un clasificador para el reconocimiento de las células, utilizando como posibles descriptores, color, área y forma.

20 CAPITULO 2 Fundamentos "Vivimos en el mundo cuando amamos. Sólo una vida vivida para los demás merece la pena ser vivida." (Albert Einstein) 2.1 Introducción La visión es uno de los sentidos más importantes que poseemos los seres humanos. A través de la visión podemos interactuar con el medio que nos rodea, encontrando los objetos de nuestro interés por medio de la forma, color, tamaño o distancia. A través de la visión podemos tomar decisiones con base en la información que existe en las imágenes del medio. Dotar a una computadora con esta capacidad es una tarea difícil, a tal grado que aún se siguen buscando técnicas y desarrollando tecnologías para lograrlo. La visión por computadora tiene como finalidad analizar, reconocer y extraer información contenida en imágenes, para que puedan tomar decisiones y realizar acciones al igual que los seres humanos. El procesamiento digital de imágenes es un conjunto de técnicas que permiten mejorar la calidad de las imágenes con el objetivo de prepararlas para la extracción de información. En este capítulo se abordan los principales temas de la teoría del procesamiento digital de imágenes utilizados en esta investigación, como modelos de color, métodos de segmentación, filtros espaciales y filtros de correlación lineal. 8

21 Capítulo 2. Fundamentos 9 Así mismo se presenta la teoría de la morfología matemática y sus operaciones básicas: dilatación, erosión, apertura, cierre, y reconstrucción morfológica en imágenes de grises. 2.2 Definición de imagen digital. Una imagen digital puede ser definida como una función en dos dimensiones f(x, y), donde: x e y son coordenadas espaciales, la amplitud de f en el punto (x, y) es conocida como la intensidad de la imagen en ese punto. A cada punto (x, y) se le conoce como pixel, y es el termino más utilizado para denotar un elemento de una imagen. Tanto las coordenadas x e y, como la amplitud de la función f son valores finitos [2]. 2.3 Vecindad de un pixel. Un pixel p con coordenadas (x, y) tiene dos vecinos horizontales y dos vecinos verticales cuyas coordenadas están dadas por: (x + 1), (x 1, y), (x, y + 1), (x, y 1) Este conjunto se llama 4-vecindad de p y se denota como N 4 (p). Cada pixel está a una distancia unitaria de (x, y). Algunos de los vecinos de p caen fuera de la imagen digital si (x, y) está en el borde de la imagen. Un pixel de p con coordenadas (x, y) tiene 4 vecinos diagonales cuyas coordenadas están dadas por: (x + 1, y + 1), (x + 1, y 1), (x 1, y + 1), (x 1, y 1) Este conjunto se denota como N D (p). A estos puntos junto con los 4-vecindad, se les llama 8-vecindad de p y se denota como N 8 (p). De la misma manera algunos de los puntos N D (p) y N 8 (p) caen fuera de la imagen digital si (x, y) está en el borde de la imagen [3]. En la figura 2.1 se muestran los tipos de vecindad. 2.4 Conectividad. La conectividad entre dos puntos o pixeles p y q de una imagen, se determina si p y q son vecinos y además los niveles de gris tanto de p como de q, están dentro de un criterio de similitud. Sea V un conjunto de valores de niveles de gris, se puede establecer tres tipos de adyacencia entre dos pixeles p y q:

22 Capítulo 2. Fundamentos 10 (a) (b) (c) Figura 2.1: Vecindades de un pixel. a) Vecindad N 4 (p). b) Vecindad N 8 (p). c) Vecindad N D (p). 4 adyacencia. Si q está en el conjunto N 4 (p), y tanto p como q tienen su valor de intensidad en V. 8 adyacencia. Si q está en el conjunto N 8 (p), y tanto p como q tienen su valor de intensidad en V. m adyacencia. Si q pertenece al conjunto N 4 (p) o q pertenece al conjunto N 8 (p), y tanto p como q tienen su valor de intensidad en V, y además N 4 (p) N 4 (q) no tiene pixeles con valores en V. 2.5 Modelos de color. Generalmente el color es un poderoso descriptor para reconocer y extraer objetos dentro de una imagen digital. Ahora bien el ojo humano capta los colores como una combinación de tres colores primarios: rojo (R), verde (G) y azul (B), en donde las diferentes mezclas de cada uno de estos producen un nuevo color. Así por ejemplo para producir los colores secundarios se utilizan las siguientes combinaciones de los primarios: magenta (rojo y azul), cyan (verde y azul) y amarillo (rojo y verde). Para poder llevar a cabo una distinción entre los colores se utilizan tres características, brillo, matiz y saturación. El brillo corresponde a la intensidad del color, el matiz indica la longitud de onda dominante [2], es decir el color en sí mismo, y finalmente la saturación que indica qué tan puro es un color. A las cantidades de rojo, verde y azul para formar un color específico se denominan triestímulo. Así un color se puede definir entonces por sus coeficientes tricromáticos X, Y, Z respectivamente como se muestra en la ecuación 2.1 y en la ecuación 2.2. x = X X + Y + Z ; y = Y X + Y + Z ; z = Z X + Y + Z (2.1) en donde

23 Capítulo 2. Fundamentos 11 x + y + z = 1 (2.2) Los modelos de color proporcionan una especificación de los colores para establecer un estándar, utilizando un sistema de coordenadas en 3-D, en donde cada color es representado mediante un punto. Los modelos de color utilizados en este proyecto de investigación son los modelos RGB y HSV Modelo RGB El modelo RGB utiliza las componentes espectrales primarias rojo, verde y azul, así como un sistema de coordenadas cartesianas. El sub espacio de esté modelo se representa mediante el tetraedro Figura 2.2, en donde los colores RGB se sitúan en cada uno de los ejes, y los colores magenta, cyan y amarillo en los vértices restantes [4]. Figura 2.2: Tetraedro RGB. Los puntos a lo largo de la diagonal principal tienen valores de gris, desde el negro en el origen al punto (1,1,1) Modelo HSV En el modelo HSV el color se representa en un espacio tridimensional mediante 3 componentes, H (matiz), S (saturación) y V (valor o brillo), en la figura 2.3 se muestra el espacio de color en sus 3 componentes. El modelo HSV es una transformación no lineal del modelo RGB en coordenadas cilíndricas, en donde: H (matiz) representa un ángulo en grados con valores entre 0 y 360 grados, en donde cada valor corresponde a un color, por ejemplo, 0 es rojo, 60 es amarillo y 120 es verde.

24 Capítulo 2. Fundamentos 12 S (saturación) representa la distancia al eje del brillo negro blanco, tiene valores posibles de 0 a 100%, y representa la pureza del color. En la figura 2.4, se muestra las graduaciones de saturación para el color rojo. V (valor) representa la altura en el eje blanco negro figura 2.3, el rango de valores posibles están entre 0 y 100. Según sea el valor de la saturación, 100 podría ser blanco o un color más o menos saturado. Figura 2.3: Cono de colores del modelo HSV Figura 2.4: Graduaciones de saturación en el modelo HSV Relación modelo RGB y HSV. El modelo RGB se representa generalmente con 24 bits, en 3 octetos: en donde cada uno de ellos representa cada uno de sus componentes R (rojo), G (verde) y B (azul). Así cada componentes tiene 256 valores posibles que van desde el 0 como valor mínimo y el 255 como valor máximo o más brillante, los valores intermedios entre estos valores son intensidades graduales. De esta forma un color se representa mediante un punto (R, G, B) que admite 2563 = posibilidades de color, que supera al número de colores que el ojo humano distingue. En contraste con el modelo HSV donde el color tiene una representación de cilindro con altura y diámetro unitario donde cada color está dado por coordenadas (H, S, V) Conversión RGB a HSV. Para realizar la transformación del sistema de coordenadas del modelo RGB a coordenadas cilíndricas del modelo HSV se realizan las siguientes operaciones:

25 Capítulo 2. Fundamentos 13 Sea MAX el valor máximo de los componentes (R, G, B), y MIN el valor mínimo de los mismos valores, los componentes se calculan como se indica en 2.3, 2.4, 2.5: no definido, Si MAX = MIN 60 0 X G B MAX MIN + 00, Si MAX = R y G B 60 0 X G B MAX MIN , Si MAX = R y G < B H = (2.3) 60 0 X B R MAX MIN , Si MAX = G 60 0 X R G MAX MIN , Si MAX = B 0, si MAX = 0 S = 1 MIN en otro caso MAX, (2.4) V = MAX (2.5)

26 Capítulo 2. Fundamentos Conversión de una imagen en color RGB a niveles de gris. El modelo de color RGB utiliza tres componentes espectrales, rojo, verde y azul (RGB por sus siglas en inglés) (sección 2.5.1) para formar una imagen digital en color. En la figura 2.5 se representa una imagen digital a color, y sus respectivos componentes RGB, así en A), se aprecia que los valores correspondientes de cada una de las componentes en las coordenadas x = 249 e y = 230, son R = 179,G = 40 y B = 95. (a) (b) (c) (d) Figura 2.5: A) Imagen RGB B)Componente R C)Componente G y C)Componente B Los valores de intensidad para cada una de las componentes están en el rango de [0 a 255]. El proceso de conversión a niveles de gris consiste en calcular el promedio (ecuación 2.6) de los valores de intensidad de las tres componentes. Cada valor calculado se redondea para formar una nueva matriz con valores de intensidad que pueden estar en el rango de [0 a 255]. { } 1 I = Round 3 (R + G + B) (2.6)

27 Capítulo 2. Fundamentos 15 En la figura 2.6 se puede ver el valor promedio calculado para las coordenadas x = 249 e y = 230, son R = 179, G = 140 y B = 95, en donde el valor indicado esta normalizado a 1. Figura 2.6: Imagen resultante en niveles de gris

28 Capítulo 2. Fundamentos Segmentación. La segmentación se puede considerar como un proceso de extraer información de una imagen digital, en el que se tiene que separar o dividir una imagen en diferentes regiones de interés, obteniendo como resultado otra imagen nueva con el o los objetos de interés bien definidos. Los algoritmos de segmentación actuales se basan en dos enfoques principales, orientado a regiones y orientados a bordes [4]. El primer enfoque agrupa los pixeles de acuerdo a algún criterio de similitud, mientras que en el segundo enfoque se delinean los contornos de los objetos de interés mediante los límites que presentan las regiones con diferentes niveles de intensidad en los pixeles. En la figura 2.7 se muestran ambos enfoques, en 2.7 B) se representa la segmentación basada en regiones, mientras que en 2.7 C) la basada en bordes. (a) (b) (c) Figura 2.7: Enfoques de la segmentación: a) imagen original. b) enfoque basado en regiones. c) enfoque basado en bordes Dentro del primer enfoque basado en regiones o similitud para realizar una segmentación existen diferentes técnicas [2]: Binarización basada en umbrales. Crecimiento de regiones. División de regiones. Similitud de texturas. En el presente proyecto de investigación se utiliza la segmentación basada en regiones, con la técnica de binarización mediante umbrales.

29 Capítulo 2. Fundamentos Umbralización La umbralización es uno de los procesos más importantes durante la segmentación. La umbralización nos permite convertir una imagen en niveles de gris en una imagen binaria. Un punto (x, y) en una imagen binaria solo puede contener dos valores, 0 o 1. La umbralización puede considerarse como la operación de realizar comprobaciones frente a una función T de la siguiente forma: T = T [x, y, p(x, y), f(x, y)] (2.7) Donde f(x, y) es el nivel de gris del punto (x, y), y p(x, y) representa alguna propiedad local del punto. Una imagen umbralizada se define como: 1 si f(x, y) > T g(x, y) = (2.8) 0 si f(x, y) T La elección de un valor adecuado de umbral es decisiva para una buena segmentación de una imagen. La obtención de un umbral se suele basar generalmente en el histograma de la imagen. Así por ejemplo la figura 2.8 a), muestra una imagen con los objetos de interés obscuros sobre un fondo claro, en donde los pixeles de interés y del fondo están diferenciados como muestra el histograma de la imagen figura 2.8 b), y para separar los objetos del fondo basta con encontrar un umbral T, de tal forma que un pixel (x, y) para el cual f(x, y) < T será considerado como un pixel de fondo, figura 2.8 c). (a) (b) (c) Figura 2.8: Umbral: a) Imagen en escala de grises b) Histograma c) imagen umbralizada, umbral = 128

30 Capítulo 2. Fundamentos Histograma de una imagen El histograma de una imagen se define como una función f(x, y) con L niveles de gris dentro de un rango [0, L-1], denotado como h(r k ) la cual es una función discreta [5], como se muestra en la ecuación 2.9. h(r k ) = n k N (2.9) Donde r k es el k-ésimo nivel de gris, n k es el número de pixeles en la imagen con el nivel de intensidad r k y N es el número total de pixeles en la imagen. Un histograma se representa mediante una gráfica de barras que representa la frecuencia relativa de los niveles de intensidad de una imagen. En la figura 2.9 a) se muestra una imagen de un corte histológico en niveles de grises, y en b) su respectivo histograma. Un histograma nos describe de manera general la apariencia de una imagen, así en b), la mayor frecuencia de los niveles de gris están cargados hacia la izquierda, lo que nos dice que la imagen es en su mayoría obscura. (a) Corte histológico de células (b) Histograma de la imagen Figura 2.9: Histograma de la imagen

31 Capítulo 2. Fundamentos Umbralización por OTSU El método de Otsu es automático, es decir, no necesita información previa de la imagen antes de realizar el procesamiento, así como ningún tipo de supervición humana. Generalmente el método de Otsu se emplea cuando hay una clara distinción de clases en el histograma de la imagen. Suponiendo que el histograma está formado por la suma de dos densidades de probabilidad gaussianas, descritas en 2.10 y 2.11, el método elige un umbral óptimo maximizando la varianza entre las clases utilizando una búsqueda exhaustiva [6], [7]. p(z) = P 1 p 1 (z) + P 2 p 2 (z) (2.10) p 1 (z) = [ 1 exp (z m 1) 2 ] 2πσ1 2σ1 2 ; p 2 (z) = [ 1 exp (z m 2) 2 ] 2πσ2 2σ2 2 (2.11) Descripción del Método de Otsu La cantidad de pixeles con un nivel de gris determinado i se denota como f(i), y la probalidad de ocurrencia de los mismos en la imagen se representa en la ecuación P i = f i N M (2.12) Para umbralizar una imagen en dos niveles, los pixeles se dividen en dos clases: C1, con niveles de gris [1..t]; y C2, con niveles de gris [t + 1..L]. La distribución de probabilidad para cada clase esta dada por las ecuaciones 2.13, C 1 = p 1 ω 1 (t),..., p t ω 1 (t) (2.13) C 2 = p t+1 ω 2 (t), p t+2 ω 2 (t),..., p L ω 2 (t) (2.14) En donde:

32 Capítulo 2. Fundamentos 20 ω 1 (t) = t i=1 p i y (2.15) ω 2 (t) = L i=t+1 p i La media para la clase C1 y para la clase C2 es: µ 1 = t i=1 i p i ω 1 (t) y (2.16) Otsu define la varianza entre clases como: µ 2 = L i=t+1 i p i ω 2 (t) σ 2 B = ϖ 1 (µ 1 µ T ) 2 + ϖ 2 (µ 2 µ T ) 2 (2.17) Verifica que el umbral óptimo t sea máximo de manera que σ 2 B : } t = Max t {σb(t) 2 1 t L (2.18)

33 Capítulo 2. Fundamentos Filtrado espacial. Los filtros espaciales modifican determinados rangos de frecuencia de los pixeles en las imágenes, y se dice que son espaciales porque operan directamente sobre cada pixel en función de sus vecinos, y no sobre una transformada en sí. Los filtros espaciales, se pueden clasificar en lineales y no lineales, en donde a su vez los lineales, se pueden clasificar de acuerdo al tipo de frecuencias que dejan pasar en pasa altas y pasa bajas. La finalidad del filtrado espacial es reducir ruidos en la imagen como perturbaciones en la iluminación, puntos no deseados o sombras entre los objetos, como resultado de fallas en el sistema de captura de la imagen. Para los diferentes tipos de ruidos presentes en una imagen existen distintos tipos de filtros. Para filtrar una imagen se aplica una transformación, como se indica en 2.19 para obtener otra imagen con sus características acentuadas o disminuidas. g(x, y) = T [f(x, y)] (2.19) Donde g(x, y) representa la nueva imagen, T es un operador de transformación y f(x, y) es la imagen donde se aplicará T. El filtrado espacial opera mediante la aplicación de una máscara o filtro. Una máscara es una matriz cuadrada o rectangular con una serie de coeficientes definidos en (x, y). En la figura 2.10 se muestra una máscara de 3 x 3. Figura 2.10: Máscara de 3 x 3 Para realizar un filtrado en el dominio del espacio se realiza una convolución (barrido) de una máscara sobre una imagen, en donde el centro de la máscara se posiciona en un pixel (x, y) de tal manera que su nuevo valor depende de los pixeles que cubra la máscara en la imagen, como se muestra en la figura Posteriormente el centro de la máscara es movida de pixel a pixel abarcando nuevos vecindarios.

34 Capítulo 2. Fundamentos 22 Figura 2.11: Vecindad de una máscara de 3x3 situada. El valor del pixel al aplicar la máscara es el resultado de la sumatoria del producto de los pixeles del vecindario con los coeficientes correspondiente de la máscara, como se indica en g(x, y) = x y f(x, y)w(x, y) g(x, y) = 1 D Ni=0 Nj=0 f(x, y) w(x i, y j) (2.20) x, y = 0, 1,..., N 1 Donde D es un factor de escala que se conoce como factor de multiplicación. A continuación en la figura 2.12., se muestra un ejemplo de la aplicación de un filtrado espacial utilizando una máscara h de 3x3: En donde la operación de convolución se da mediante la siguiente operación:

35 Capítulo 2. Fundamentos 23 Figura 2.12: Operación de convolución. h1 h2 h3 h = h4 h5 h6 h7 h8 h9 g(x, y) = f(x, y) h (2.21) g(x, y) = h1 f(x 1, y 1) + h2 f(x, y 1) + h3 f(x + 1, y 1)+ h4 f(x 1, y) + h5 f(x, y) + h6 f(x + 1, y)+ h7 f(x 1, y + 1) + h8 f(x, y + 1) + h9 f(x + 1, y + 1) En 2.21 se aprecia que el valor del punto g(x, y) depende únicamente del pixel h(x, y) y de los ocho vecinos abarcados por la máscara. El resultado final en una imagen tras la aplicación de un filtro, dependerá de los coeficientes que integran la máscara del filtro y del factor de multiplicación, así un filtro puede suavizar, resaltar, detectar bordes, etc.

36 Capítulo 2. Fundamentos Filtro pasa bajas. Los filtros espaciales pasa bajas tienen como objetivo suavizar los cambios abruptos de intensidad presentes en una imagen, es decir, tienen el efecto de pasar los componentes de baja frecuencia, atenuando los componentes de alta frecuencia en una imagen [8]. Un filtro pasa baja regularmente está compuesto por una máscara de Convolución de 3 x 3 con los siguientes coheficientes mostrados en 2.22: (2.22) La respuesta a este tipo de filtros es un promedio de pixeles abarcados por la vecindad de la máscara aplicada, es decir reemplazan cada uno de los pixeles en la imagen por el promedio de los niveles de gris de los vecinos definidos en la máscara. En la figura 2.13 B), se presenta la salida de un filtro pasa baja, tras ser aplicado en A). (a) (b) Figura 2.13: Filtro pasa bajas: a) imagen original. b) imagen resultante tras aplicar el filtro pasa bajas.

37 Capítulo 2. Fundamentos Filtro pasa altas. Los filtros pasa altas, actúan de forma opuesta a los pasa baja, es decir, acentúan los componentes de alta frecuencia mientras que no modifica los de baja frecuencia. Una máscara de un filtro pasa altas está definido con los coeficientes mostrados en (2.23) En donde la suma de coeficientes de la máscara de 3 x 3 anterior es 1, esta disposición de coeficientes nos dice que el pixel central del grupo de pixeles que abarca la vecindad de la máscara aporta una alta influencia, mientras que el resto se opone a él. Si el pixel central tiene un valor de intesidad distinto al grupo de pixeles, el efecto de estos entonces es despreciable, y el valor del pixel de salida es acentuado. En la figura 2.14 b), se presenta el resultado de la aplicación del filtro pasa alta de la expresión 2.23, y en a), la imagen original. (a) (b) Figura 2.14: Filtro pasa altas: a) imagen original. b) imagen resultante tras aplicar el filtro pasa altas.

38 Capítulo 2. Fundamentos Unsharp masking. Los filtros de realce, mejoran la calidad de las imágenes, mejorando su apariencia visual ya sea en contraste, ruido, distorsiones, luminosidad, etc. Los filtros unsharp masking sirven para mejorar la nitidez de una imagen, y se basan en el hecho de que se tiene una imagen borrosa (con una pendiente pequeña), a la cual se le resta una pendiente mas pequeña (f P B ), la cual se multiplica por un factor k. Al resultado se le suma la imagen original para obtener una pendiente mayor, con lo que se obtiene una imagen con mayor resolución, como se indica en k[f(x, y)] f P B (x, y)] + f(x, y) = f(x, y) h UM (x, y) (2.24) Donde h UM (xmy) está definido como: h UM (x, y) = δ(x, y) + kδ(x, y) kh P B (x, y) (2.25) De esta forma los filtros unsharp mask se definen mediante la siguiente forma: h UM (x, y) = (1 + k)δ(x, y) kh P B (x, y) (2.26) Asi por ejemplo si definimos: h P B (x, y) = (2.27) entonces el filtro se definiría mediante la expresión 2.28: h UM (x, y) = k 0 k k 9 k 9 k = k k k k 9 k 9 k 9 (2.28) En la figura 2.15 se muestra la aplicación de un filtro unsharp masking en una imagen en escala de grises, donde a) es la imagen original y b), es la imagen resultante tras haber aplicado el filtro. Se puede apreciar que los bordes fueron realzados.

39 Capítulo 2. Fundamentos 27 (a) imagen original (b) imagen resultante tras aplicar el filtro unsharp mask Figura 2.15: Filtro unsharp masking 2.9 Rasgos geométricos. Los rasgos de los objetos en una imagen, son mediciones que pueden obtenerse del número de pixeles de una región de la imagen, la cantidad de pixeles del contorno de un objeto, esquinas de un objeto, o bien puntos característicos del esqueleto de un objeto. Los rasgos geométricos describen las características geométricas de los objetos en una imagen, ejemplos de estos son el área y el perímetro. El area la podemos definir como el número de pixeles que conforman un objeto para el caso de una imagen binaria, como se muestra en la figura 2.16, y se puede definir mediante la ecuación 2.29., mientras que el perímetro es el conjunto de pixeles que conforman el contorno de un objeto, como se muestra en la figura 2.17, y definido por Podemos definir un pixel de contorno si al menos tiene un vecino, que pertenece al fondo. El número de pixeles por lo tanto dependerá del criterio de conectividad utilizado N 4 o N 8 [5]. Figura 2.16: a) Objeto con 36 elementos, b) objeto con 50 elementos. C R A = f(x, y) (2.29) x=0 y=0

40 Capítulo 2. Fundamentos 28 Figura 2.17: a) Perimetro de 64 pixeles con N 4, b) Perimetro de 48 pixeles con N 8. C R P = f(x, y) f(x, y)εn 4 (f(x, y)) = 0 (2.30) x=0 y= Factor de compacidad. A través de los rasgos geométricos se pueden definir los rasgos compuestos, como el factor de compacidad. El factor de compacidad (FC) describe la forma de un objeto y es invariante a rotaciones, traslaciones y cambios de escala. El FC de una forma binaria lo podemos definir en la ecuación F C = P 2 4π(A) (2.31) Así por ejemplo, el FC de un circulo tendrá un valor cercano a 1, y para un cuadrado tendrá un valor cercano a 1.27, como se indica en la tabla 2.1. En la imagen 2.18 se muestra el factor de compacidad de 3 objetos binarios, con un área de 32 pixeles, donde A) y B) tienen FC cercanos, mientras que C), se diferencia notablemente. (a) FC = 7.03 (b) FC = 8.0 (c) FC = Figura 2.18: FC de 3 formas binarias

41 Capítulo 2. Fundamentos 29 Tabla 2.1: Cálculo del FC para diferentes figuras 2.10 Morfología matemática. La morfología matemática (MM) se puede definir como el análisis de las estructuras espaciales, y se dice que es morfológica porque se basa en la geometría y la forma de los objetos. Tiene su fundamento en la teoría de conjuntos y en la geometría integral [9]. Las operaciones morfológicas de la MM tienen su principal aplicación en las imágenes binarias, para suavizar bordes, remover pequeñas componentes u objetos, unir objetos no conectados, tratando de mantener la forma principal de los objetos presentes en estas. Dado que las imágenes pueden ser modeladas mediante conjuntos de puntos de cualquier dimensión, como el del espacio Euclídeo 2D (E 2 ) y su sistema de subconjuntos es dominio natural para la descripción de las formas planas [2]. Un punto en una imagen se representa mediante un par de enteros que constituyen las coordenadas del mismo, así una imagen binaria entonces puede ser tratada como un conjunto de puntos en 2D. Los puntos que corresponden a un objeto dentro de una imagen binaria tienen el valor binario de 1 y forman parte de un conjunto X, mientras que los que corresponden al fondo tienen el valor binario 0, y pertenecen al complemento de X c. En la figura 2.19 el conjunto de puntos X que corresponden al objeto, estan dados por las coordenadas X = {(0, 1), (0, 2), (0, 3), (1, 1), (1, 2), (1, 3), (2, 2), (2, 3), (3, 2), (3, 3)}. Una transformación morfológica φ está dada por la relación de dos conjuntos, uno que corresponde al conjunto de puntos de la imagen X y otro conjunto generalmente más pequeño B llamado elemento estructural. B se expresa mediante un origen local O. En

42 Capítulo 2. Fundamentos 30 Figura 2.19: Ejemplo de conjunto de puntos. la figura 2.20 se muestran ejemplos de elementos estructurales típicos, el origen local se marca mediante un punto. (a) (b) (c) Figura 2.20: Elementos estructurales El elemento estructural de 2.20 A) tiene la expresión en forma de conjunto de puntos B = {( 1, 1), ( 1, 0), ( 1, 1), (0, 1), (0, 0), (0, 1), (1, 1)}, mientras que para 2.20 B) es B = {( 1, 0), (0, 1), (0, 0), (0, 1), (1, 0)}. Una transformación morfológica φ(x) aplicada a una imagen X expresa que el elemento estructural B se desplaza por toda la imagen, de tal forma que si B se posiciona sobre un punto de la imagen, el pixel de la imagen que se posiciona sobre el origen local de B se denomina pixel actual. El resultado de la relación entre la imagen X y el elemento estructural B puede ser 0 o 1 y se almacena en la posición del pixel actual Dilatación morfológica. La dilatación morfológica es una operación que combina dos conjuntos mediante la adición de vectores, así la dilatación de X B es el conjunto de todas las adiciones vectoriales de los pares de elementos del conjunto X y B. La dilatación se define en la expresión 2.32 X B = {dɛe 2 : d = x + b para cada xɛx y bɛb} (2.32) En la expresión 2.32 se presenta la suma vectorial de X y B, en 2.33, el conjunto de puntos resultante de la suma vectorial. En la figura 2.21 se muestra el resultado de la suma vectorial de la expresión 2.33.

43 Capítulo 2. Fundamentos 31 X = {(0, 1), (1, 2), (2, 0), (2, 1), (3, 0), (3, 1)} B = {(0, 0)(0, 1)} X B = {(0, 1), (1, 2), (2, 0), (2, 1), (3, 0), (3, 1), (0, 2), (1, 3), (2, 2), (3, 2)} (2.33) Figura 2.21: Suma vectorial. En la figura 2.22 A) se muestra una imagen binaria y en B), la dilatación por el elemento estructural C)., se puede observar cómo se agregan pixeles al contorno de los objetos, es decir, la operación de dilatación cambia todos los pixeles de fondo que son vecinos al objeto. (a) Imagen binaria original (b) Imagen binaria dilatada (c) Elemento estructural Figura 2.22: Dilatación binaria Erosión morfológica. La erosión morfológica es una operación que utiliza la combinación de conjuntos mediante la sustracción de vectores. La erosión se define en la expresión 2.34.

44 Capítulo 2. Fundamentos 32 X B = {dɛe 2 : d + bɛx para cada bɛb} (2.34) En donde el resultado de la erosión está dado por los puntos d en los cuales los posibles valores d+b están en X. La expresión 2.35 muestra un conjunto de puntos X erosionados por el elemento B. X = {(O, 2), (1, 2), (2, 0), (2, 1), (2, 2), (2, 3), (3, 2), (4, 2) B = {(0, 0), (0, 1) X B = {(2, 0), (2, 1), (2, 2)} (2.35) En la figura 2.23 A) presenta una imagen binaria y en B) la respectiva erosión por el elemento estructural B), en donde se observa la desaparición de contornos existentes en la imagen original A), el número de pixeles removidos dependerá de la forma y tamaño del elemento estructural B. (a) Imagen binaria original (b) Imagen binaria erosionada (c) Elemento estructural Figura 2.23: Erosión binaria Las operaciones morfológicas de la erosión y la dilatación no son invertibles, es decir, una imagen es erosionada y luego dilatada, no regresa a su forma original Apertura y cerradura morfológica. La apertura es una transformación morfológica que resulta de una erosión seguida de una dilatación. La apertura de una imagen X por un elemento estructural B se define

45 Capítulo 2. Fundamentos 33 en la expresión X B = (X B) B (2.36) La apertura morfológica elimina objetos pequeños, suaviza los contornos de los objetos, y separa o rompe uniones pequeñas entre los objetos. En la figura 2.24 se muestra el resultado de la operación de apertura, en A) la imagen original, y en B) la imagen resultante, en la cual los objetos más pequeños con respecto al elemento estructurante fueron eliminados y los bordes fueron suavizados. (a) Imagen binaria original (b) Imagen binaria con apertura Figura 2.24: Apertura binaria La cerradura es una transformación morfológica que resulta de una dilatación seguida de una erosión. La cerradura de una imagen X por un elemento estructural B se define en la expresión X B = (X B) B (2.37) La cerradura elimina pequeños huecos dentro de los objetos, une o fusiona pequeñas separaciones entre estos, y rellena pequeñas entradas. En la figura 2.25 se muestra el resultado de la operación de cerradura, en A) la imagen original, y en B) la imagen resultante, en la cual los pequeños huecos dentro de los objetos fueron rellenados y se unieron pequeñas separaciones entre estos.

46 Capítulo 2. Fundamentos 34 (a) Imagen binaria original (b) Imagen binaria con cerradura Figura 2.25: Cerradura binaria Extracción de frontera a través de operadores morfológicos. A través de los operadores básicos de la morfología matemática se puede extraer la frontera o borde de un objeto en una imagen binaria o en niveles de gris. Asi la frontera de un conjunto A escrita como β(a), se obtiene erosionando A por un elemento estructurante B, para posteriormente calcular la diferencia entre A y la erosión de A. En la figura 2.26 A)muestra la imagen original, B) muestra la imagen en grises, en C) la erosión de B), y en D), la frontera de B, resultado de la diferencia entre B) y C). (a) A) imagen original (b) B) imagen en niveles de gris (c) C) imagen erosionada (d) D) diferencia entre B) y C) Figura 2.26: Extracción de Frontera

47 Capítulo 2. Fundamentos Reconstrucción morfológica. La reconstrucción, es una herramienta muy útil que provee la Morfología Matemática [10]. Generalmente se presentan como parte de un conjunto de operadores que reciben el nombre de operadores geodésicos [11]. La reconstrucción es muy utilizada y conocida en el procesamiento de imágenes binarias, donde simplemente se extraen las componentes conectadas de una imagen, a partir de una imagen marcador. Este operador también puede ser definido en imágenes con niveles de gris, pudiéndose utilizar en distintas etapas del procesamiento de imágenes como filtrado, segmentación o extracción de características [12] Reconstrucción en niveles de gris. Sean f y b dos funciones con dominio D y E, se definen las operaciones morfológicas de erosión y dilatación de imágenes en niveles de gris en el intervalo [0..N max ] como: Dilatación : δ b (f) = sup{f(x z) + b(z) : zɛe; x zɛd} (2.38) Erosión : δ b (f) = sup{f(x z) + b(z) : zɛe; x zɛd} (2.39) La dilatación geodésica elemental de una imagen f, por un elemento estructurante b, condicionada a g, f g, se define como: δ (1) b,g (f) = ä b(f) g,siendo el ínfimo (2.40) La dilatación geodésica en niveles de gris de tamaño n, n 0, se define como: ä (n) b,g = ä (1) b,g (ä(1) b,g (...ä(1) b,g (f))) } {{ } n veces (2.41) La erosión geodésica elemental de una imagen f, por un elemento estructurante b, g f se define como: ȧ (1) b,g = ȧ b(f) g,siendo el supremo (2.42)

48 Capítulo 2. Fundamentos 36 La erosión geodésica en niveles de gris de tamaño n, n 0, se define como: ε (n) b,g = ε (1) b,g (ε(1) b,g (...ε(1) b,g (f))) } {{ } n veces (2.43) La apertura geodésica morfológica de la imagen f, se define como: γ b,g (f) = δ b,g (ε b,g (f)) (2.44) Y la cerradura geodésica morfológica como: φ b,g (f) = ε b,g (δ b,g (f)) (2.45) Con las operaciones anteriores se construye la definición de la reconstrucción en niveles de gris. La reconstrucción en niveles de gris de ρ g (f) de una imagen g a partir de una imagen marcador f, f g, se obtiene iterando repetidamente dilataciones geodésicas en niveles de gris, con un elemento estructurante b, hasta que no se producen nuevas modificaciones [10], es decir: ñ g (f) = n 1 ä (n) b,g (f) (2.46) La aplicación más importante de la reconstrucción es eliminar o filtrar las partes que no son de interés, para posteriormente reconstruir las que sí lo son.

49 Capítulo 2. Fundamentos La transformada de Fourier. Uno de los variados usos de la transformada de Fourier (TF) es en el análisis de imágenes, como por ejemplo en la detección de bordes al localizar las altas frecuencias de estos en la función de la imagen, también se utiliza en la correlación rápida mediante el teorema de convolución, compresión de imágenes, etc. Las propiedades de la función de una imagen 2.2 se pueden descomponer usando una combinación lineal de funciones ortogonales como es el caso de la transformada de Fourier. La transformada de Fourier (TF) bidimensional de la función imagen f(x, y) se define por la doble integral en la ecuación F (u, v) = La transformada inversa de Fourier se define en f(x, y)e j2π(xu+yv) dxdy (2.47) F (x, y) = f(u, v)e j2π(xu+yv) dudv (2.48) Los parámetros (x, y) representan las coordenadas de la imagen, y las coordenadas (u, v) son llamadas frecuencias espaciales. La función f(x, y) en la ecuación anterior se interpreta como una combinación lineal de funciones de base periódicas e j2π(xu+yu). Los componentes reales e imaginarios de estas funciones base son el seno y coseno, y la función F (u, v) es una función peso que significa la influencia de las funciones base. La TF es lineal, esto es, para dos constantes arbitrarias complejas a y b se tiene: F {f(x x 0, y y 0 )} = F (u, v)e j2π(ux 0+vy 0 ) Si F {f(x, y)} = F (u, v) y (x 0, y 0 ) entonces: F {f(x x 0, y y 0 )} = F (u, v)e j2π(ux 0+vy 0 ) Esto indica que la TF de una función desplazada en el espacio es la misma que la de la transformada de la función original multiplicada por un factor exponencial con una fase lineal. La propiedad del desplazamiento en el dominio de la frecuencia significa que si F (u, v) se desplaza por las constantes (u0, v0) su transformada inversa se multiplica por e j2π(ux 0+vy 0 ) es decir:

50 Capítulo 2. Fundamentos 38 F { f(x, y)e j2π(ux 0+vy 0 ) } = F (u u 0, v v 0 ) Dado que la traslación se deriva de la magnitud de la TF es invariante a los desplazamientos de entrada., lo que permite a los filtros lineales localizar objetos en una imagen La transformada discreta de Fourier. La transformada discreta de Fourier (DFT) se utiliza para manejar imágenes digitales. La DFT esta dada por la ecuación F (u, v) = 1 MN x=0 y=0 M 1 N 1 f(x, y)e j2π(xu/m+yv/n) (2.49) para u = 0, 1,..., M 1 y v = 0, 1,..., N 1 y f(x, y) = x=0 y=0 M 1 N 1 F (u, v)ej2π(xu/m+yv/n), y x = 0, 1,..., M 1 y y = 0, 1,..., N 1. Donde MXN indica las dimensiones de la imagen. Para calcular la DFT se utiliza la transformada rápida de Fourier (FFT), la cual reduce el número de multiplicaciones y sumas complejas de un orden N 2 a Nlog 2 N lo que resulta en un ahorro de tiempo cuando N es grande Teorema de correlación. La integral de correlación es de suma importancia para aplicaciones reales. La correlación para funciones reales se puede definir como [4]: f(x, y)og(x, y) = El teorema de correlación indica que: f(x, y )g(x x, y y)dx dy (2.50) F {f(x, y) g(x, y)} = F (u, v)g (u, v), F {f(x, y)g (x, y)} = F (u, v) G (u, v) (2.51) Por lo tanto la correlación se puede calcular por la ecuación 2.52: f(x, y) g(x, y) = F 1 {F (u, v)g (u, v)} (2.52)

51 Capítulo 2. Fundamentos 39 Donde el superíndice * indica el complejo conjugado. Si f(x, y) y g(x, y) son corresponden a la misma función en la ecuación 2.50 entonces se trata de una función de autocorrelación, si las funciones son distintas entonces se conoce como correlación cruzada. La correlación es un método usado para detectar cualquier similitud entre dos señales que varían en el tiempo, así de acuerdo con el teorema de correlación, la correlación se puede calcular tanto en el dominio espacial (efectuando las operaciones directamente sobre los pixeles de una imagen) o bien en el dominio de las frecuencias (multiplicando las transformadas de Fourier de las funciones involucradas)[13] Filtros correlacionadores En el área de reconocimento de patrones, los métodos de correlación son un campo en la computación que progresa continuamente. Los filtros correlacionadores utilizan principalmente la información del contorno [14] de los objetos a buscar para realizar el reconocimiento. Los filtros correlacionadores tienen la propiedad de ser invariantes al desplazamiento y la localización de un objeto dentro de una escena se logra analizando los picos de correlación en el plano de salida Funciones discriminantes sintéticas Las funciones discriminantes sintéticas (SDF) son un método para diseñar filtros correlacionadores que sean invariantes a cambios de escala, rotación y diferencia en iluminación [15]. El método de las SDF básico utiliza un conjunto de N imágenes de entrenamiento s 1 (x, y), s 2 (x, y),..., s N (x, y) de los objetos a buscar, de esta forma una imagen h(x, y) compuesta se forma de estas N imágenes de entrenamiento (ecuación 2.53): h(x, y) = a 1 s 1 (x, y) + a 2 s 2 (x, y),..., a N s N (x, y) (2.53) En donde los coeficientes a 1,..., a N se seleccionan de una manera tal que cuando h(x, y) es correlacionada con s i (x, y), se define una constante c i como valor de salida para el origen, esto es (ecuación 2.54):

52 Capítulo 2. Fundamentos 40 h(x, y)s i (x, y)dxdy = c i (2.54) para i = 1, 2,..., N Si las N imágenes de entrenamiento pertenecen a la misma clase. Entonces c i = 1 para toda i, asi todas las imágenes de entrenamiento producirán el mismo valor en el origen de la salida. Si el conjunto de imágenes contiene dos clases distintas, se puede asignar a c i = 1 para todas las imágenes de la clase deseada, y c i = 0 para las imágenes de la clase no deseada. Cuando el filtro se aplica se espera que el valor de salida de la correlación sea cercano a 1 para las imágenes de clase buscada y 0 para las imágenes de la clase no deseada. Las N incógnitas de la ecuación 2.53 se resuelven utilizando las N ecuaciones lineales de la ecuación Sustituyendo la ecuación 2.53 en 2.54 se obtiene la siguiente ecuación: Ni=1 a i R ij = c j, para j = 1, 2,..., N (2.55) donde R ij s i (x, y)s j (x, y)dxdy (2.56) Las N ecuaciones en 2.55 se puede compactar de la siguiente manera Ra = c (2.57) Donde a = [a 1, a 2,..., a N ] T, c = [c 1, c 2,..., c N ] T, y R es una matriz NXN con R ij en la (i, j)-ésima posición. Si ordenamos las imágenes de entrenamiento [s i (x, y) y la imagen compuesta h(x, y) en vectores columna, se obtiene s 1,..., s N y h. Se asume que estos vectores columnas tienen d elementos (el numero de pixeles en s i (x, y)). Entonces la ecuación 2.53 se reescribe como H = Sa (2.58) donde S = [s 1, s 2,..., s N ] (2.59) Utilizando las ecuaciones 2.57 y 2.58 se reescribe la ecuación del vector h como:

53 Capítulo 2. Fundamentos 41 h SDF = SR 1 c (2.60) Dado que R = S T S, entonces h SDF se puede reescribir como h SDF = S(S T S) 1 c (2.61) 2.16 Filtrado por correlación Una vez que se genera un filtro, el reconocimiento de objetos por filtrado por correlación en general se resume en los siguientes pasos: 1: Generar el filtro H(u,v) 2: Calcular la transformada de Fourier de la escena de entrada s(x, y): S(u, v) = F [s(x, y)] 3: Multiplicar S(u, v) por la función filtro H(u, v) 4: Recibir el plano de correlación al aplicar la TFI al resultado en (3): c(x, y) = F 1 [S(u, v)h(u, v)] 5: Localizar y analizar los picos en la salida de la correlación c(x, y)

54 CAPITULO 3 Metodología "Al principio todos los pensamientos pertenecen al amor. Después, todo el amor pertenece a los pensamientos." (Albert Einstein) 3.1 Introducción Debido a que los métodos de segmentación actuales para imágenes de células están diseñados para imágenes con características muy específicas, como forma, color, área, etc. y para poder alcanzar los objetivos de la investigación, se desarrolló una metodología general (Figura 3.1). En esta metodología como etapa inicial se prepara un conjunto de imágenes como entrada, a las cuales en una segunda etapa se les elimina el fondo mediante una serie de operadores morfológicos y filtros de área. En una tercera etapa se aplica un filtro SDF para detectar los puntos de correlación más altos en la imagen en donde se encuentran las células de interés Figura 3.1: Metodología general propuesta 42

55 Capítulo 3. Metodología 43 A continuación mediante estos puntos se realiza una reconstrucción morfológica. A la imagen resultante de la reconstrucción morfológica se le aplica un filtro de compacidad para obtener los objetos que tengan la forma geométrica de una célula, para finalmente aplicar una clasificación por área de estas. Para realizar cada una de las operaciones de las etapas de la metodología propuesta se utilizó como editor de imágenes el software de Adobe PhotoShop CS5 v12.0 y para el procesamiento digital de las imágenes se utilizó MatLab R2013a. 3.2 Determinación de características Antes de iniciar con la metodología propuesta fue necesario determinar dos características de las células en las imágenes, el área y el FC. Para llevar a cabo un filtrado por FC y área (sección 2.9 y 2.9.1), fue necesario determinar los rangos de valores mínimo y máximo de estas características respectivamente para cada una de las clases de células Separación manual de clases Para esto se realizó una clasificación y separación de forma manual de cada una de las clases, extrayendo las muestras de las células de la imagen de la figura 3.2, para posteriormente generar 3 archivos en formato BMP con cada una de las clases respectivamente. En la clase 1 se utilizaron 76 muestras (figura 3.34), para la clase 2 se usaron 64 muestras (figura 3.35), y finalmente para la clase 3, 25 muestras (figura 3.36) Figura 3.2: Corte histológico de células de ovositos

56 Capítulo 3. Metodología 44 Figura 3.3: Imagen de la clase 1 con 76 muestras. Figura 3.4: Imagen de la clase 2 con 64 muestras Figura 3.5: Imagen de la clase 3 con 25 muestras Umbralización y filtrado espacial por área de las imágenes generadas de las clases 1, 2, y 3 Una vez generadas las imágenes con cada una de las clases, se realizó una separación de las células y el fondo utilizando el método de Otsu (sección ) para obtener

57 Capítulo 3. Metodología 45 el umbral óptimo, para posteriormente mediante un proceso de umbralización (sección 2.7.1) binarizar cada una de las ellas. A cada una de las imágenes binarizadas se les aplicó un filtro espacial por área para eliminar las pequeñas regiones resultantes de la umbralización, así para la clase uno se eliminaron las regiones menores a 5 pixeles de área, y para la clase 2 y 3 menores a 100 pixeles de área. En la figura 3.6,3.8 y 3.10 se presentan las imágenes de las muestras de células por clase, y en las figuras 3.7, 3.9 y 3.11 las imágenes resultantes binarizadas. Figura 3.6: Imagen original clase 1 Figura 3.7: Imagen binarizada clase 1

58 Capítulo 3. Metodología 46 Figura 3.8: Imagen original clase 2 Figura 3.9: Imagen binarizada clase 2

59 Capítulo 3. Metodología 47 Figura 3.10: Imagen original clase 3 Figura 3.11: Imagen binarizada clase 3

60 Capítulo 3. Metodología Calculo de máximos y mínimos de área y factor de compacidad de cada clase Posterior a la umbralización, se procedió a calcular los mínimos y máximos de área y factor de compacidad para cada una de las clases. En la figura 3.12 se muestra el resultado del cálculo del valor mínimo y máximo de área para cada una de las clases en donde para la clase 1 se puede apreciar que los valores son de 105 y 441, para la clase 2 es de 637 y 1390, y finalmente para la clase 3 es de 1463 y En la figura 3.13 se muestran los correspondientes valores para el FC, donde para la clase 1 los valores son de y , para la clase 2, y , y finalmente para la clase 3 son de y Figura 3.12: Mínimos y máximos de área por clase de células Figura 3.13: Mínimos y máximos del FC por clase de células

61 Capítulo 3. Metodología Etapa de preprocesamiento Uno de los aspectos importantes en las imágenes de células de los cortes histológicos de los ovocitos, es la frontera de la separación entre células y fondo. Sin una correcta definición en estas fronteras durante el proceso de segmentación produce que fragmentos de fondo y células queden unidos en un solo objeto, así como también produce que dos o más células queden unidas formando conglomerados de células Mejoramiento de la nitidez Para dar un mayor énfasis a la frontera de las células en las imágenes, y para minimizar los conglomerados de células y células con secciones de fondo unido durante la segmentación, se aplicó un filtro de mejoramiento de la nitidez unsharp mask (sección 2.8.3). En las figuras 3.14 y 3.15 se muestran algunos resultados de la aplicación del filtro a dos imágenes de entrada, se puede observar como mejora la nitidez de la imagen de entrada, resaltando la frontera entre las células. (a) (b) Figura 3.14: A) Entrada B)Salida (a) (b) Figura 3.15: A) Entrada B)Salida

62 Capítulo 3. Metodología Eliminación de fondo de la imagen Una vez que se realiza el pre procesamiento de la imagen, se llevan a cabo el siguiente proceso general (figura 3.16) para llevar a cabo la eliminación del fondo. Figura 3.16: Proceso general de eliminación de fondo Conversión RGB a HSV Para realizar una mejor segmentación de las células en las imágenes de los cortes histológicos se utilizó el modelo de color HSV (sección 2.5.2). En la figura 3.17 se muestra el resultado de la conversión del modelo RGB al modelo HSV (sección 2.5.4), en A) se encuentra la imagen en el modelo RGB y en B) la imagen resultante en el modelo HSV, en donde se puede apreciar que las células quedan con un color distinto al fondo.

63 Capítulo 3. Metodología (a) 51 (b) Figura 3.17: A) Corte histológico en RGB B)Corte histológico en HSV Umbralización mediante el método de OTSU en los canales S y V Para realizar una umbralización adecuada se analizó el histograma en el modelo HSV en cada uno de sus tres componentes. En la figura 3.18 se muestra el histograma del componente H (matiz) de la figura 3.17 A, en donde el nivel de intensidad del color se centra en un rango muy estrecho con valores entre 0.8 y 0.9 normalizado, por lo que no se puede realizar una segmentación adecuada utilizando este canal. Figura 3.18: Histograma del componente H Por otro lado en los componentes S (saturación) y V (valor) (figura 3.19 y 3.20) se observa una distribución uniforme, y en el caso del canal V, una distribución bi modal, por lo que se optó por hacer una umbralización basándose en estos dos canales. El umbral óptimo se encontró mediante el método de OTSU (sección ), siendo para el caso particular del histograma en S, , y para el histograma del componente V de

64 Capítulo 3. Metodología 52 Figura 3.19: Histograma del componente S. Los valores superiores a corresponden a los niveles de intensidad de las células y los inferiores al fondo Figura 3.20: Histograma del componente V. Los valores inferiores a corresponden a los niveles de intensidad de las células y los superiores al fondo Una vez que se obtienen los valores óptimos de los umbrales se procede al proceso de umbralización (sección 2.7.1). En la figura 3.21 se muestra la imagen binaria resultante del proceso de umbralización. Figura 3.21: Resultado del proceso de umbralización

65 Capítulo 3. Metodología Rellenado de hoyos Una vez realizado el proceso de umbralización se rellenan los huecos que puedan presentar los objetos resultantes en la binarización, con la finalidad de recuperar los objetos que correspondan a células de forma completa, es decir, que contengan el núcleo de la misma. En la figura 3.22 se indican algunas células con núcleo indicados, y en la figura 3.23 se muestra la imagen binaria tras realizar el rellenado de huecos. Figura 3.22: Imagen Binaria con núcleos marcados Figura 3.23: Imagen Binaria sin huecos

66 Capítulo 3. Metodología Apertura morfológica El siguiente filtro utilizado en la metodología propuesta es un filtro morfológico por apertura. La apertura morfológica se puede definir como una erosión seguida de una dilatación (sección ): X B = (X B) B La apertura morfológica permitió remover pequeños objetos (menores al tamaño del elemento estructurante), y separar objetos que se encontraban débilmente conectados por pequeñas zonas estrechas, así como los pequeños salientes en las células. La figura 3.24 muestra el elemento estructurante utilizado en forma de ovalo con radio tres. Se eligió esta forma porque es la más parecida a las células. Figura 3.24: Elemento estructurante con radio igual a tres La figura 3.25 muestra la imagen binaria antes de realizar la apertura morfológica, donde se marcan las zonas que fueron removidas con la operación así como componentes que se encontraban conectadas. La figura 3.26 representa la imagen binaria resultante tras aplicar la apertura morfológica, en la cual se remueven objetos pequeños, y se logran separar algunos componentes.

67 Capítulo 3. Metodología 55 Figura 3.25: Imagen binaria antes de aplicar la apertura morfológica Figura 3.26: Imagen binaria resultante tras aplicar la apertura morfológica Filtro de área Con la finalidad de eliminar aquellos objetos que no fueron removidos por la apertura morfológica, se aplicó un filtro de área, en el cual se remueven los objetos que sean más pequeños que las células de clase 1, el cual es de 105 px (sección 3.2.3). La figura 3.27 presenta la imagen binaria antes de aplicar el filtro del área, mientras que la figura 3.28 muestra el resultado de la aplicación del filtro, donde se pueden ver los objetos removidos por este.

68 Capítulo 3. Metodología 56 Figura 3.27: Imagen binaria antes de aplicar el filtro de área Figura 3.28: Imagen binaria resultado de aplicar el filtro de área Cerradura morfológica El último filtro utilizado para eliminar el fondo es el filtro morfológico por cerradura. La cerradura morfológica se puede definir como una dilatación seguida de una erosión (sección ): X B = (X B) B

69 Capítulo 3. Metodología 57 La cerradura morfológica logró unir componentes conexas cercanas, lo que permitió cerrar células para recuperar su núcleo. La figura 3.24 muestra el elemento estructurante utilizado. La figura 3.29 presenta la imagen binaria antes de realizar la cerradura morfológica, en la cual se marcan algunos componentes que se unieron tras esta operación, mientras que la figura 3.30 es el resultado tras aplicar el filtro por cerradura morfológica donde se observan los objetos unidos o cerrados. Figura 3.29: Imagen binaria antes de aplicar la cerradura morfológica Figura 3.30: Imagen binaria resultante tras aplicar la cerradura morfológica

70 Capítulo 3. Metodología Recuperación de los niveles de gris Finalmente se utiliza la imagen binaria resultante del filtro de cerradura morfológico como máscara para recuperar los niveles de gris de la imagen original, y eliminar el fondo de esta. Para esto se hace una verificación pixel a pixel de la imagen binaria en donde si el valor es 0, en la imagen original en niveles de gris se establece a 0, si el valor es 1 en la imagen binaria, se conserva el valor en la imagen en niveles de gris, como lo indica la siguiente expresión: g(x, y) si b(x, y) = 1 g(x, y) = 0 si b(x, y) = 0 Donde g(x, y) es el nivel de gris del punto (x, y) en la imagen original en niveles de gris, y b(x, y) es el valor de la imagen binaria en el punto (x, y). La figura 3.31 presenta la imagen original en niveles de gris, la figura 3.32 la imagen binaria utilizada como máscara y la figura 3.33 la imagen resultante con el fondo suprimido. Figura 3.31: Imagen original en niveles de gris

71 Capítulo 3. Metodología 59 Figura 3.32: Imagen binaria utilizada como máscara Figura 3.33: Imagen en niveles de gris con el fondo suprimido

72 Capítulo 3. Metodología Filtro SDF Como se comentó en la sección 2.15, los filtros correlacionadores tienen la propiedad de ser invariantes al desplazamiento y la localización de los objetos a buscar en la escena, en el caso particular de las SDF funcionan también para cambios de escala, rotación y diferencias de iluminación. Los pasos generales para aplicar el filtro SDF son los siguientes (sección 2.16) : 1: Generar el filtro H(u,v) 2: Calcular la transformada de Fourier de la escena de entrada s(x, y): S(u, v) = F [s(x, y)] 3: Multiplicar S(u, v) por la función filtro H(u, v) 4: Recibir el plano de correlación al aplicar la TFI al resultado en (3): c(x, y) = F 1 [S(u, v)h(u, v)] 5: Localizar y analizar los picos en la salida de la correlación c(x, y) Generar filtro SDF Para formar el filtro SDF (sección ) se utilizó un conjunto de 30 imágenes de muestra, 10 de cada clase de células. En la figura 3.34 se presenta el conjunto de imágenes utilizadas de clase 1, la figura 3.35 el conjunto de imágenes de clase 2 y la figura 3.36 presenta el conjunto de imágenes de clase 3. Como se puede observar se utiliza la información de la célula completa en las muestras, así mismo estas fueron tomadas de diferentes imágenes de cortes histológicos.

73 Capítulo 3. Metodología 61 (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) Figura 3.34: Conjunto de muestras de clase 1 utilizada (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) Figura 3.35: Conjunto de muestras de clase 2 utilizada

74 Capítulo 3. Metodología 62 (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) Figura 3.36: Conjunto de muestras de clase 3 utilizada Una vez formado el filtro H(u, v), se calcula la transformada de Fourier para la imagen de entrada S(u, v) = F [s(x, y)], es decir, de la imagen sin fondo de la etapa anterior de la metodología, para posteriormente multiplicar S(u, v) por la función filtro H(u, v) generada a partir de las imágenes de muestra Análisis de los picos de salida del plano de correlación Una vez que se realiza la multiplicación de S(u, v) por la función filtro H(u, v) se recibe el plano de correlación. Dado que la constante c i se definió con un valor de 1, el valor máximo que puede contener el plano de correlación es 1 (sección ). En la figura 3.38 muestra el plano de correlación c(x, y) obtenido, utilizando como imagen de entrada de la figura 3.37, donde se puede observar que los puntos más brillantes contienen los valores más altos de correlación, es decir, que estos puntos en el plano corresponden a las células con núcleo buscadas en la imagen de entrada.

75 Capítulo 3. Metodología 63 Figura 3.37: Imagen de entrada S Figura 3.38: Plano de correlación c(x, y) En la figura 3.39 se presentan los valores del plano de correlación obtenidos en la figura 3.38 en un plano en 3D, en la cual se pueden apreciar de mejor forma los picos de correlación. Los picos más altos están marcados en color rojo y contienen los valores más altos de correlación, mientras que los más bajos corresponden al anaranjado, amarillo y azul respectivamente.

76 Capítulo 3. Metodología 64 Figura 3.39: Plano de correlación c(x, y) en 3D con valores normalizados a 255 La figura 3.40 presenta el valor de un pico de correlación alto en las coordenadas x = 507, y = 547 y con valor z = 255, y la figura 3.41 el valor de correlación de un pico bajo en las coordenadas x = 431, y = 256 y con valor z = 134. Figura 3.40: Pico de correlación alto en las coordenadas x = 519, y = 384 y con valor z = 252

77 Capítulo 3. Metodología 65 Figura 3.41: Pico de correlación bajo en las coordenadas x = 90, y = 39 y con valor z = 160 Una vez generada la matriz de correlación se obtuvieron los puntos de correlación de interés que se encontraron entre los valores de 0.7 y 1, los cuales se presume que corresponden a células con núcleo. En la figura 3.42 se muestran los puntos de interés obtenidos a partir de la matriz de correlación. Figura 3.42: Puntos de interés obtenidos de la matriz de correlación

78 Capítulo 3. Metodología Reconstrucción morfológica a partir de los puntos de interés La reconstrucción morfológica permite recuperar componentes conectadas a partir de una imagen marcador, es decir, permite filtrar las partes que no son de interés, para posteriormente reconstruir las que sí lo son. La matriz de puntos de interés obtenidos en la sección anterior se utilizó para recuperar los niveles de gris de la imagen 3.37, para posteriormente ser utilizada como máscara. Para esto se hizo una verificación pixel a pixel de la matriz con los puntos de interés en donde si el valor es mayor a 0, se conserva el valor en la imagen en niveles de gris, como lo indica la siguiente expresión: g(x, y) si c(x, y) > 0 g(x, y) = 0 si c(x, y) = 0 Donde c(x, y) es el valor de correlación de interés del punto (x, y) en la matriz de correlación, y g(x, y) es el valor del nivel de gris en el punto (x, y) en la imagen original. La figura 3.43 muestra la imagen con los puntos de interés en niveles de gris recuperados. Figura 3.43: Puntos de interés obtenidos de la matriz de correlación Como se comentó en la sección para realizar la reconstrucción en niveles de gris de ρ g (f) de una imagen g a partir de una imagen marcador f, f g, se obtiene iterando repetidamente dilataciones geodésicas en niveles de gris, con un elemento estructurante b, hasta que no se producen nuevas modificaciones [10], es decir: ñ g (f) = n 1 ä (n) b,g (f)

79 Capítulo 3. Metodología 67 La figura 3.44 presenta el resultado del proceso de reconstrucción morfológica, en A) la imagen original, en B) la imagen marcador, en C) la imagen resultado de la reconstrucción morfológica, y en D) la imagen con los objetos que fueron filtrados por la reconstrucción morfológica. (a) (b) (c) (d) Figura 3.44: A) Imagen de entrada, B) Imagen marcador, C)Resultado de la reconstrucción morfológica y C) zonas filtradas por la reconstrucción morfológica 3.7 Filtro por factor de compacidad Como se comentó en la sección 2.9 los rasgos geométricos son mediciones que se pueden obtener a partir del número de pixeles de un objeto en una imagen. El factor de compacidad es un rasgo geométrico compuesto que describe la forma de un objeto y además es invariante a rotaciones, traslaciones y cambios e escala. Se determina mediante la expresión: F C = P 2 4π(A)

80 Capítulo 3. Metodología 68 En la sección 3.2 se determinaron los valores de compacidad para cada una de las tres clases de células. En la tabla 3.1 se muestran los valores mínimos y máximos del FC para cada clase. Tabla 3.1: FC para cada una de las clases Clase Mínimo Máximo Dado que el factor de compacidad describe la forma de los objetos se utilizó para realizar un filtrado, de tal manera que se puedan separar las células que se encuentran aisladas, es decir, que no se encuentren unidas a otra célula u objeto que forme parte del fondo, de las que si lo están. La figura 3.45 muestra la imagen resultante de la reconstrucción morfológica en la cual se indican algunas células aisladas y algunos conglomerados. Figura 3.45: Imagen con marcas de conglomerados y células aisladas La figura 3.46 presenta el resultado de la aplicación del filtro por FC a la imagen resultante de la reconstrucción morfológica del proceso anterior, en A), se muestra la imagen origen, en B), las células que pasaron el factor de compacidad, donde se puede observar que son las que se encuentran aisladas, y en C) las que no pasaron los rangos del factor de compacidad, las cuales en su mayoría forman conglomerados con otros objetos.

81 Capítulo 3. Metodología 69 (a) (b) (c) Figura 3.46: A) Células obtenidas de la reconstrucción morfológica, B)Células que pasaron el filtro del FC, C)Objetos que no pasaron el filtro por FC 3.8 Eliminación de fronteras de las células Con el filtro de compacidad se lograron separar la mayor parte de las células que se encontraban aisladas, sin embargo existen células que no lograron pasar el filtro por FC porque formaban conglomerados o porque la forma no entraba en los rangos establecidos del FC. Con la finalidad de separar las células que se encontraban unidas con otras o con parte del fondo, se extrajeron la frontera de las mismas para poder aislar nuevamente las células. La extracción de la frontera se realizó por medio de operadores morfológicos (sección ), así la frontera de un conjunto A escrita como β(a), se obtiene erosionando A por un elemento estructurante B, para posteriormente calcular la diferencia entre A y la erosión de A. En la figura 3.47 muestra en A) La imagen de las celulas unidas, en B)

82 Capítulo 3. Metodología 70 la erosión de A), en C), la frontera de A, resultado de la diferencia entre A) y B) y en D)la imagen A menos la frontera extraída en C. (a) A) Imagen con células unidas (b) B) Imagen erosionada (c) C) Diferencia entre A) y B) (d) D) Imagen A menos la frontera extraída en B Figura 3.47: Extracción de Frontera de las células Una vez extraídos las fronteras de las células en los conglomerados y después de haberlas eliminado de la imagen de la figura 2.26 (B), se repite nuevamente el proceso cuatro veces de forma iterativa como se indica en el siguiente algoritmo 1, las células aisladas se van sumando en otra imagen.

83 Capítulo 3. Metodología 71 Algorithm 1 Proceso iterativo de obtención de células Require: Imagen con conglomerados resultante de la eliminación de frontera, K = 1 1: while K 4 do 2: Aplicar filtro SDF a imagen con conglomerados de células 3: Analizar picos de correlación y obtener imagen de marcas 4: Realizar reconstrucción Morfologica 5: Aplicar filtro de compacidad a la imagen resultado de la reconstrucción morfológica 6: Obtener celulas aisladas y eliminar fronteras de conglomerados de células 7: Incrementar K 8: end while La figura 3.48 A) presenta el resultado tras finalizar los pasos anteriores, en donde se muestran un total de 146 células aisladas pertenecientes a las tres clases, y en B)las células que no se lograron identificar tras el proceso de eliminación de fronteras. (a) 146 células aisladas (b) Células no identificadas Figura 3.48: Total de células aisladas

84 Capítulo 3. Metodología Clasificación Una vez que se realizó el reconocimiento y separación de las células en el procedimiento anterior, se procedió a clasificar las células en clases uno, dos y tres, utilizando el área de las mismas como criterio de clasificación. En la sección 3.2 se calcularon los rangos mínimos y máximo de área en pixeles de cada una de estas. La tabla 3.2 presenta los valores para cada clase. Tabla 3.2: Mínimos y máximos de área para cada una de las clases Clase Mínimo Máximo px 141 px px 1390 px px 2326 px Con estos valores se realizo una clasificación booleana como se indica en la tabla 3.3: Tabla 3.3: Criterio de clasificación por área. nopx = área de la célula en pixeles. Clase Criterio de clasificación 1 nopx > 104 and nopx <= nopx > 637 and nopx <= nopx > 1463 and nopx <= 2326 No clasificada nopx > 2326 La figura 3.49 muestra el resultado de clasificación, en A) la imagen con las celulas aisladas, en B) las células que pertenecen a la clase 1, en C) las células que pertenecen a la clase 2 y en D) las celulas que pertenecen a la clase 3.

85 Capítulo 3. Metodología 73 (a) Imagen con células aisladas (b) 28 células clase 1 (c) 90 células clase 2 (d) 26 células clase 3 Figura 3.49: Clasificación de células

86 CAPITULO 4 Resultados "El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." (Albert Einstein) 4.1 Resultados Con la finalidad de analizar el desempeño de la metodología propuesta, se procesaron 12 imágenes proporcionadas por los investigadores del departamento de histología del CIBNOR. Las imágenes procesadas están en formato BMP y cuentan con una resolución de 1384 x 1040 pixeles. La tabla 4.1 muestra los resultados del conteo manual por clase de cada una de las imágenes originales sin ningún tipo de tratamiento, la primera columna representa el nombre del archivo, y el resto de ellas el número de células contadas por clase. Tabla 4.1: Conteo manual por clase en las imágenes de prueba. Archivo Conteo manual C1 Conteo manual C2 Conteo manual C3 4x3.bmp x5.bmp x7.bmp x8.bmp x14.bmp x17.bmp x18.bmp x21.bmp x31.bmp

87 Capítulo 4. Resultados 75 La tabla 4.2 presenta los resultados de un conteo manual resultante de la primera de la reconstrucción morfológica en la metodología, en donde se observa que el porcentaje más bajo de reconocimiento de las células es de 36.36%, esto es debido a las diferencias en la iluminación y tinción presentada en las imagenes, en tanto que el porcentaje más alto es de 85.29%, sin embargo, hasta esta etapa aún no se realiza una separación automática por clase. Tabla 4.2: Conteo manual resultado de la etapa de reconstrucción morfológica. Archivo Conteo C1 Conteo C2 Conteo C3 % de Reconocimiento 4x3.bmp x5.bmp x7.bmp x8.bmp x14.bmp x17.bmp x18.bmp x21.bmp x31.bmp La siguiente tabla 4.3 muestra el número de células contadas de manera automática por la metodología en cada una de las clases, en donde se observa que el porcentaje más alto de reconocimiento es de 93.75%, y el más bajo es de 8.33%, sin embargo en el resultado más alto, existe gran cantidad de falsos positivos como lo indica la tabla 4.4. Los falsos positivos son resultado del parecido en los niveles de intensidad del núcleo de las células y el fondo de la imagen. Tabla 4.3: Conteo realizado por la metodología propuesta. Archivo Conteo C1 Conteo C2 Conteo C3 % de Reconocimiento 4x3.bmp x5.bmp x7.bmp x8.bmp x14.bmp x17.bmp x18.bmp x21.bmp x31.bmp

88 Capítulo 4. Resultados 76 Tabla 4.4: Conteo de falsos positivos de la metología propuesta. Archivo Falsos positivos 4x7.bmp 1 4x17.bmp 11 4x18.bmp 30 4x21.bmp 30 4x31.bmp 14 El porcentaje de reconocimiento de las células en la etapa de reconstrucción morfológica es superior al porcentaje resultante de la clasificación de la metodología propuesta, porque en el proceso de eliminación de frontera para realizar la separación de células unidas se pierde información que posteriormente es necesaria para que el filtro SDF realice el reconocimiento de las mismas en las siguientes etapas.

89 CAPITULO 5 Conclusiones y trabajo futuro "El amor por la fuerza nada vale, la fuerza sin amor es energía gastada en vano." (Albert Einstein) 5.1 Conclusiones y trabajo futuro El reconocimiento de patrones es un campo muy amplio en la investigación y se utilizan diversas técnicas para realizar el reconocimiento de objetos. En este trabajo de investigación se trató de reconocer y clasificar células de ovocitos de peces, mediante la aplicación de un filtro por correlación SDF. Durante este trabajo se presentó como principal obstáculo la heterogeneidad de las imágenes de muestra proporcionadas por los investigadores del CIBNOR, debido a la intensidad de la tinción utilizada en las mismas durante el proceso de preparación del tejido, así como la iluminación y contraste obtenido al capturar la imagen de microscopio, lo que dificultó la selección de muestras de células para conformar un filtro SDF que tuviera buen desempeño. Otro obstáculo presentado fue la obtención de conglomerados de células en donde dos o más células quedaban conectadas con otras o con parte del fondo de la imagen, y para realizar la separación se procedía a realizar la eliminación de la frontera, sin embargo este proceso elimina información de las células lo que ocasionó un menor reconocimiento por parte del filtro SDF. El mejor resultado de los experimentos logró reconocer hasta un 83%, sin embargo, para fines prácticos aun no es suficiente, pero como primera aproximación es aceptable debido a heterogeneidad mencionada. 77

90 Capítulo 5. Conclusiones y trabajo futuro 78 Como trabajo futuro queda implementar técnicas para mejorar y homogeneizar el contraste y la iluminación en las imágenes en la etapa de pre procesamiento, diseñar o implementar un método automatizado para la selección de muestras para formar un filtro SDF en el cual se garantice un desempeño óptimo, y finalmente aplicar técnicas diferentes para realizar la separación de conglomerados de células.

91 ANEXOS A Estancia IIMAS, Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo El siguiente trabajo es resultado de una estancia de posgrado realizada en la Universidad Autónoma de México (UNAM), y dentro del Instituto de Investigaciones Aplicadas en Matemáticas y Sistemas (IIMAS), con la tutoría de la Dra. María Elena Martínez Pérez y en colaboración con la Estudiante de Doctorado Tzolkin Garduño, el cual formo parte de mi formación en los estudios de la línea de investigación de procesamiento digital de imágenes. A.1 Introducción La diabetes mellitus es una enfermedad crónica sistémica, que ocurre cuando el páncreas no secreta la suficiente insulina, o cuando el cuerpo ya no puede procesarla, lo que produce un aumento en los niveles de glucosa en la sangre. Con el tiempo estos niveles elevados de glucosa provocan daños a los vasos sanguíneos, afectando al sistema nervioso, corazón, riñones, ojos y otros órganos del cuerpo. La diabetes mellitus provoca distintos tipos de condiciones médicas como la nefropatía diabética, cardiomiopatía diabética, neuropatía diabética y la retinopatía diabética (DR por sus siglas en inglés) [16]. La retinopatía diabética es una enfermedad crónica progresiva que puede poner en riesgo la vista. Se produce cuando la retina se daña debido a fugas de líquido de los vasos sanguíneos dentro de ésta, por los niveles altos de glucosa en la sangre. Los efectos 79

92 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 80 visuales de estas fugas son lesiones como micro aneurismas, hemorragias, exudados, manchas algodonosas, arrosariamiento venoso, etc. Un diagnóstico oportuno en la retinopatía diabética es esencial para el tratamiento que reduce el riesgo de pérdida de la visión. Las imágenes de fondo de ojo son utilizadas para realizar una evaluación de la retinopatía diabética, mediante el uso de computadoras para procesarlas utilizando técnicas de procesamiento digital de imágenes y reconocimiento de patrones. La retinopatía diabética es clasificada como no proliferativa (NPDR), y proliferativa (PDR), dependiendo de las lesiones presentes en ella. Así por ejemplo en la retinopatía diabética no proliferativa las características clínicamente visibles son micro aneurismas, hemorragias, anormalidades micro vasculares retinianas, arrosariamiento venosos, manchas algodonosas y exudados. Mientras que en el retinopatía proliferativa, se presenta la neo vascularización retiniana como principal característica [17]. La retinopatía no proliferativa puede ser clasificada en leve moderada y severa. Existen diferentes criterios para realizar esta clasificación dependiendo del número de lesiones y ubicación. En este sentido la Academia Americana de Oftalmología, tiene la siguiente escala internacional de severidad de retinopatía diabética [18]. Tabla A.1: Escala internacional de severidad de retinopatía diabética La ETDR (Early Treatment of Diabetic Retinopathy Study) establece la siguiente clasificación de la retinopatía diabética [19].

93 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 81 Tabla A.2: Escala de retinopatía diabética establecida por la ETDR Existen algunas bases de datos públicas de imágenes relacionadas con la retinopatía diabética, en particular la del programa Messidor [20], que es un programa de investigación financiado por el ministerio de investigación y defensa de Francia, y cuyo objetivo es comparar y evaluar los algoritmos de segmentación desarrollados para la detección de lesiones presentes en imágenes de color de retina así como la de administrar una base de datos de imágenes de fondo de ojo. El programa Messidor propone la siguiente tabla de escala de la retinopatía diabética para clasificar las imágenes de su base de datos:

94 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 82 Tabla A.3: Escala de clasificación de retinopatía diabética establecida por la Messidor A.2 Objetivo El objetivo del presente trabajo fue desarrollar los algoritmos para la clasificación de la retinopatía diabética en imágenes tomadas de fondo de ojo, en leve, moderada o severa. A.3 Estado del arte Para realizar una clasificación de la retinopatía en los niveles de leve, moderada y severa, fue necesario realizar una investigación del estado del arte del trabajo realizado en cuanto a clasificación se refiere. En las investigaciones encontradas se destacan principalmente dos tipos de clasificación, la primera donde la clasificación se basa en la presencia o ausencia de lesiones y ubicación dentro de la imagen de fondo de ojo, y la segunda se basa en métodos de reconocimiento de patrones como por ejemplo redes neuronales o máquinas de soporte de vectores. A continuación se enlistan las investigaciones relevantes encontradas con respecto al primer tipo. En [21] se realiza una clasificación de la retinopatía diabética en 3 clases: normal, anormal y desconocida, y se utiliza como criterio de clasificación la presencia de exudados en las imágenes de fondo de ojo, la investigación reporte una sensibilidad = 80 porciento, y una especificad = 71 porciento.

95 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 83 En [22] se desarrolla un sistema para detectar de manera automática las lesiones de la retinopatía diabética en imágenes digitales de retina así como una evaluación potencial de la enfermedad. El trabajo lleva a cabo una clasificación de la RD en dos clases: normal y anormal. Utiliza como criterio de clasificación la presencia o ausencia de micro aneurismas, hemorragias, exudados, en donde la ausencia produce una clasificación normal y la presencia anormal. Por otra parte en [23] se presenta un trabajo de clasificación de la DR en base a micro aneurismas, hemorragias y exudados duros y suaves, de imágenes de fondo de ojo de 512 x 512 pixeles. La clasificación que propone es: No NPRD Cuestionable Retinopatía diabética Leve Retinopatía diabética Moderada Retinopatía diabética Severa Dado que el trabajo reconoce sólo tres tipos de lesiones, propone el siguiente criterio de clasificación. No NPRD: no se detecta ningún tipo de lesión. Cuestionable: Cuando las todas lesiones detectadas por el sistema no son definidas, o cuando detecta hemorragias y manchas algodonosas y no se detectan micro aneurismas. Retinopatía diabética leve: Se encuentra al menos un micro aneurismas sin la presencia de hemorragias o manchas algodonosas, y el área total del micro aneurisma es < 893 pixeles (menos que el nivel de la SP (Standard photograph) 2A) Retinopatía diabética moderada: se encuentran micro aneurismas con hemorragias y/o manchas algodonosas, o el total del área del micro aneurismas es 893 pixeles (mayor o igual al nivel del SP 2A) Retinopatía diabética severa: presencia de más de 20 o más micro aneurismas en cada uno de los 4 cuadrantes.

96 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 84 En [24] se desarrolla un sistema informático para detectar los cambios en la retina en imágenes de fondo de ojo. El sistema clasifica las imágenes en normal y anormal. Para esto se realiza la detección de micro aneurismas, hemorragias y exudados. El criterio utilizado para realizar la clasificación es la ausencia o presencia de estas lesiones, así una imagen de fondo de ojo es normal si no se encuentra ninguna de las lesiones anteriores, y anormal si se encuentran micro aneurismas, hemorragias y/o exudados. En [25] es desarrollado un sistema CAD (compute aid diagnosis), el cual detecta las regiones básicas de las retina, como disco óptico, fóvea y vasos sanguíneos, y lesiones relacionadas con la retinopatía como son las lesiones claras y obscuras. El sistema clasifica la retinopatía diabética en las siguientes clases, con los respectivos criterios de discriminación: No retinopatía. No se encuentran anormalidades. Retinopatía diabética leve. Se encuentran anormalidades a una distancia no crítica de la fóvea. Retinopatía diabética moderada. región crítica. Se encuentran anormalidades próximas a la Retinopatía diabética severa. región crítica (fóvea). Las anormalidades se encuentran presentes en la La sensibilidad del algoritmo es alta en la región cercana a la fóvea, y menor fuera de ella. Otro estudio se realiza en [26] para evaluar un sistema CAD sobre la base de datos pública de imágenes de fondo de ojo Messidor. El estudio clasifica el grado de la retinopatía diabética en normal, leve, moderada y severa, utilizando solamente la detección de las lesiones de micro aneurismas, hemorragias y neo vascularización, asímismo, también lleva a cabo una segunda clasificación de riesgo de edema macular, utilizando las lesiones de exudados para realizar la distinción. Los criterios para ambas clasificaciones son los siguientes: Grado de retinopatía. 0 (Normal): (µa = 0) AND (H = 0) 1 : (0 < µa <= 5) AND (H = 0) 2 : ((5 < µa < 15) OR (0 < H < 5)) AND (NV = 0)

97 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 85 3 : (µa >= 15) OR (H >=5) OR (NV = 1) Riesgo de edema macular. 0 No hay exudados visibles. 1: Distancia corta entre la mácula y los exudados duros > a un diámetro de papilla. 2: Distancia corta entre la mácula y los exudados a un diámetro de papilla. µa: número de micro aneurismas. H: número de hemorragias NV = 1: neo vascularización - NV = 0: no neo vascularización. Dentro del grupo de trabajo que utilizan técnicas de reconocimiento de patrones, lo que llamamos en este trabajo tipo 2, para la clasificación de la retinopatía diabética encontramos: En [27] se lleva a cabo un estudio para identificar los diferentes estados de la retinopatía diabética usando imágenes de retina. El sistema identifica vasos sanguíneos, hemorragias y micro aneurismas y clasifica la retinopatía en normal, leve, moderada y severa. Para realizar tal clasificación el estudio utiliza una red neuronal de retro propagación (BPA), la cual es alimentada con los valores del área y perímetro de los vasos, hemorragias y micro aneurismas, en cada uno de los canales rojo, verde y azul. El sistema reporta una sensibilidad = 84 porciento y una especificidad = 100 porciento así como una precisión = 84 porciento. En [28] se desarrolla un trabajo para clasificar la retinopatía diabética en cinco clases: normal, leve, moderada, severa y proliferativa. El trabajo utiliza técnicas de HOS (higher order spectra) para extraer características de las formas en las imágenes de fondo de ojo, para posteriormente utilizarlas como entradas en un clasificador de SVM (support vector machine). El trabajo reporta una sensibilidad = 82 porciento y una especificidad = 88 porciento. A.4 Generación de base de datos de imágenes de fondo de ojo Para llevar a cabo la clasificación (tipo 1) de la retinopatía diabética en este proyecto, se crearon imágenes phantom para realizar el entrenamiento y prueba del clasificador propuesto. Para generar las imágenes phantom se utilizó como entorno de desarrollo

98 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 86 Matlab. Las imágenes creadas contienen los elementos necesarios para realizar la identificación de la retinopatía, como disco óptico, fóvea, micro aneurismas, exudados, rosarios venosos (arrosariameinto), edemas y hemorragias. Estos elementos fueron distribuidos de forma aleatoria en tamaño y ubicación dentro de la imagen, teniendo en consideración que no pueden existir lesiones dentro del disco óptico. Para cada uno de los elementos se estableció un valor de intensidad como valor de clase dentro de la imagen. La tabla A.4 muestra los valores de intensidad de cada uno de los elementos dentro de la imagen. Tabla A.4: Valores de intensidad de los elementos en las imágenes de fondo de ojo La tabla A.5 muestra las funciones creadas en Matlab para llevar a cabo la generación de las imágenes con lesiones. Tabla A.5: Funciones principales para la generación de imágenes phantom La función principal que lleva a cabo la generación de la imagen con los elementos y lesiones de forma aleatoria es: imgl = getlesionesv 3(dim, [1, m], ojo); Donde: imgl: Representa la variable de salida de la función, correspondiente a una imagen con las lesiones y elementos generados, marcados según la tabla A.4.

99 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 87 dim: arreglo de 1 x 2, de tipo entero que contienen las dimensiones de ancho y largo respectivamente de la imagen a generar. [1,m] : arreglo de 1 x m de tipo entero que contiene pares de elementos que indican el tipo (valor de intensidad) y número de lesión a generar según código de la tabla 1. Así por ejemplo para generar 20 micro aneurismas y 8 hemorragias, el valor del arreglo es [5,20,19,8] ojo : variable de tipo cadena que indica de cual ojo es la imagen a generar, los posibles valores son Der o Izq. En la figura A.1, se muestra el proceso general de generación de la imagen en la función getlesionesv 3(), en donde primero se carga un plantilla con la circunferencia del ojo, como segundo paso se genera otra imagen con disco óptico y fóvea, como tercer paso se genera una imagen con las lesiones, para finalmente mediante un proceso de multiplicación de pixeles de cada una de las imágenes generar una última con todas las lesiones contenidas. Figura A.1: Proceso general de generación de imágenes phantom con lesiones aleatorias En la figura A.2, se presenta una imagen de salida de la función getlesions().

100 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 88 Figura A.2: Imagen phantom generada con DR severa según criterio de Messidor, con µa = 23 y H = 7. Dentro de la función principal getlesionesv3() se invocan la función getdofo() para la generación individual de lesiones, disco óptico y fóvea. El disco óptico y fóvea fueron ubicados al azar tomando como muestra una serie de imágenes reales de fondo de ojo, tanto del derecho como del izquierdo, para posteriormente seleccionar las coordenadas mínima y máxima de los puntos x,y, correspondiente a los centros del disco óptico y fóvea, así como la longitud mínima y máxima de los radios en pixeles de estos elementos. Estos puntos mínimos y máximos fueron considerados como rangos para la generación de puntos centrales y radios aleatorios para disco óptico y fóvea en las imágenes generadas aleatoriamente. La función que regresa una imagen, con disco óptico y fóvea ubicada aleatoriamente es la siguiente: imgdof O = getdof o(dim, ojo); Donde: imgdofo: Representa la variable de salida de la función, correspondiente a una imagen con disco óptico y fóvea generados. dim: arreglo de 1 x 2, de tipo entero que contienen las dimensiones de ancho y largo respectivamente de la imagen a generar.

101 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 89 ojo : variable de tipo string que indica de cual ojo es la imagen a generar, los posibles valores son "Der" o "Izq". Para la generación aleatoria de los puntos centrales de disco óptico y fóvea dentro de la función getdof o() se utilizó la función randi de Matlab, con los siguientes valores tomados de las imágenes reales de muestra de fondo de ojo. Ojo derecho: x1 = randi([811, 1004], 1); y1 = randi([2000, 2058], 1); x2 = randi([945, 1046], 1); y2 = randi([1100, 1197], 1); rdo = randi([150, 160], 1); rf O = randi([160, 180], 1); Ojo izquierdo: x1 = randi([700, 1150], 1); y1 = randi([400, 500], 1); x2 = randi([800, 1133], 1); y2 = randi([1175, 1253], 1); rdo = randi([150, 160], 1); rf O = randi([160, 180], 1); Una vez generados los puntos centrales y radios, se generan dos círculos disco óptico y fóvea mediante a función ShapeInserter para insertarlo en la imagen. Una vez generada la imagen con disco óptico y fóvea la función getlesionesv 3(), genera las lesiones mediante polígonos de seis lados, donde cada punto de cada lado se genera al azar mediante la función randi de Matlab. Para posteriormente ser dibujados en una imagen nueva mediante la función ShapeInserter. A.5 Clasificador de la retinopatía diabética El clasificador desarrollado en este trabajo, está basado en el primer grupo de clasificación mencionado en el estado del arte, donde el criterio de clasificación se basa en la ausencia o presencia de las lesiones de la DR, así como de su número y ubicación dentro de la imagen. En el caso particular del clasificador desarrollado, sólo se toma como criterio el tipo y cantidad de lesiones presentes en las imágenes de fondo de ojo, y determina el nivel de la retinopatía diabética en normal, leve, moderado y severo. La tabla A.6 presenta las reglas para determinar el grado de la retinopatía diabética del clasificador propuesto.

102 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 90 Tabla A.6: Reglas de clasificación de la retinopatía diabética La programación del clasificador se realizó sobre el entorno de desarrollo de Matlab. La tabla A.7 enlista las funciones principales. Tabla A.7: Funciones principales involucradas en la clasificación La función principal que lleva a cabo la clasificación es: [DR] = getclasif icaciondr(imglesion, criterio, vis) Donde: DR: Es una variable de salida de tipo entero que representa el grado de la retinopatía diabética, 0 = normal, 1 = leve, 2 = moderada y 3 = severa. imglesion: Variable que contiene la imagen de fondo de ojo a clasificar. Criterio: Variable de tipo entero que indica el criterio de clasificación (conjunto de reglas a aplicar). Los posibles valores son: 1: para las reglas del proyecto Messidor [20]. 2: para aplicar las reglas de los especialistas en oftalmología de APEC.

103 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 91 3: para aplicar las reglas de la ETDRS [19], tabla A.6. Vis: bandera de tipo entero que indica si la imagen procesada se visualizara. Los posibles valores son: 0: No visualizar. 1: Visualizar la imagen con lesiones y cuadrantes. La función getp atron() se invoca dentro de la función principal getclasif icacióndr(), con el siguiente formato de invocación: imglesiont emp = getp atron(imglesion, patrones(k)); Donde: imglesiontemp: variable que contiene la imagen con el patrón especificado en arreglo patrones en el índice k. imglesion: variable que contiene la imagen con las lesiones a obtener. patrones: arreglo de tipo entero de 1 x 6, donde sus valores son los valores de clase indicados en la tabla 1. k: variable de tipo entero que marca la posición dentro del arreglo patrones. Dentro de la función principal getclasif icacióndr() se invoca la función getcaraclesionv 2() con la siguiente invocación: [Res] = getcaraclesionv 2(imgLesion) Donde: imglesion: Variable que contiene la imagen de fondo de ojo a clasificar. Res: Matriz de enteros de 6 x 6, que contiene el número de lesiones encontradas, global y por cuadrantes. A continuación se muestra el formato de la matriz con datos de ejemplo A.8:

104 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 92 Tabla A.8: Matriz de resultados La función getcuadrantes() se invoca dentro de la función getcaraclesionv 2() con el siguiente formato de invocación. [imgcuad, P 1, P 2, P 3, P 4, P 5] = getcuadrantes(img) Donde: img: variable de entrada que contiene la imagen de fondo de ojo. imgcuad: Variable que contiene la imagen con los cuadrantes trazados. P1: Arreglo de tipo entero de 1 x 2, que contiene las coordenadas x,y respectivamente del punto 1. P2: Arreglo de tipo entero de 1 x 2, que contiene las coordenadas x,y respectivamente del punto 2. P3: Arreglo de tipo entero de 1 x 2, que contiene las coordenadas x,y respectivamente del punto 3. P4: Arreglo de tipo entero de 1 x 2, que contiene las coordenadas x,y respectivamente del punto 4. P5: Arreglo de tipo entero de 1 x 2, que contiene las coordenadas x,y respectivamente del punto 5.

105 Appendix A. Clasificación de la Retinopatía Diabética en imágenes de fondo de ojo 93 En la figura A.3, se muestra la imagen regresada por la función getcuadrantes(). Figura A.3: Imagen con cuadrantes trazados, regresada por la función getcuadrantes(). A continuación se describen los pasos generales que realiza la función principal getclasif iacion()., para realizar la clasificación de una imagen de fondo de ojo. 1. Lectura de la imagen de fondo de ojo. 2. Se extraen de manera individual una imagen cada uno de los patrones según los valores de clase indicados en la tabla 1., mediante la función getp atron(). 3. Para cada imagen obtenida en 2, se realiza un conteo general de cada una de las lesiones mediante la función bwlabel de Matlab. El resultado se guarda en la variable de salida Res. 4. Se extraen los cuadrantes de la imagen mediante la función getcuadrantes(), los puntos P1, P2, P3, P4 y P5, indicados en la figura A Con los puntos obtenidos en 4, se generan cuatro imágenes una por cada cuadrante, donde el área del cuadrante se establece en 1 y el área fuera de el en 0. El cuadrante es dibujado en la imagen mediante la función poly2mask de Matlab. 6. Se procede a realizar una multiplicación de cada cuadrante, con cada una de las imágenes obtenidas en el paso 2, posteriormente se cuentan las lesiones en la imagen resultantes mediante la función bwlabel. El resultado se guarda en la variable de salida Res.

Introducción a las imágenes digitales. Segunda parte

Introducción a las imágenes digitales. Segunda parte Introducción a las imágenes digitales Segunda parte Introducción a las imágenes digitales Herramientas matemáticas. Transformaciones de intensidad. Histograma de una imagen. Imágenes a color. Modelos de

Más detalles

Filtros digitales dominio del espacio dominio de la frecuencia

Filtros digitales dominio del espacio dominio de la frecuencia Tema 3: Filtros 1 Filtros digitales Los filtros digitales constituyen uno de los principales modos de operar en el procesamiento de imágenes digitales. Pueden usarse para distintos fines, pero en todos

Más detalles

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta Realzado de Imagen 11 de junio de 2001 Una operación clásica en el procesado de imagen es realzar una imagen de entrada de alguna manera para que la imagen de salida sea más fácil de interpretarla. La

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Percepción Visión computacional Definición Aplicaciones Representación

Más detalles

Por: Alex F. Guerrero E. Fecha: 04/02/2010

Por: Alex F. Guerrero E. Fecha: 04/02/2010 "Diseño e Implementación de una Herramienta Didáctica de Software para el Procesamiento Digital Básico de Imágenes para los Estudiantes de la Facultad de Ingeniería en Electricidad y Computación" Por:

Más detalles

Visualización de imágenes

Visualización de imágenes Tema 5 Visualización de imágenes Tradicionalmente se ha dividido el análisis de imágenes de satélite en 2 fases, un análisis visual y un análisis digital. El primero es similar en muchos aspectos a la

Más detalles

El histograma de una imagen digital

El histograma de una imagen digital El histograma de una imagen digital Apellidos, nombre Vicente Atienza Vanacloig (vatienza@disca.upv.es) Departamento Centro Informática de Sistemas y Computadores (DISCA) Escuela Técnica Superior de Ingeniería

Más detalles

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO Anejo Análisis estadístico de temperaturas Análisis estadístico de temperaturas - 411 - D.1 INTRODUCCIÓN Y OBJETIVO El presente anejo tiene por objeto hacer un análisis estadístico de los registros térmicos

Más detalles

Fundamentos de Visión por Computador

Fundamentos de Visión por Computador Fundamentos de Visión por Computador Sistemas Informáticos Avanzados Índice Introducción Conectividad Operaciones matemáticas básicas OR AND NOT XOR Operadores morfológicos Dilatación Erosión Cierre Apertura

Más detalles

Explorando la ecuación de la recta pendiente intercepto

Explorando la ecuación de la recta pendiente intercepto Explorando la ecuación de la recta pendiente intercepto Realiza las siguientes actividades, mientras trabajas con el tutorial. 1. Los puntos que están en la misma recta se dice que son. 2. Describe el

Más detalles

Tema 3: Filtros SEGUNDA PARTE

Tema 3: Filtros SEGUNDA PARTE Tema 3: Filtros SEGUNDA PARTE FILTROS En el dominio del espacio: Filtros de suavizado. Filtros de realce. En el dominio de la recuencia: Filtros de suavizado. Filtros de realce. Filtros espaciales de realce

Más detalles

Anexo 1 ÁLGEBRA I.- Operaciones en las Expresiones Algebraicas II.- Factorización y Operaciones con las Fracciones III.- Funciones y Relaciones

Anexo 1 ÁLGEBRA I.- Operaciones en las Expresiones Algebraicas II.- Factorización y Operaciones con las Fracciones III.- Funciones y Relaciones Anexo 1 ÁLGEBRA I.- Operaciones en las Expresiones Algebraicas 1.- Adición y sustracción 2.- Multiplicación 3.- División 4.- Productos especiales 5.- Triángulo de Pascal II.- Factorización y Operaciones

Más detalles

CAPÍTULO 2. Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver

CAPÍTULO 2. Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver CAPÍTULO 2 PROCESAMIENTO DE IMÁGENES 2.1 Imágenes Digitales Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver como una matriz de miles o millones de píxeles cada

Más detalles

CAPÍTULO 1. TEORÍA DE PROCESAMIENTO DE IMÁGENES.

CAPÍTULO 1. TEORÍA DE PROCESAMIENTO DE IMÁGENES. 7 CAPÍTULO 1. TEORÍA DE PROCESAMIENTO DE IMÁGENES. 1.1. Conceptos generales. La formación de una imagen digital es el primer paso para cualquier procesamiento de imágenes digitales, y consiste básicamente

Más detalles

Extracción de Regiones

Extracción de Regiones Visión por Computadora Unidad V Extracción de Regiones Rogelio Ferreira Escutia Contenido ) Conceptos sobre Regiones 2) Binarización mediante detección de umbral 3) Etiquetado de componentes conexas 4)

Más detalles

[GEOGEBRA] Innovación Educativa. Ricardo Villafaña Figueroa

[GEOGEBRA] Innovación Educativa. Ricardo Villafaña Figueroa 2009 Innovación Educativa [GEOGEBRA] Una introducción a la geometría interactiva y cálculo visual a través de, una herramienta computacional sin costo que facilita y apoya la enseñanza y el análisis de

Más detalles

Aplicaciones de las integrales dobles

Aplicaciones de las integrales dobles Aplicaciones de las integrales dobles Las integrales dobles tienen multiples aplicaciones en física en geometría. A continuación damos una relación de alguna de ellas.. El área de una región plana R en

Más detalles

Polinomios. 1.- Funciones cuadráticas

Polinomios. 1.- Funciones cuadráticas Polinomios 1.- Funciones cuadráticas Definición 1 (Función polinomial) Sea n un entero no negativo y sean a n, a n 1,..., a, a 1, a 0 número s reales con a n 0. La función se denomina función polinomial

Más detalles

rad, y rad = 360 Ejercicio 1 Realizar las conversiones de grados a radianes y de radianes a grados de los siguientes ángulos:

rad, y rad = 360 Ejercicio 1 Realizar las conversiones de grados a radianes y de radianes a grados de los siguientes ángulos: Trigonometría 1.- Ángulos En la medida de ángulos, y por tanto en trigonometría, se emplean dos unidades, si bien la más utilizada en la vida cotidiana es el grado sexagesimal, en matemáticas es el radián

Más detalles

UNIDAD II FUNCIONES. Ing. Ronny Altuve Esp.

UNIDAD II FUNCIONES. Ing. Ronny Altuve Esp. República Bolivariana de Venezuela Universidad Alonso de Ojeda Administración Mención Gerencia y Mercadeo UNIDAD II FUNCIONES Ing. Ronny Altuve Esp. Ciudad Ojeda, Septiembre de 2015 Función Universidad

Más detalles

Universidad Alonso de Ojeda. Facultad de Ingeniería GUIA DE ESTUDIO ALGEBRA LINEAL.

Universidad Alonso de Ojeda. Facultad de Ingeniería GUIA DE ESTUDIO ALGEBRA LINEAL. UNIDAD IV: VECTORES EN R2 Y R3 VECTOR Se puede considerar un vector como un segmento de recta con una flecha en uno de sus extremos. De esta forma lo podemos distinguir por cuatro partes fundamentales:

Más detalles

Conceptos Básicos para el Procesamiento Digital de Imágenes

Conceptos Básicos para el Procesamiento Digital de Imágenes ELO 313 Procesamiento Digital de Señales con Aplicaciones Conceptos Básicos para el Procesamiento Digital de Imágenes Matías Zañartu, Ph.D. Departamento de Electrónica Universidad Técnica Federico Santa

Más detalles

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN)

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN) DISTRIBUCIONES DE PROBABILIDAD (RESUMEN) VARIABLE ALEATORIA: un experimento produce observaciones numéricas que varían de muestra a muestra. Una VARIABLE ALEATORIA se define como una función con valores

Más detalles

CAPÍTULO IV: CARACTERIZACIÓN DE LOS VASOS SANGUÍNEOS.

CAPÍTULO IV: CARACTERIZACIÓN DE LOS VASOS SANGUÍNEOS. CAPÍTULO IV: CARACTERIZACIÓN DE LOS VASOS SANGUÍNEOS. 1.- IMPORTANCIA DE LA CARACTERIZACIÓN DE LOS VASOS SANGUÍNEOS. Algunos cambios que se producen en la red de vasos sanguíneos se pueden considerar como

Más detalles

Herramientas digitales de auto-aprendizaje para Matemáticas

Herramientas digitales de auto-aprendizaje para Matemáticas real de con Herramientas digitales de auto-aprendizaje para Matemáticas, Grupo de Innovación Didáctica Departamento de Matemáticas Universidad de Extremadura real de con Índice real de con real de con.

Más detalles

Matemáticas 4 Enero 2016

Matemáticas 4 Enero 2016 Laboratorio #1 Vectores I.- Calcule el producto escalar de los dos vectores y el coseno del ángulo entre ellos. 1) u = 3i + 2j 4k; v = i + 5j 3k 2) u = i + 2j 3k; v = 1i 2j + 3k 3) u = 1 2 i + 1 3 j +

Más detalles

1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 1 1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO Muchos de los fenómenos que se investigan en la geometría utilizan nociones como las de longitud de un vector y ángulo entre vectores. Para introducir estos dos

Más detalles

Terminología de Color

Terminología de Color Color 1 Color La luz es energía electromagnética en el rango del espectro de 400 a 700 nanómetros de longitud de onda, percibidos como los colores que van desde el rojo, naranja, amarillo, verde, azul,

Más detalles

PROYECTO FIN DE CARRERA

PROYECTO FIN DE CARRERA DEPARTAMENTO DE INGENIERÍA ELÉCTRICA Y CIENCIAS DE LA COMPUTACIÓN PROYECTO FIN DE CARRERA CONTROL Y PROGRAMACIÓN DE UN ROBOT INDUSTRIAL CON MICROSOFT KINECT AUTOR: Pablo Pérez Tejeda PROFESOR COTUTOR:

Más detalles

Introducción a la Geometría Computacional

Introducción a la Geometría Computacional Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 8 de enero del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Introducción a la GC 8 de enero del 2013 1 / 17 1 Introducción a la Geometría Computacional

Más detalles

Conceptos Básicos para el Procesamiento Digital de Imágenes

Conceptos Básicos para el Procesamiento Digital de Imágenes ELO 313 Procesamiento Digital de Señales con Aplicaciones Conceptos Básicos para el Procesamiento Digital de Imágenes Matías Zañartu, Ph.D. Departamento de Electrónica Universidad Técnica Federico Santa

Más detalles

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos Tema 3: Repaso de Álgebra Lineal Parte I Virginia Mazzone Contenidos Vectores y Matrices Bases y Ortonormailizaciòn Norma de Vectores Ecuaciones Lineales Algenraicas Ejercicios Vectores y Matrices Los

Más detalles

rad, y rad = 360 Ejercicio 1 Realizar las conversiones de grados a radianes y de radianes a grados de los siguientes ángulos:

rad, y rad = 360 Ejercicio 1 Realizar las conversiones de grados a radianes y de radianes a grados de los siguientes ángulos: Trigonometría 1.- Ángulos En la medida de ángulos, y por tanto en trigonometría, se emplean dos unidades, si bien la más utilizada en la vida cotidiana es el grado sexagesimal, en matemáticas es el radián

Más detalles

Curvas en paramétricas y polares

Curvas en paramétricas y polares Capítulo 10 Curvas en paramétricas y polares Introducción Después del estudio detallado de funciones reales de variable real expresadas en forma explícita y con coordenadas cartesianas, que se ha hecho

Más detalles

ESTADÍSTICA INFERENCIAL

ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 7 Nombre: Distribuciones de probabilidad para variables aleatorias continuas Contextualización Al igual que la distribución binomial, la distribución

Más detalles

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8) PROBABILIDAD Y ESTADÍSTICA Sesión 5 (En esta sesión abracamos hasta tema 5.8) 5 DISTRIBUCIONES DE PROBABILIDAD CONTINUAS Y MUESTRALES 5.1 Distribución de probabilidades de una variable aleatoria continua

Más detalles

Ejemplo Traza la gráfica de los puntos: ( 5, 4), (3, 2), ( 2, 0), ( 1, 3), (0, 4) y (5, 1) en el plano cartesiano.

Ejemplo Traza la gráfica de los puntos: ( 5, 4), (3, 2), ( 2, 0), ( 1, 3), (0, 4) y (5, 1) en el plano cartesiano. Plano cartesiano El plano cartesiano se forma con dos rectas perpendiculares, cuyo punto de intersección se denomina origen. La recta horizontal recibe el nombre de eje X o eje de las abscisas y la recta

Más detalles

Funciones de varias variables.

Funciones de varias variables. Funciones de varias variables. Definición. Hasta ahora se han estudiado funciones de la forma y = f (x), f :D Estas funciones recibían el nombre de funciones reales de variable real ya que su valor y dependía

Más detalles

4. " $#%&' (#) para todo $#* (desigualdad triangular).

4.  $#%&' (#) para todo $#* (desigualdad triangular). 10 Capítulo 2 Espacios Métricos 21 Distancias y espacios métricos Definición 211 (Distancia) Dado un conjunto, una distancia es una aplicación que a cada par le asocia un número real y que cumple los siguientes

Más detalles

Sistema de ecuaciones algebraicas

Sistema de ecuaciones algebraicas Sistema de ecuaciones algebraicas Curso: Métodos Numéricos en Ingeniería Profesor: Dr. José A. Otero Hernández Correo: j.a.otero@itesm.mx web: http://metodosnumericoscem.weebly.com Universidad: ITESM CEM

Más detalles

Unidad 1. Las fracciones.

Unidad 1. Las fracciones. Unidad 1. Las fracciones. Ubicación Curricular en España: 4º, 5º y 6º Primaria, 1º, 2º y 3º ESO. Objetos de aprendizaje. 1.1. Concepto de fracción. Identificar los términos de una fracción. Escribir y

Más detalles

Contenido. Capítulo 1. Capítulo 2. Capítulo 3. Prólogo

Contenido. Capítulo 1. Capítulo 2. Capítulo 3. Prólogo Contenido Prólogo XIII Capítulo 1 Acerca del procesamiento de imágenes 1 1.1 Introducción 2 1.2 Sistema de visión y procesamiento de imágenes 2 1.3 Procesamiento digital de imágenes 3 1.4 Relaciones básicas

Más detalles

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág.

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág. ÍNDICE CAPITULO UNO Pág. Concepto de Estadística 1 Objetivo 1 Diferencia entre estadísticas y estadística 1 Uso de la estadística 1 Divisiones de la estadística 1 1. Estadística Descriptiva 1 2. Estadística

Más detalles

Procesamiento Digital de Imágenes Empleando Filtros Espaciales.

Procesamiento Digital de Imágenes Empleando Filtros Espaciales. Procesamiento Digital de Imágenes Empleando Filtros Espaciales. Reyna CASTILLO 1, Juan M HERNÁNDEZ 1, Everardo INZUNZA 2, Juan P TORRES 2. 1 Facultad de Ingeniería y Negocios San Quintín, Universidad Autónoma

Más detalles

Ejemplo 1. Ejemplo introductorio

Ejemplo 1. Ejemplo introductorio . -Jordan. Ejemplo 1. Ejemplo introductorio. -Jordan Dos especies de insectos se crían juntas en un recipiente de laboratorio. Todos los días se les proporcionan dos tipos de alimento A y B. 1 individuo

Más detalles

Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2)

Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2) Tema 2: PROCESAMIENTO EN EL DOMINIO ESPACIAL (Parte 2) 1 I N G E N I E R Í A I N F O R M Á T I C A D P T O. M A T E M Á T I C A A P L I C A D A I 2 ÍNDICE: Filtrado espacial Filtros de suavizado Filtros

Más detalles

3.1 Representación gráfica de curvas bidimensionales.

3.1 Representación gráfica de curvas bidimensionales. Tema 3 Curvas y superficies Versión: 6 de febrero de 29 3. Representación gráfica de curvas bidimensionales. La representación gráfica de una curva en un ordenador es una linea poligonal construida uniendo

Más detalles

Expresión, Operador, Operando, Asignación, Prioridad

Expresión, Operador, Operando, Asignación, Prioridad 4. EXPRESIONES Y OPERADORES Conceptos: Resumen: Expresión, Operador, Operando, Asignación, Prioridad En este tema se presentan los siguientes elementos de la programación: las expresiones y los operadores.

Más detalles

Tema 05: Tablas hash. M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom

Tema 05: Tablas hash. M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom Tema 05: Tablas hash M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom (Prof. Edgardo A. Franco) 1 Contenido Tablas hash o de dispersión Función

Más detalles

CAPÍTULO III MOMENTO DE INERCIA EN ÁREAS PLANAS. Este capítulo comprende diversas propiedades geométricas de secciones (para casos

CAPÍTULO III MOMENTO DE INERCIA EN ÁREAS PLANAS. Este capítulo comprende diversas propiedades geométricas de secciones (para casos CAPÍTULO III MOMENTO DE INERCIA EN ÁREAS PLANAS Este capítulo comprende diversas propiedades geométricas de secciones (para casos prácticos, secciones de vigas) siendo la más importante el momento de inercia.

Más detalles

Tesis Doctoral. Título: RESUMEN

Tesis Doctoral. Título: RESUMEN Revista de Teledetección. ISSN: 1988-8740. 2010. 34: 97-99 Tesis Doctoral Título: Técnicas de extracción de características y clasificación de imágenes orientada a objetos aplicadas a la actualización

Más detalles

Cálculo vectorial en el plano.

Cálculo vectorial en el plano. Cálculo vectorial en el plano. Cuaderno de ejercicios MATEMÁTICAS JRM SOLUCIONES Índice de contenidos. 1. Puntos y vectores. Coordenadas y componentes. Puntos en el plano cartesiano. Coordenadas. Vectores

Más detalles

Derivadas. Contenido Introducción. ( α) Definición de Derivada. (α) Pendiente de la recta tangente. (α) Funciones diferenciables.

Derivadas. Contenido Introducción. ( α) Definición de Derivada. (α) Pendiente de la recta tangente. (α) Funciones diferenciables. Derivadas. Contenido 1. Introducción. (α) 2. Definición de Derivada. (α) 3. Pendiente de la recta tangente. (α) 4. Funciones diferenciables. (α) 5. Función derivada. (α) 6. Propiedades de la derivada.

Más detalles

Grado en Química Bloque 1 Funciones de una variable

Grado en Química Bloque 1 Funciones de una variable Grado en Química Bloque Funciones de una variable Sección.5: Aplicaciones de la derivada. Máximos y mínimos (absolutos) de una función. Sea f una función definida en un conjunto I que contiene un punto

Más detalles

PROGRAMA ANALÍTICO. I. Objetivos El alumno deberá: II. Contenidos del Programa Analítico. Año 2013

PROGRAMA ANALÍTICO. I. Objetivos El alumno deberá: II. Contenidos del Programa Analítico. Año 2013 Año 013 PROGRAMA ANALÍTICO Asignatura: ÁLGEBRA Y GEOMETRÍA ANALÍTICA Departamento: Matérias Básicas Unidad Docente Básica: Matemática Bloque: Ciencias Básicas Especialidad: COMÚN A TODAS LAS ESPECIALIDADES

Más detalles

1. Determinar las ecuaciones paramétricas y la ecuación continua de las rectas que pasan por el punto A y con el vector de dirección dado:

1. Determinar las ecuaciones paramétricas y la ecuación continua de las rectas que pasan por el punto A y con el vector de dirección dado: CAPÍTULO. GEOMETRÍA AFÍN.. Problemas. Determinar las ecuaciones paramétricas y la ecuación continua de las rectas que pasan por el punto A y con el vector de dirección dado: a) A(,, ), v = (,, ) ; b) A(0,

Más detalles

Asignatura: Horas: Total (horas): Obligatoria X Teóricas 4.5 Semana 4.5 Optativa Prácticas 0.0 16 Semanas 72.0

Asignatura: Horas: Total (horas): Obligatoria X Teóricas 4.5 Semana 4.5 Optativa Prácticas 0.0 16 Semanas 72.0 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO Aprobado por el Consejo Técnico de la Facultad de Ingeniería en su sesión ordinaria del 19 de noviembre de 2008 PROBABILIDAD

Más detalles

Definición de vectores

Definición de vectores Definición de vectores Un vector es todo segmento de recta dirigido en el espacio. Cada vector posee unas características que son: Origen O también denominado Punto de aplicación. Es el punto exacto sobre

Más detalles

Aprendé a encontrar objetos en videos. Docentes: Franco Ronchetti Facundo Quiroga

Aprendé a encontrar objetos en videos. Docentes: Franco Ronchetti Facundo Quiroga Aprendé a encontrar objetos en videos Docentes: Franco Ronchetti Facundo Quiroga TEMARIO Introducción al procesamiento de imágenes digitales Introducción a Python y numpy Imágenes color y Filtrado por

Más detalles

Una matriz es una tabla ordenada (por filas y columnas) de escalares a i j de la forma: ... ... a... ...

Una matriz es una tabla ordenada (por filas y columnas) de escalares a i j de la forma: ... ... a... ... MATRICES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Tienen también muchas aplicaciones

Más detalles

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B 1. Queremos invertir una cantidad de dinero en dos tipos

Más detalles

Herramienta de Alineación Curricular - Resumen a través de las unidades Departamento de Educación de Puerto Rico Matemáticas 4to Grado

Herramienta de Alineación Curricular - Resumen a través de las unidades Departamento de Educación de Puerto Rico Matemáticas 4to Grado 4.N.1.1 4.N.1.2 4.N.1.3 4.N.1.4 1.0 Numeración y Operación Reconoce la estructura del valor posicional de números cardinales y números decimales hasta el centésimo lugar, y como se relacionan los números

Más detalles

Tema Contenido Contenidos Mínimos

Tema Contenido Contenidos Mínimos 1 Números racionales - Fracciones equivalentes. - Simplificación de fracciones. - Representación y comparación de los números fraccionarios. - Operaciones con números fraccionarios. - Ordenación de los

Más detalles

Técnicas de filtrado. Tema 6

Técnicas de filtrado. Tema 6 Tema 6 Técnicas de filtrado Se trata de métodos para resaltar o suprimir, de forma selectiva, información contenida en una imagen a diferentes escalas espaciales, para destacar algunos elementos de la

Más detalles

GEOMETRÍA EN EL ESPACIO.

GEOMETRÍA EN EL ESPACIO. GEOMETRÍA EN EL ESPACIO. Un sistema de coordenadas tridimensional se construye trazando un eje Z, perpendicular en el origen de coordenadas a los ejes X e Y. Cada punto viene determinado por tres coordenadas

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales REPRESENTACIÓN Y DESCRIPCIÓN Rasgos morfológicos RASGOS GEOMÉTRICOS El área y perímetro de un objeto son dos rasgos primarios que se utilizan cuando el tamaño de las regiones

Más detalles

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD VICERRECTORIA ACADEMICA Y DE INVESTIGACIÓN FORMATO DE SYLLABUS

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD VICERRECTORIA ACADEMICA Y DE INVESTIGACIÓN FORMATO DE SYLLABUS PROCEDIMIENTO RELACIONADO: DISEÑO DE CURSOS PÁGINAS: Página 1 de UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD VICERRECTORIA ACADEMICA Y DE INVESTIGACIÓN 1. INFORMACIÓN GENERAL DEL CURSO ESCUELA O UNIDAD:

Más detalles

Estadística Avanzada y Análisis de Datos

Estadística Avanzada y Análisis de Datos 1-1 Estadística Avanzada y Análisis de Datos Javier Gorgas y Nicolás Cardiel Curso 2006-2007 2007 Máster Interuniversitario de Astrofísica 1-2 Introducción En ciencia tenemos que tomar decisiones ( son

Más detalles

3. Resolver triángulos rectángulos utilizando las definiciones de las razones trigonométricas.

3. Resolver triángulos rectángulos utilizando las definiciones de las razones trigonométricas. Contenidos mínimos MI. 1. Contenidos. Bloque I: Aritmética y Álgebra. 1. Conocer las clases de números, los conjuntos numéricos: naturales, enteros, racionales, reales y complejos y las propiedades que

Más detalles

Valores y Vectores Propios

Valores y Vectores Propios Valores y Vectores Propios Departamento de Matemáticas, CSI/ITESM de abril de 9 Índice 9.. Definiciones............................................... 9.. Determinación de los valores propios.................................

Más detalles

USO DE LA CALCULADORA EN LA ENSEÑANZA DE LAS MATEMÁTICAS EN LA ESCUELA SECUNDARIA

USO DE LA CALCULADORA EN LA ENSEÑANZA DE LAS MATEMÁTICAS EN LA ESCUELA SECUNDARIA USO DE LA CALCULADORA EN LA ENSEÑANZA DE LAS MATEMÁTICAS EN LA ESCUELA SECUNDARIA En la enseñanza de las matemáticas la calculadora básica o graficadora puede ayudar a que los estudiantes refinen sus conjeturas

Más detalles

Capítulo 2. Técnicas de Procesamiento de Imágenes

Capítulo 2. Técnicas de Procesamiento de Imágenes Capítulo 2. Técnicas de Procesamiento de Imágenes 2.1 Binarización La binarización es una de las técnicas más antiguas de procesamiento de imágenes ya que en el pasado, el primer analizador de imágenes

Más detalles

UNIDAD I. ALGORITMOS

UNIDAD I. ALGORITMOS UNIDAD I. ALGORITMOS 1.1 Definición Un algoritmo es una serie de pasos organizados que describe el proceso que se debe seguir, para dar solución a un problema específico. 1.2 Tipos Cualitativos: Son aquellos

Más detalles

11 Cuerpos geométricos

11 Cuerpos geométricos 89485 _ 0369-0418.qxd 1/9/07 15:06 Página 369 Cuerpos geométricos INTRODUCCIÓN Los poliedros, sus elementos y tipos ya son conocidos por los alumnos del curso anterior. Descubrimos y reconocemos de nuevo

Más detalles

Procesamiento de Imágenes. Curso 2011 Clase 3 Eliminación del ruido mediante filtrado espacial

Procesamiento de Imágenes. Curso 2011 Clase 3 Eliminación del ruido mediante filtrado espacial Procesamiento de Imágenes Curso 2 Clase 3 Eliminación del ruido mediante filtrado espacial Eliminación del ruido Entendemos por ruido en imágenes digitales cualquier valor de un píxel de una imagen que

Más detalles

Contenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra.

Contenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra. Contenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra. 1. Clasificar distintos tipos de números: naturales, enteros, racionales y reales. 2. Operar con números reales y aplicar las propiedades

Más detalles

Método Monge: Proyecciones Ortogonales Concertadas

Método Monge: Proyecciones Ortogonales Concertadas Proyecciones ortogonales concertadas o Método Monge 7 Método Monge: Proyecciones Ortogonales Concertadas Conceptos Generales D.I. Patricia Muñoz Cátedra Morfología Carrera de Diseño Industrial FADU - UBA

Más detalles

370549 - FOTOGRAF - Fotografía y Procesado de la Imagen

370549 - FOTOGRAF - Fotografía y Procesado de la Imagen Unidad responsable: 370 - FOOT - Facultad de Óptica y Optometría de Terrassa Unidad que imparte: 731 - OO - Departamento de Óptica y Optometría Curso: Titulación: 2016 GRADO EN ÓPTICA Y OPTOMETRÍA (Plan

Más detalles

Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.

Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico. Introducción a la Melilla Definición de La trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones. Un estudio estadístico

Más detalles

Pruebas de bondad de ajuste

Pruebas de bondad de ajuste Pruebas de bondad de ajuste Existen pruebas cuantitativas formales para determinar si el ajuste de una distribución paramétrica a un conjunto de datos es buena en algún sentido probabilístico. Objetivo:

Más detalles

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas. TEMA 11 F MATEMÁTICOS TEMA 11 Autovalores y autovectores Diagonalización y formas canónicas 1 Introducción Definición 1 (Matrices semejantes) Sean A y B dos matrices cuadradas de orden n Decimos que A

Más detalles

Técnicas de mejora de imágenes

Técnicas de mejora de imágenes Técnicas de mejora de imágenes Mejora o enhancement Restauración Reconstrucción Mejora de la imagen Dominio espacial Opera directamente sobre los píxeles g(x,y)=t entorno (f(x,y)) Dominio en el espacio

Más detalles

Cálculo de descriptores morfométricos y geométricos en la identificación de variaciones morfológicas en el eritrocito

Cálculo de descriptores morfométricos y geométricos en la identificación de variaciones morfológicas en el eritrocito Cálculo de descriptores morfométricos y geométricos en la identificación de variaciones morfológicas en el eritrocito Romina Robert Pérez 1, Anmarliolivia Rodríguez Ferreiro 2, Mayelín Macías Norat 3 1

Más detalles

Tema 11: Intervalos de confianza.

Tema 11: Intervalos de confianza. Tema 11: Intervalos de confianza. Presentación y Objetivos. En este tema se trata la estimación de parámetros por intervalos de confianza. Consiste en aproximar el valor de un parámetro desconocido por

Más detalles

Percepción visual aplicada a la robótica

Percepción visual aplicada a la robótica Percepción visual aplicada a la robótica Mario I. Chacón Murguía Rafael Sandoval Rodríguez Javier Vega Pineda Selecciona el libro para empezar Capítulo 1 Conceptos básicos de procesamiento de imágenes

Más detalles

Examen correspondiente a la evaluación alternativa. Procesamiento de imágenes digitales curso 2007/2008

Examen correspondiente a la evaluación alternativa. Procesamiento de imágenes digitales curso 2007/2008 Examen correspondiente a la evaluación alternativa Procesamiento de imágenes digitales curso 2007/2008 Cada respuesta correcta puntúa 0.25. Cada respuesta incorrecta puntúa -0.05. 1. Cuál de las siguientes

Más detalles

FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRATIVAS PROGRAMA DE MERCADEO

FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRATIVAS PROGRAMA DE MERCADEO FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRATIVAS PROGRAMA DE MERCADEO I. IDENTIFICACIÓN DE LA ASIGNATURA NOMBRE: Estadística I CODIGO: 41A03 PRERREQUISITO: Matemática I SEMESTRE: III CRÉDITOS: 3 II. OBJETIVO

Más detalles

Microcurrículo del ÁREA DE: MATEMÁTICAS. Unidad y temas. Logro e Indicadores Indicadores De Logro

Microcurrículo del ÁREA DE: MATEMÁTICAS. Unidad y temas. Logro e Indicadores Indicadores De Logro Microcurrículo del ÁREA DE: MATEMÁTICAS fecha Grado noveno Sesión 1-10 (semanas) Unidad Unidad y temas Temas Unidad #1.Conjunto de los números imaginarios. Números Imaginarios: Concepto, operaciones básicas

Más detalles

VOLUMENES DE SÓLIDOS DE REVOLUCION

VOLUMENES DE SÓLIDOS DE REVOLUCION OLUMENES DE SÓLIDOS DE REOLUCION Los sólidos de revolución son sólidos que se generan al girar una región plana alrededor de un eje. Por ejemplo: el cono es un sólido que resulta al girar un triángulo

Más detalles

FECHA OBJETIVO CONTENIDO Semana. Introducir el tema de funciones ( tentativo)

FECHA OBJETIVO CONTENIDO Semana. Introducir el tema de funciones ( tentativo) Página 1 de 11 INA Uruca Bachillerato por madurez Cronograma 2011 de Matemáticas Profesora: Lordys Serrano Ramírez FECHA OBJETIVO CONTENIDO Semana Introducir el tema de funciones ( tentativo) inicio de

Más detalles

9. MEDIDA DE LA DENSIDAD DE LÍQUIDOS

9. MEDIDA DE LA DENSIDAD DE LÍQUIDOS 9. MEDIDA DE LA DENSIDAD DE LÍQUIDOS OBJETIVO El objetivo de la practica es determinar la densidad de líquidos utilizando la balanza de Möhr y su aplicación a la determinación de la densidad de disoluciones

Más detalles

Conceptos básicos de sistemas de ecuaciones diferenciales en la simulación de procesos ambientales y químicos

Conceptos básicos de sistemas de ecuaciones diferenciales en la simulación de procesos ambientales y químicos Conceptos básicos de sistemas de ecuaciones diferenciales en la simulación de procesos ambientales y químicos Apellidos, nombre Departamento Centro Torregrosa López, Juan Ignacio (jitorreg@iqn.upv.es)

Más detalles

FECHA OBJETIVO CONTENIDO 12 DE MARZO. Introducir el tema de funciones

FECHA OBJETIVO CONTENIDO 12 DE MARZO. Introducir el tema de funciones Página 1 de 11 INA Turismo Bachillerato por madurez Cronograma 2011 de Matemáticas Profesora: Lordys Serrano Ramírez FECHA OBJETIVO CONTENIDO 12 DE MARZO Introducir el tema de funciones inicio de clases

Más detalles

UNI DAD 1 GEOMETRÍA ANALÍTICA BIDIMENSIONAL

UNI DAD 1 GEOMETRÍA ANALÍTICA BIDIMENSIONAL UNI DD 1 GEOMETRÍ NLÍTIC BIDIMENSIONL Objetivos Geometría analítica Introducción L geometría analítica La geometrie cartesiana geometría 1.1. El segmento método sintético geométrico puro Se considera

Más detalles

Tema 1.- Introducción a la Visión Artificial

Tema 1.- Introducción a la Visión Artificial Tema 1.- Introducción a la Visión Artificial Visión Artificial Avanzada Prof. Dr. Nicolás Luis Fernández García Departamento de Informática y Análisis Numérico Escuela Politécnica Superior Universidad

Más detalles

Estadística Descriptiva

Estadística Descriptiva Estadística Descriptiva 1 Sesión No. 3 Nombre: Estadística descriptiva Contextualización Parte fundamental de la Estadística es la organización de los datos, una forma de realizar esta organización es

Más detalles

ÍNDICE. 1.1 Objetivos 8 CAPÍTULO 2. DESCRIPCIÓN DEL FENÓMENO 11. 2.1 Definición y clasificación de los incendios forestales 13

ÍNDICE. 1.1 Objetivos 8 CAPÍTULO 2. DESCRIPCIÓN DEL FENÓMENO 11. 2.1 Definición y clasificación de los incendios forestales 13 Índice i ÍNDICE CAPÍTULO 1. INTRODUCCIÓN 1 1.1 Antecedentes 3 1.2 Aspectos científicos y tecnológicos 5 1.3 Protección contra el incendio 6 Protección pasiva 7 Protección activa 7 Zonas de seguridad 7

Más detalles

Introducción al análisis numérico

Introducción al análisis numérico Introducción al análisis numérico Javier Segura Universidad de Cantabria Cálculo Numérico I. Tema 1 Javier Segura (Universidad de Cantabria) Introducción al análisis numérico CNI 1 / 26 Contenidos: 1 Sistemas

Más detalles