Automatización del Proceso de Ensamble Utilizando Visión Artificial



Documentos relacionados
Visión para Robots en Tareas de Ensamble

Oferta tecnológica: Vehículos autónomos para transporte de materiales en almacenes

SISTEMA DE PRODUCCION. Pág. 1

CAPITULO III MARCO METODOLÓGICO. La presente investigación plantea como objetivo el diseño de un prototipo

forma de entrenar a la nuerona en su aprendizaje.

DE VIDA PARA EL DESARROLLO DE SISTEMAS

UNIDAD 2: Abstracción del Mundo real Al Paradigma Orientado a Objetos

3.1 JUSTIFICACION E IMPORTANCIA DEL PRESENTE TRABAJO DE

Nombre de la asignatura: Robótica Industrial. Carrera: Ingeniería Electrónica

2.1 Clasificación de los sistemas de Producción.

Instalación de Sistemas de Automatización y Datos

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

Infraestructura Tecnológica. Sesión 12: Niveles de confiabilidad

CAPITULO I. Introducción. En la actualidad, las empresas están tomando un papel activo en cuanto al uso de sistemas y

Elementos requeridos para crearlos (ejemplo: el compilador)

1. INTRODUCCIÓN 1.1 INGENIERÍA


Proceso Unificado de Rational PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes:

Mejores prácticas para el éxito de un sistema de información. Uno de los problemas de información dentro de las empresas es contar con datos

2. APLICACIONES DE LA AUTOMATIZACION

EL CONOCIMIENTO CIENTÍFICO DE LA LA PEDAGOGÍA COMO CIENCIA DE LA EDUCACIÓN. Teoría de la Educación Tema 11

DIVISION DE ESTUDIOS DE POSGRADO E INVESTIGACION DOCTORADO EN CIENCIAS EN COMPUTACION SEDE: INSTITUTO TECNOLOGICO DE TIJUANA No

Sistemas de Información Geográficos (SIG o GIS)

Realidad virtual en arquitectura

DISEÑO Y ELABORACIÓN DE PRÁCTICAS DE LABORATORIO PARA ROBÓTICA INDUSTRIAL UTILIZANDO MANIPULADORES ROBÓTICOS KUKA

CAPÍTULO 3 Servidor de Modelo de Usuario

UNIVERSIDAD DE SALAMANCA

El Software. Es lo que se conoce como el ciclo de vida del software.

M.C. Carolina Rocío Sánchez Pérez

Experiencias de la Televisión Digital Interactiva en Colombia - ARTICA

Interoperabilidad de Fieldbus

Decisión: Indican puntos en que se toman decisiones: sí o no, o se verifica una actividad del flujo grama.

Instituto Tecnológico de Saltillo

Maxpho Commerce 11. Gestión CSV. Fecha: 20 Septiembre 2011 Versión : 1.1 Autor: Maxpho Ltd

Control del Stock, aprovisionamiento y distribución a tiendas.

Cómo sistematizar una experiencia?

SÍNTESIS Y PERSPECTIVAS

Técnicas de Planeación y Control

En este capítulo se describe la forma de cómo se implementó el sistema de video

3. GESTIÓN DE CONFIGURACIÓN DE SOFTWARE

App para realizar consultas al Sistema de Información Estadística de Castilla y León

Enginyeria del Software III

ADMINISTRACION DE PROYECTOS

Educación y capacitación virtual, algo más que una moda

Estructura de Computadores I Arquitectura de los MMOFPS

CAPÍTULO I EL PROBLEMA PLANTEAMIENTO DEL PROBLEMA

1.2 SISTEMAS DE PRODUCCIÓN

Dirección General de Educación Superior Tecnológica

Dirección de Planificación Universitaria Dirección de Planificación Universitaria Panamá, Rep. de Panamá Panamá, Rep.

LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS

PERFIL DEL PUESTO POR COMPETENCIAS Sepa cómo construirlo y evitar bajos desempeños posteriores

PROYECTO KUABOOT PROYECTO KUAABOT. MAKER LABS COCHABAMBA Página 1

Capítulo 5. Cliente-Servidor.

CAPÍTULO 3. HERRAMIENTA DE SOFTWARE DE PLANEACIÓN DE

POLÍTICAS DE SEGURIDAD PARA EL DESARROLLO DE SISTEMAS DE CAPUFE

Propuesta de Portal de la Red de Laboratorios Virtuales y Remotos de CEA

Mantenimiento Autónomo y Desarrollo Organizacional

I SEMANA ELECTRONICA REDES NEURONALES

Colección de Tesis Digitales Universidad de las Américas Puebla. Morales Salcedo, Raúl

Funcionalidades Software PROYECTOS GotelGest.Net Software para la gestión de Proyectos GotelGest.Net

ANALIZANDO GRAFICADORES

6. SISTEMAS CAD-CAM (CAM) 6.1. CONCEPTO DE CAM

POR QUE ES IMPORTANTE ESTABLECER OBJETIVOS EN LA PLANIFICACIÓN DE UN CURSO?

Capítulo 4. Implementación del lenguaje multitáctil

UT 1. Metodologías. Secundaria.

RESUMEN CUADRO DE MANDO

CAPÍTULO I. Sistemas de Control Distribuido (SCD).

INTRODUCCIÓN CAPITULO I 1.1 PLANTEAMIENTO DEL PROBLEMA.

Procesos Críticos en el Desarrollo de Software

3.1 INGENIERIA DE SOFTWARE ORIENTADO A OBJETOS OOSE (IVAR JACOBSON)

OPT. Núcleo Básico. Núcleo de Formación. Optativa. Nombre de la universidad. Universidad Politécnica de Pachuca. Nombre del programa educativo

una herramienta software para el diseño automatizado de hornos industriales de microondas

ALGUNOS APUNTES SOBRE LAS TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN EN LA EDUCACIÓN

SOMI XVIII Congreso de Instrumentación VISUALIZACION MPC1827 SISTEMA DE VISION PARA ROBOTS BASADO EN SILUETAS

Gestión de la Configuración

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

Traslado de Data Center

Presentación de Pyramid Data Warehouse

La presente tesis pretende que los estudiantes observen la teoría de las acciones de control

Universidad acional Experimental Del Táchira Decanato de Docencia Departamento de Ingeniería en Informática

PROCEDIMIENTO ESPECÍFICO. Código G Edición 0

I. INTRODUCCION. PRACTICA N 03: Control Electroneumático de cilindros de simple y doble efecto usando el simulador FluidSIM

CADENA DE VALOR. Andalucia Emprende, Fundación Pública Andaluza

Unidad VI: Supervisión y Revisión del proyecto

VISION ARTIFICIAL APOYADA EN SISTEMAS HÍBRIDOS NEURO-SIMBÓLICOS

Introducción. Metadatos

Control Estadístico del Proceso. Ing. Claudia Salguero Ing. Alvaro Díaz

CAPÍTUL07 SISTEMAS DE FILOSOFÍA HÍBRIDA EN BIOMEDICINA. Alejandro Pazos, Nieves Pedreira, Ana B. Porto, María D. López-Seijo

UTILIZACIÓN DE LAS NUEVAS TECNOLOGÍAS PARA EL APRENDIZAJE DE LA ÓPTICA GEOMÉTRICA

El Proceso Unificado de Desarrollo de Software

MÁQUINA DE VECTORES DE SOPORTE

Software diseñado especialmente para Planificación del entrenamiento, control de evaluaciones, Captura y Edición de Video.

Guía de Planificación Estratégica de la Informática Educativa

Robótica: cuerpo y alma

Evaluación de las tecnologías de lectura de códigos de barras

Empresa de estampado de metales atribuye a Plex su éxito en la gestión de datos

INFORME DE RESULTADOS: CLIMA LABORAL. UNIDAD PARA LA DOCENCIA VIRTUAL (Diciembre de 2013)

Ventajas del software del SIGOB para las instituciones

CMM - Capability Maturity Model. Estructura de CMM... Componentes de CMM. Estructura de CMM

Transcripción:

Automatización del Proceso de Ensamble Utilizando Visión Artificial Mario Peña Cabrera 1, Ismael López Juárez 2, H. Gómez N 1., R. Osorio C. 1, Oleg Sergiyenko 3 1 Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS-UNAM) Circuito Escolar, Cd. Universitaria, D.F. CP 4100,México. mario@leibniz.iimas.unam.mx 2 CINVESTAV, Saltillo, Coahuila, México. 3 Engineering Institute, Autonomous University of Baja California, Mexicali, Baja California, México. Resumen. Desde que el primer robot manipulador en aplicaciones industriales fue instalado para General Motors, la planeación y ejecución de sus movimientos ha sido una parte importante en el desarrollo de los sistemas robóticos involucrando a investigadores de diferentes especialidades. La planificación y la guía del movimiento en los robots cada vez ha sido mas compleja debido a la gran variedad de aplicaciones en que se utilizan, desde tareas extremadamente muy repetitivas en las líneas tradicionales de ensamble o bien asistencia en los movimientos de operaciones quirúrgicas muy precisas. El artículo muestra un método novedoso basado en la integración de un algoritmo de reconocimiento y una arquitectura neuronal para aplicaciones de reconocimiento invariante de objetos utilizando robots industriales auto-adaptivos que realicen tareas de ensamble. El método utilizado en experimentaciones de laboratorio es ahora presentado como una técnica robusta para el ensamble de piezas con robots guiados por visión artificial. Nuevos objetos son aprendidos en tiempos de milisegundos y son clasificados posteriormente en línea para realizar ensambles en tiempo real. La arquitectura es primeramente entrenada con pistas representando objetos diferentes que en la aplicación el robot tratará de encontrar dentro de su espacio de trabajo para formar su base de conocimientos inicial (BCP). Esta información dispara entonces el subsistema de aprendizaje en línea basado en la red neuronal artificial FuzzyARTMAP y el nuevo vector representativo de la imagen se sobre impone a las pistas iniciales, el robot aprende para identificar objetos que le son familiares y para aprender nuevos, de esta manera se integra un sistema robótico mas complejos para diferentes aplicaciones en manufactura inteligente. La propuesta tecnológica presentada para el reconocimiento invariante de objetos, está basada en el uso de formas canónicas dentro de la base primitiva de conocimiento y utilizando los aspectos y principios de Gestalt, para construir las piezas con esas formas canónicas agrupadas en diferentes maneras y siguiendo el conocimiento a priori considerando las formas de agrupamiento como pistas. M.A Cruz-Chávez, J.C Zavala Díaz(Eds):CICos2009, ISBN:978-607-00-1970-8, pp. 236-249, 2009.

Automatización del Proceso de Ensamble 237 El artículo muestra el diseño y resultados obtenidos con el uso de la técnica descrita para reconocer piezas de ensamble dentro de una celda de manufactura inteligente. 1 Introducción Los sistemas de visión actuales es deseable que sean capaces de ver y percibir objetos e imágenes de la manera más semejante a como el ser humano lo realiza, esto se hace cada vez mas necesario al utilizar sistemas complejos robóticos en donde la planificación y la guía del movimiento es cada vez mas compleja debido a la gran variedad de aplicaciones en que se utilizan [1], la planeación de los movimientos de los robots o bien la guía en línea para la realización de un proceso de ensamble son comúnmente utilizados de una u otra manera como la trayectoria o el curso planeado o calculado. El curso o rumbo de un movimiento robótico puede ser definido como la búsqueda continua de secuencias de movimiento sin colisiones entre un inicio y una meta de movimiento a realizar, mientras que la planeación de una trayectoria tiene que ver también con el historial o el plan programado de una configuración de secuencias de movimiento [2], [3]. Los sistemas en donde los robots tienen que compartir espacios comunes con otras máquinas o incluso otros robots manipuladores, son el resultado de las demandas industriales en donde el tiempo, el espacio y la productividad están muy ligados unos con otros. En el caso de volúmenes de producción muy largos y tiempos de ciclo de vida de productos grandes, la planeación de las trayectorias de movimiento de los robots para ser implantados en un proceso de manufactura de algún producto nuevo se puede hacer fuera de línea y en un tiempo largo, sin embargo, aún así, puede ser necesario parar la producción de una línea de manufactura corroborar de cuando en cuando la exactitud de las trayectorias planeadas y establecer algún ajuste para luego reestablecer la línea de producción. Por otro lado, en sistemas en donde el volumen de producción es pequeño o de tamaño medio (producción por lotes) y una sola celda de manufactura tiene que manufacturar una variedad de productos, el proceso de planeación o cálculo de las trayectorias tiene que ser muy eficiente para asegurar que el tiempo que la línea de producción este fuera no afecte el costo final de la producción del producto. De acuerdo a esto, se hace necesario la utilización de metodologías y creación de algoritmos que permitan mas flexibilidad en sistemas no-estructurados, y que permitan la planeación o calculo de trayectorias en línea, consecuentemente incrementando la productividad de los sistemas. En este sentido, la aplicación de técnicas de inteligencia artificial (softcomputing) son consideradas para mejorar el desarrollo de la planeación global de trayectorias en los movimientos de robots manipuladores industriales. Este enfoque considera el problema de que los mismos robots manipuladores tienen que encontrar un objetivo específico definido como coordenadas en su área de trabajo en lugar de una configuración de tareas fijas y repetitivas. Durante las dos últimas décadas, este problema ha sido estudiado por muchos investigadores [4], [5].

238 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko Técnicas de soft computing es el término que se le ha dado en tecnologías de la información al conjunto de métodos que abarcan la lógica difusa, redes neuronales y algoritmos genéticos utilizados para resolver problemas no lineales en donde los métodos tradicionales no lo pueden hacer. Los algoritmos genéticos fueron desarrollados por Holland [6] y posteriormente implementados por Goldberg [7], un algoritmo genético es una estrategia de búsqueda que imita la teoría de la evolución de la vida natural, la lógica difusa propuesta inicialmente por Zadhe en 1965 y luego implementada por ves primera por Madmani en 1974, es una extensión de la lógica Booleana que permite el procesamiento de información vaga o difusa. Las redes neuronales artificiales pretenden simular la manera en como el cerebro interpreta y procesa la información, los primeros trabajos fueron presentados por McCulloch y Pitts en 1943. 2 Visión artificial El advenimiento de sistemas robóticos mas complejos en diferentes aplicaciones como: manufactura inteligente, ciencias de la salud y el espacio han creado una demanda para tener mejores sistemas de visión. Los sistemas de visión deben ser capaces de ver y percibir objetos e imágenes de la manera más semejante a como el ser humano lo realiza. Las ideas que han inspirado al proyecto y nos han otorgado un razonamiento para el diseño de la metodología han sido tomadas de observar el comportamiento en bebés humanos de entre 3 meses y dos años, así como el comportamiento respecto de la evolución del desarrollo mental en los humanos reportado por Piaget, que al observar la manera como ellos entienden una escena visual para asir un simple objeto o seguir una trayectoria visual, hemos encontrado que existen dos factores importantes a considerar como conclusiones válidas en nuestro proyecto: hay un primer punto dentro de la escena de donde todos los atributos y la extracción de características son basados y este parece ser el centro de masa (el área con más peso dentro de la imagen). una vez que un objeto ha sido presentado para su visualización y aprendizaje, la siguiente vez en que es presentado el objeto al bebé humano, éste busca pistas en la escena utilizando datos y características previamente aprendidos. Estas ideas nos han llevado a pensar en la posibilidad de obtener información fiable y rápida con un simple pero objetivizado análisis de lo que un objeto debe mostrar como la información más adecuada, necesaria y primitiva para tener un conocimiento substancial y robusto de lo que se esta viendo y memorizar los aspectos más importantes de la escena (que hemos llamado pistas ), las que puede utilizar para recordar aspectos del objeto ya memorizados sin tener que obtener características más detalladas. Utilizando redes neuronales, es posible aprender habilidades para manipular objetos que puedan ser usados por robots manipuladores industriales. De alguna manera, nosotros los humanos lo hacemos de ese modo cuando ya lo hemos visto y aprendido del objeto, luego, creemos que aprendiendo formas canónicas dentro

Automatización del Proceso de Ensamble 239 del proceso inicial de conocimiento, más tarde es posible reconstruir todo el conocimiento acerca del objeto. 2.1 Reconocimiento Invariante de Objetos El reconocer un objeto utilizando un sistema de visión artificial involucra una gran cantidad de cálculos y procesos matemáticos que tienen que ser codificados e implementados y probados para poder ser utilizados en una aplicación real. De esta manera los sistemas de visión y las tecnologías de estado sólido han evolucionado en paralelo, es decir, al tener computadoras más rápidas y sofisticadas, se han podido desarrollar e implementar mejores y más complejos sistemas de visión con algoritmos más complejos que anteriormente no parecían poder ser una realidad. Las ideas básicas fueron establecidas con representaciones, arquitecturas y algoritmos que llevaron al desarrollo de esta disciplina en la investigación. Una solución general al problema de reconocimiento no existe todavía, la mayoría de los métodos clásicos de reconocimiento de objetos utilizan análisis de formas y extracción de atributos medibles de imágenes digitales para alcanzar las soluciones. Las investigaciones más recientes apuntan al uso de técnicas de inteligencia artificial para buscar las soluciones al reconocimiento invariante de objetos utilizando visión artificial. De esta manera, las redes neuronales artificiales son técnicas muy representativas para este propósito. La propuesta de metodología que presentamos para el reconocimiento invariante de objetos, está basada en el uso de formas canónicas dentro de la base primitiva de conocimiento. Se pueden representar por un vector descriptivo que hemos llamado [CFD&POSE], el que contiene la información necesaria para implementar las ideas mostradas. El artículo muestra el diseño y resultados obtenidos de la experimentación con piezas de ensamble dentro de una celda de manufactura inteligente diseñada alrededor de una arquitectura holónica en donde cada componente de la celda es un agente inteligente. Con este método, se obtiene información fiable y rápida con un simple pero objetivizado análisis de lo que un objeto debe mostrar como la información más adecuada, necesaria y primitiva para tener un conocimiento substancial y robusto de lo que se esta viendo y memorizar los aspectos más importantes de la escena (que hemos llamado pistas ), las que puede utilizar para recordar aspectos del objeto ya memorizados sin tener que obtener características más detalladas. Al utilizar el modelo de red neuronal FuzzyARTMAP, se aprenden habilidades para manipular objetos usados por robots manipuladores industriales, emulando de alguna manera el comportamiento de los humanos. El reconocimiento se establece al conformar un vector que asimila la información del objeto con una dimensión fija de datos y basado en la secuencia geométrica de formas canónicas dentro del proceso inicial de conocimiento, para más tarde hacer posible la reconstrucción del conocimiento acerca del objeto.

240 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko 2.2 Redes Neuronales Artificiales Existen diferentes tipos de redes neuronales artificiales (RNA), para esta investigación se utilizó la red Fuzzy ARTMAP, ART son las iniciales para Adaptive Resonance Theory, que es un modelo bien establecido y asociado al funcionamiento cerebral muy competitivo, introducido como una teoría del proceso cognitivo del ser humano y desarrollado por Stephen Grossberg en la Universidad de Boston. Grossberg resumió las situaciones mencionadas anteriormente como lo que el llamó Stability- Plasticity Dilemma, sugiriendo que los modelos conexionistas deberían de tener la posibilidad de adaptivamente cambiar entre sus estados plásticos y estables. Esto es, un sistema debe exhibir plasticidad para acomodar la información nueva proveniente de eventos no familiares, pero también debe permanecer en una condición estable si ocurre información familiar o irrelevante. Esta modelo de red se caracteriza por sus capacidades de adquirir conocimiento incremental y su estabilidad y además por su respuesta rápida al reconocimiento de información. 3 Manufactura Inteligente Recientemente, se ha generalizado la idea de contar con celdas inteligentes de manufactura que utilicen robots con capacidades sensoriales y algoritmos inteligentes basadas en las últimas investigaciones y desarrollos en Inteligencia Artificial (IA) como son: lógica difusa y redes neuronales. Utilizar estas técnicas, simplifica el manejo de modelos matemáticos complejos que requieren de bastante tiempo de cómputo para su implementación. Utilizar sistemas multimodales que obtengan información de diferentes modos sensoriales con el propósito de manufactura, nos hace pensar en sistemas más robustos, auto-adaptables y parecidos al comportamiento humano que necesariamente mejoran el desempeño, y flexibilidad en aplicaciones comunes con robots manipuladores [8], [12]. Diferentes sensores en sistemas de manufactura, han sido utilizados para realizar diferentes tareas muy específicas y por separado como son: guía de trayectorias para soldar piezas, sistemas de visión para aplicaciones de inspección y control de calidad y sensores de fuerza/torque para realizar tareas de ensamble. La integración de robots con capacidades sensoriales para realizar tareas de ensamble en una celda flexible de manufactura, representa un tema de vanguardia en la investigación y desarrollo de sistemas de manufactura inteligente. La mayoría de los usuarios y fabricantes que utilizan sistemas automatizados en la fabricación, han puesto su empeño en mejorar la precisión y velocidad de los sistemas robotizados, pero a un lado de las habilidades cinemáticas de un robot, sus capacidades sensoriales no han sido desarrolladas y son necesarias para proveer al robot con un alto grado de flexibilidad y autonomía en sus tareas de manufactura. Para lograr este objetivo es necesario cumplir con los requerimientos de un ambiente de producción, cuyas características pueden resultar un factor crucial en el proceso de fabricación como son: incertidumbre en la posición de las herramientas o piezas de trabajo. Para solventar esto, se utilizan partes y accesorios que garantizan posiciones fijas para realizar los

Automatización del Proceso de Ensamble 241 ensambles pero resultan costosas, muy particularizadas y generalmente con necesidad de ser ajustadas en ciertos intervalos de tiempo de uso. operación de los manipuladores con piezas de trabajo que se mueven. evaluación de fuerzas de interacción y torques. La idea entonces, es contar con robots auto-adaptables con capacidades sensoriales y de aprendizaje de habilidades en la fabricación en línea. Para ello, se necesita una integración de diferentes modos de percepción sensorial, de manera que el desempeño se parezca al comportamiento humano en sus tareas de aprendizaje y ejecución en procesos de manufactura orientados a tareas de ensamble [9]. El interés de desarrollar celdas inteligentes de manufactura con capacidades sensoriales, enfatiza el uso de un sistema de visión. 3.1 Ensamble El éxito de hacer operaciones de ensamble con robots industriales, está prácticamente basado en la exactitud del mismo robot y en la precisión del conocimiento de su medio ambiente, por ejemplo: información de la geometría de las partes que se ensamblan y su localización en el espacio de trabajo. Los robots manipuladores operan en situaciones de tiempo real con un alto grado de incertidumbre como ya se ha mencionado, y requieren de sistemas de sensado que puedan compensar los errores potenciales durante las operaciones de trabajo. Las incertidumbres provienen de una gran variedad de factores como: errores de posicionamiento de los robots, desajuste de los engranes, deflexión de los brazos, y en general el envejecimiento de los mecanismos. El controlar todos los aspectos nombrados en un proceso de ensamble es realmente una tarea difícil, pero el tener una estrategia más simple es más conveniente, tal es el caso de utilizar robots guiados con visión artificial, como lo es es una tarea de ensamble en la inserción denominada peg-in-hole 4. SISTEMA DE VISION Los sistemas de visión hoy en día, son utilizados en aplicaciones como: inspección, control de calidad y tareas de ensamble, han sido adoptados ahora como tecnología necesaria en las industrias modernas automatizadas. Se presenta un método novedoso para este propósito y pruebas para llevar a cabo un proceso de ensamble guiado por visión y utilizando para su experimentación piezas de aluminio con diferentes secciones geométricas denominadas: circular, cuadrada y radi-cuadrada. Estas componentes se muestran en la figura 1., así como la operación peg-in-hole en la figura 2.

242 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko Radiused-Square Circular Square 12.5R 250 15 15 15 Units in mm 25 Fig. 1. Componentes de ensamble. Fig. 2. Operación de ensamble peg-in-hole. cam Fig. 3. Espacio de trabajo del sistema de visión. El modo sensorial de visión proporciona al brazo-robot la información espacial en la localización (POSE) y captura de partes (grasping). La figura 3 muestra al sistema de visión integrado por: una cámara de televisión de alta velocidad del tipo progresiva con sensor CCD/B&W, PULNIX 6710 [10], colocada en un sistema de posicionamiento X-Y en la

Automatización del Proceso de Ensamble 243 parte superior de la celda de manufactura, lo que permite tener escenas de partes en diferentes localidades dentro del área de trabajo. La imagen es adquirida y procesada para obtener información confiable dentro de un rango de iluminación considerable en tareas de manufactura dentro de un ambiente industrial. La imagen es procesada para obtener una imagen binaria sobre la cual se aplican algoritmos que permiten transformar la forma en una colección ordenada de pares numéricos la cual es analizada y utilizada para obtener información de las coordenadas del centroide y puntos importantes de la forma que permiten el cálculo de la orientación del objeto para obtener el POSE [11]. 4 METODOLOGIA La metodología propuesta para el reconocimiento invariante de objetos de ensamble está basada en el uso de formas canónicas dentro de lo que se ha llamado Base de Conocimiento Primitiva (BCP), que es constuída durante la fase de entrenamiento, la que una vez teniéndola dentro del sistema, la idea es refinarla en línea. Para ilustrar la metodología es conveniente considerar los componentes de ensamble representados en 2D, como en la figura 4. Fig. 4. Representación de piezas de ensamble en 2D. Estas formas canónicas sirven como pistas insertadas inicialmente en la BPC y en la que es posible analizar el proceso de agrupamiento. El conocimiento es adquirido al presentar múltiples instancias del objeto en escena, como se muestra en la figura 5, en donde un ejemplo de una pieza circular y posibles vistas son ilustradas diagramáticamente. El siguiente paso es codificar la información de los objetos para tener un vector descriptivo que sea invariante a la rotación, traslación y escalamiento.

1 244 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko Fig. 5. Múltiples instancias de una pieza circular. Teniendo un vector descriptivo como el descrito, es posible entrenar a una red neuronal artificial para tener una familia de vectores descriptivos generados en línea con el sistema de visión (figura 6). Los pasos a seguir en la metodología del sistema de visión para el robot son: Rápida adquisición de la escena visual de trabajo. Encontrar la región de interés(roi) Calculo del histograma de la imagen. Búsqueda de piezas Cálculo del centroide Orientación de la pieza Calculo de la función boundary object function (BOF) Generación del vector descriptivo y normalización (CFD&POSE). Procesamiento de información en la red neuronal. Acquisition hardware KUKA ROBOT Assembly piece CFD & POSE Module clasiffied object & POSE INPUT Algoritmo CFD&POSE: [00000000 00000000 00111100 00111100 00111100 00111100 00000000 00000000] [00000000 [xxxxxxxx 01232100 x m xxxm xx 02444200 xxxxxxxx 03696300 xxxm xxxx 02444200 xxxxxxxx 01232100 x m xxxm xx 00000000 00000000] xxxxxxxx xxxxxxxx ] D1 D2 D 3 D n [ CFD & POSE] = X c Yc φ Z ID Valores normalizados Patrones de entrenamiento 0.25 0.2 0.15 0.1 0.05 0 27 53 79 105 131 157 OUTPUT

Automatización del Proceso de Ensamble 245 Fig. 6. Módulo CFD&POSE y red neuronal. 4.1 Generación del Vector Descriptivo Una vez que la información ha sido procesada se conforma un vector descriptivo que es la entrada a la red neuronal. El vector es llamado CFD&POSE y está formado por: donde: D1 D 2 D3 D n [ CFD & POSE] = X c Y c φ Z ID D i es la distancia del centroide al perímetro X C, Y C, son las coordenadas del centroide φ, es el ángulo de orientación Z es la altura del objeto ID es un número codificado relacionado a la geometría de los componentes. La función Boundary Object Function (BOF), es la que describe a cada pieza específica y variará de acuerdo a la forma de cada pieza figura 7.

0 246 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko 1 A a 0. 9 0. 8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 1 15 29 43 57 71 85 99 113 127 141 155 169 183 1 0.9 0.8 B b 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 1 15 29 43 57 71 85 99 113 127 141 155 169 183 1 0. 9 0. 8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 C c 1 15 29 43 57 71 85 99 113 127 141 155 169 183 Fig. 7. BOF a) circulo, b) cuadrado, c) radi-cuadrado 5 Resultados Experimentales 5.1 Entrenamiento y Reconocimiento en Línea Con la finalidad de probar con las piezas de ensamble y el sistema de visión, se hizo trabajo experimental para comprobar la realización y robustez de las tareas de ensamble con la red neuronal artificial y la metodología propuesta. En un principio la red fue entrenada con 2808 patrones diferentes para analizar la capacidad de aprendizaje y reconocimiento de las piezas de trabajo. Los resultados relacionados con el porcentaje de reconocimiento y el número de neuronas generadas se muestra en la figura 9. La gráfica muestra como el sistema aprendió todos los patrones en 3 épocas creando solamente 32 neuronas para clasificar 2808 patrones. La figura 8 muestra el trabajo experimental con el robot. El tiempo promedio para el entrenamiento fue de 4.42 ms. Y para la prueba de 1.0 ms., un proceso de normalización se aplicó al vector descriptivo y el trabajo experimental se redujo a solo 216 patrones de componentes del mismo tamaño, correspondientes a 72 cuadrados, 72 círculos y 72 radi-cuadrados.

Automatización del Proceso de Ensamble 247 Fig. 8. Trabajo experimental. %Recongintion / #Neurons 120 100 80 60 40 20 0 Learning convergence 1 2 3 4 5 Epochs %Regcongnition # Neurons Fig. 9. Aprendizaje de la red neuronal. Los valores de orientación fueron 0, 45, 90, 135, 180, 215, 270 y 315 grados. Con estos patrones de entrenamiento, el sistema fue capaz de reconocer el 100% de las piezas presentadas en línea sin importar si fueron de diferente tamaño, en diferente localidad y rotación y para diferentes condiciones de iluminación. Las piezas utilizadas para entrenar la red neuronal se muestran en la figura 10 y la 11 muestra gráficas diferentes

248 M. Peña, I. López, H. Gómez, R. Osorio, O. Sergiyenko para diferentes vectores descriptivos de cada pieza de ensamble y en diferentes posiciones, tamaños y orientaciones.. Fig. 10. Piezas de ensamble para trabajo experimental. 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 1 0.1 0.9 0 0.8 1 11 21 0.731 41 51 61 71 81 91 101 111 121 131 141 151 161 171 181 0.6 0.5 0.4 0.3 0.2 0.1 1 0 0.9 1 11 21 31 41 51 61 71 81 91 101 111 121 131 141 151 161 171 181 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 1 11 21 31 41 51 61 71 81 91 101 111 121 131 141 151 161 171 181 Fig. 11. Vectores descriptivos para piezas de ensamble en diferentes posiciones y tamaños. 6 Conclusiones y Trabajo Futuro Una metodología novedosa para el rápido reconocimiento de objetos y la estimación de su posición con piezas de ensamble en manufactura se logró con éxito, Los resultados experimentales muestran metodología para el procesamiento de imágenes y cálculos del centroide y perímetro en los componentes. Las pruebas se realizaron en ambientes de manufactura reales. Los resultados muestran la factibilidad del método para mandar información de agarre y morfología de las piezas a un robot en tiempo real. Reconocimiento muy aceptable de los componentes de ensamble e identificación de piezas de trabajo, se logró con éxito utilizando un modelo de red neuronal FuzzyARTMAP. El desempeño del modelo fue muy satisfactorio con tiempos de reconocimiento menores a 5 ms. Y rangos de identificación del 100%. Medidas experimentales mostraron ±3 milímetros de error en la información mandada al robot. El ángulo de orientación de las piezas pudo obtenerse hasta ±9 grados, lo cual es bastante bueno para que el robot pueda asir las piezas.

Automatización del Proceso de Ensamble 249 7 Referencias [1] Tombropolous,R.Z., J.R. Adler et al. (1999),»Carabeamer : A treatment planner for a robotic radiosirurgical system with general kinematics», Medical Image Analysis 3(3) : 237,264. [2] Sugihara, K. and J. Smith (1997). Genetic algorithms for adaptive motion planning of autonomous mobile robots. Technical Report, Manoa, University of Hawaii. [3] Wise, D.K. and A. Bowyer (2000), A survey of global onfiguration-space mapping techniques for a single robot in a static environment, International Journal of Robotic Research: 762-769. [4] Latombe,J.C. (1991), Robot Motion Planning. Boston, MA, USA, Kluwer Academic. [5] Hwang,Y:K:,and N. Ahuja (1992), Gross motion planning: a survey, ACM Computing Surveys 24(3): 219-291. [6] Holland, J. H. (1975). Adaptation in natural and artificial systems, University of Michigan Press. [7] Goldberg, D.E. (1983), Computer-aided gas pipeline operation using genetic algorithms and rule learning (Doctoral dissertation), University of Michigan. [8] L. Wu,S. L. Oviatt, P. R. Cohen, Multimodal Integration A Statical View, IEEE Transactions on Multimedia, vol 1, Num. 4, pp 334-341, 1999. [9] I.López-Juárez, On-Line Learnings for Robotic Assembly using artificial neural networks and contact force sensing, PhD. Thesis, Nothingham Trent University, Inglaterra, 2000. [10] www.pulnix.com [11] M. Peña, I. López-Juárez, R. Osorio. Invariant Object Recognition Applied to Machine Robot Vision (In Spanish). 17 th. Conference of the Mexican Society for Instrumentation 2002, October 2002. [12] I. López-Juárez, M. Howarth. Learning Manipulative Skills with ART. IEEE/RSJ International Conference on Intelligent Robots and Systems ( IROS 2000), Takamatsu, Japan, Vol 1, pp 578-583 ISBN 0-7803-6351-5.