REVISTA CUBANA DE INGENIERÍA

Tamaño: px
Comenzar la demostración a partir de la página:

Download "REVISTA CUBANA DE INGENIERÍA"

Transcripción

1

2 Vol. III, No. 1, 2012 enero-abril Revista del Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, Cuba REVISTA CUBANA DE INGENIERÍA DIRECTOR Y EDITOR TÉCNICO Dr. Gonzalo González Rey Vicerrectoría de Investigación y Posgrado Instituto Superior Politécnico José Antonio Echeverría, Cujae MIEMBROS DEL COMITÉ EDITORIAL Dr. Ángel Regueiro Gómez Facultad de Ingeniería Eléctrica Instituto Superior Politécnico José Antonio Echeverría La Habana. Cuba Dr. Jorge Laureano Moya Rodríguez Facultad de Ingeniería Mecánica Universidad Central Marta Abreu de Las Villas Villa Clara. Cuba Dr. Tomás Cañas Louzau Centro de Referencia de Enseñanza Avanzada Instituto Superior Politécnico José Antonio Echeverría La Habana. Cuba Ing. Odiel Estrada Molina Departamento de Geoinformática Universidad de las Ciencias Informáticas La Habana. Cuba Dr. José Antonio Vilan Vilan Escuela Técnica Superior de Ingenieros Industriales Universidad de Vigo. Vigo. España. REVISORES INVITADOS Dr. Alejandro Cabrera Sarmiento. Instituto Superior Politécnico José Antonio Echeverría. Cuba. MSc. José Luis Pérez Iglesias. Universidad de Salamanca. España. EDITOR EJECUTIVO Yusnier Ferrer Granado Jefe de Departamento de Comunicación EDITORA Lic. Mayra Arada Otero DISEÑO DE CUBIERTA Alex Álvarez Martínez DISEÑO INTERIOR Yaneris Guerra Turró COMPOSICIÓN COMPUTARIZADA Y REALIZACIÓN Maritza Rodríguez Rodríguez REVISORA DE TEXTOS EN INGLÉS Natasha Shanique Walker Ing. Raúl Gutiérrez Perucho Escuela de Ingeniería. Instituto Tecnológico de Estudios Superiores de Monterrey Aguascalientes. México Nuestra Revista pueder ser visitada a través del sitio web: La correspondencia puede dirigirse a: Revista Cubana de Ingeniería Calle 114, No , e/ 119 y 127, Apartado 6028, Cujae, C.P.: 11901, Marianao, Ciudad de La Habana, Cuba.

3 PROPÓSITOS Y ALCANCE VISIÓN La Revista Cubana de Ingeniería se propone contribuir a la comunicación entre los profesionales de la ingeniería y se concibe como un foro en el que se presentan artículos científico-técnicos en las variadas áreas de la ingeniería, con un destaque de resultados novedosos y aportes de relevancia para la profesión. De esta manera, la revista se propone contribuir a la actualización de profesionales, investigadores, profesores y estudiantes de ingeniería, a la discusión científica nacional e internacional y, por consiguiente, al desarrollo tecnológico y científico de Cuba en el área de la ingeniería. PÚBLICO La Revista Cubana de Ingeniería se dirige especialmente a la comunidad académica y científica, nacional e internacional, centrada en el tema de la ingeniería. Ingenieros, investigadores, profesores o gerentes que trabajen en alguna de las ramas de la ingeniería o en cualquier ciencia o tecnología afín constituyen el universo de lectores y contribuyentes de la revista. TEMÁTICA Y ALCANCE DE LA REVISTA Una lista, que no pretende ser completa, de los temas de interés para la revista incluye contenidos en la solución de problemas, aplicaciones y desarrollo de la ingeniería civil, eléctrica, electrónica, hidráulica, industrial, informática, química, mecánica, mecatrónica y metalúrgica, además de contenidos asociados con la ingeniería de materiales, bioingeniería, transporte, geofísica, reingeniería y mantenimiento. También se consideran apropiados, artículos orientados a la formación de las nuevas generaciones de ingenieros, incluidos los programas de estudio, las tecnologías educativas, la informática aplicada, la gerencia universitaria y las relaciones universidadindustria. Puesto que la práctica de la ingeniería obliga cada vez más a la interacción de sus diversas disciplinas, esta revista le asigna la primera prioridad de publicación a los artículos donde se preste atención a la integración multidisciplinaria, a los desarrollos interdisciplinarios y a las aplicaciones prácticas. A fin de asegurar una alta calidad del contenido, todos los trabajos publicados serán arbitrados.

4 REVISTA CUBANA DE INGENIERÍA SUMARIO/CONTENTS EDITORIAL 4 INGENIERÍA INFORMÁTICA PROPUESTA DE HERRAMIENTAS PARA LA INTEGRACIÓN DE DATOS / PROPOSED TOOLS FOR DATA INTEGRATION Debora Oliva Alfonso Thais Pineda Alfonso Dalila Kindelán Castro Josue Carralero Iznaga MODELO DE DESCRIPCIÓN DE ARQUITECTURA DE ALMACENES DE DATOS PARA ENSAYOS CLÍNICOS DEL CENTRO DE INMUNOLOGÍA MOLECULAR / DESCRIPTION MODEL OF WAREHOUSE ARCHITECTURE FOR CLINICAL TEST AT THE MOLECULAR IMMUNOLOGY CENTRE Anthony Rafael Sotolongo León Martha Denia Hernández Ramírez INGENIERÍA MECÁNICA GESTIÓN DE LAS DISCONTINUIDADES GEOMÉTRICAS COMBINADAS EN EL DISEÑO MECÁNICO / MANAGEMENT OF THE COMBINED GEOMETRICAL DISCONTINUITIES IN MECHANICAL DESIGN Ricardo Mario Amé Daniel Hernán Lezama MECATRÓNICA SISTEMA DE LOCALIZACIÓN DE UN ROBOT MÓVIL USANDO TÉCNICAS DE VISIÓN COMPUTACIONAL / LOCALIZATION SYSTEM FOR A MOBILE ROBOT USING COMPUTER VISION TECHNIQUES Vol. III, No. 1, 2012 Tres números al año PROBLEMAS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA UNIVERSIDAD, PATENTES E INNOVACIÓN / UNIVERSITY, 37 Antonio B. Zaldívar Castro Lierli Oconnor Montero PATENTS AND INNOVATIONS TELECOMUNICACIONES APLICACIONES Y SERVICIOS BASADOS EN LOCALIZACIÓN / LOCATION BASED SERVICES AND APPICATIONS Elenis Gorrita Michel Rónier Sierra Dávila Samuel Montejo Sánchez EVALUACIÓN DE MODELOS DE PROPAGACIÓN DE CANAL INALÁMBRICO / WIRELESS CHANNEL PROPAGATION MODELS EVALUATION 53 Raikel Bordón López Reinier Alonso Quintana Samuel Montejo Sánchez OPTIMIZACIÓN DE SISTEMAS CASSEGRAIN UTILIZANDO ALGORITMOS GENÉTICOS /OPTIMIZATION OF CASSEGRAIN SYSTEMS USING GENETIC ALGORITHMS Carlos Santos Rodríguez Ana Teresa Aday Martínez Rony Cruz Ramírez Maikel O. Torres Piñeiro Valery Moreno Vega

5 EDITORIAL... A pocos días de publicarse esta edición de Revista Cubana de Ingeniería, como cada año, los profesionales nacionales de la ingeniería, en la fecha del 11 de enero celebran el Día del Ingeniero Cubano. Esta conmemoración fue instituida en 1946 para honrar el nacimiento en 1816 del ilustre ingeniero cubano Francisco de Albear y Fernández de Lara. A partir de 1996, la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba en el marco de las actividades conmemorativas del Día del Ingeniero Cubano hace entrega del Premio Nacional Vida y Obra de Ingeniería a profesionales destacados por sus importantes aportes a la ingeniería, quienes por la relevancia de su vida y labor prestigian a la nación, pero también es una ocasión propicia para reconocer la labor del insigne ingeniero Francisco de Albear, mayormente conocida por los habaneros al relacionarla con la autoría y ejecución del proyecto del Acueducto de Albear. El proyecto del acueducto que inmortaliza a Francisco de Albear, le fue encomendado cuando ejercía funciones de presidente de la Junta de Obras Públicas de Cuba. El informe titulado "Proyecto de conducción a La Habana de las aguas de los manantiales de Vento" fue reconocido con Medalla de Oro en la Exposición Universal de París en 1878 y considerado por los especialistas como una obra maestra de la ingeniera, atendiendo a las soluciones que aportaba con excelencia en los detalles técnicos, estéticos y de saneamiento que destacan en el proyecto original. El Acueducto de Albear fue inaugurado en 1893, seis años después de la muerte de su autor, y aún hoy después de más de un siglo de construida, la obra de ingeniería abastece de agua a la capital, sin consumir combustible ni necesitar prácticamente tratamiento previo. La historia de la ingeniería cubana reconoce la intervención de Francisco de Albear en otros proyectos, construcciones y reparaciones que involucran obras conocidas en la actualidad como los Puentes Grandes sobre el río Almendares, calles y avenidas como Concha y Luyanó, la instalación de las primeras líneas telegráficas y el plano topográfico de La Habana, este último con una precisión tan detallada que solo fue superada en los años 80 por los levantamientos realizados con motivo del proyecto del Metro de La Habana. En la actualidad, en el capitalino Parque Central, donde convergen las calles Obispo y O Reilly, una estatua rinde merecido tributo a Francisco de Albear y permite recordar al paseante que ya en los años donde se gestaba la nacionalidad cubana, el país tuvo ingenieros de grandes obras, profesionalismo y reconocimiento. Todo lo anterior, y más, hace que Revista Cubana de Ingeniería se una a la conmemoración del próximo Día del Ingeniero con unas merecidas felicitaciones a los ingenieros cubanos y que se recuerde con este Editorial la obra destacada de Francisco de Albear y Fernández de Lara quien fuera un ejemplo inigualable de ingeniero cubano y digna referencia para los profesionales de la ingeniería moderna. Dr. Gonzalo González Rey Director y Editor Técnico

6 1(III), 5-13, 2012 Propuesta de herramientas para la integración de datos Debora Oliva Alfonso Correo Thais Pineda Alfonso Correo Dalila Kindelán Castro Correo Josue Carralero Iznaga Correo Complejo de Investigaciones Tecnológicas Integradas (CITI), La Habana, Cuba INGENIERÍA INFORMÁTICA Artículo Original Resumen Actualmente, en la mayoría de las empresas, para la realización de algunas operaciones de negocio y fundamentalmente para la toma de decisiones, se deben manipular grandes volúmenes de datos. Esta información reside en diversos repositorios de datos, de manera descentralizada, con errores y en ocasiones repetida. Debido a esto, el proceso de integración se torna complejo y poco eficiente, pues se consume mucho tiempo en realizar búsquedas directamente a la fuente de datos, requiriéndose conocer la estructura de cada una. Con mucha frecuencia el empleo efectivo de la información ha servido a las organizaciones para reducir sus costes, optimizar sus procesos, ofrecer nuevos productos y mejorar el servicio a sus clientes. Sin embargo, son muchos los obstáculos que se presentan para una gestión estratégica de la información, siendo probablemente los dos más citados la dispersión y la heterogeneidad. Esto también dificulta el proceso de integración de información, atentando contra su uso eficiente por parte de los directivos de las organizaciones. El presente trabajo está dirigido al estudio de los niveles de integración de información y técnicas para la integración de datos que permiten realizar un acercamiento al estado del arte de la integración de información. Además, se realiza un análisis sobre el empleo de herramientas de integración de datos en un entorno empresarial, llegando a propuestas concretas. El objetivo que se persigue es que las organizaciones que presentan problemas similares a los antes descritos, descubran las variantes de solución que existen y sepan utilizarlas en dependencia de sus necesidades. Palabras clave: integración, información, datos, niveles, técnicas, herramientas Recibido: 28 de octubre del 2011 Aprobado: 12 de diciembre del 2011 INTRODUCCIÓN Hoy en día, para soportar todo tipo de procesos, las compañías disponen de variedad de sistemas de información desarrollados a lo largo del tiempo y que hacen uso de distintas fuentes de información. Habitualmente, estas fuentes de información presentan esquemas de consulta muy variados, están desarrolladas sobre tecnologías diferentes (bases de datos relacionales, ficheros planos, etc.) y de acuerdo con modelos de datos heterogéneos. Para poder proporcionar información que sirva de soporte al análisis para la toma de decisiones claves sobre el negocio, es necesario integrarla bajo una estructura homogénea como paso previo a su empleo. En la actualidad existen técnicas de integración de datos, que no son más que enfoques conceptuales que definen las diversas formas de integrar la inf ormación. Estas técnicas tienen como base la construcción de modelos integrados que facilitan el acceso a las fuentes de datos, así como el trabajo de los analistas

7 Propuesta de herramientas para la integración de datos de la información, eliminando los errores y la redundancia en los datos. En este trabajo se introducen los niveles de integración de información, profundizando en el nivel de integración de datos a través de sus técnicas y tecnologías. Además, se define un conjunto de pautas a tener en cuenta para evaluar las herramientas y a partir de las cuales se realiza una propuesta de herramientas que se basan en la estrategia de consolidación y federación de datos. Dichas herramientas permiten, de una forma u otra, implantar una solución de integración a la medida de las necesidades de la empresa. NIVELES DE INTEGRACIÓN DE INFORMACIÓN La integración de información es la combinación de datos de diversos repositorios con diferentes representaciones conceptuales y contextuales; es un proceso complejo que puede ocurrir en cuatro niveles diferentes: datos, aplicaciones, procesos de negocio e interacción de usuario. En la actualidad, existe una tendencia a implantar soluciones que soporten múltiples niveles de integración y es, por consiguiente, importante diseñar una arquitectura de integración que pueda incorporar todos los niveles de integración de negocio de la empresa. En esta sección se describirá en qué consiste cada uno de los niveles de integración, se resaltan sus diferencias y los cambios que tendría en una organización asumir cada uno de ellos. Integración de datos El nivel de integración de datos proporciona una vista unificada de los datos que están dispersos por todas las fuentes de datos de la organización. Puede ser una vista física de datos que han sido recuperados de diferentes fuentes de información y consolidados en un repositorio, o puede ser una vista virtual que es construida dinámicamente, a la vez que se accede a los datos. Una tercera opción sería una vista de datos que han sido integrados producto de una propagación de datos de un repositorio a otro [1] [2]. El proceso de integrar a nivel de datos en las empresas es un proceso factible si se tiene en cuenta que solo requiere tener bien definidas y localizadas las fuentes de datos de las cuales se va a extraer la información que será integrada. Por otra parte, es necesario que existan especialistas en las empresas que conozcan estas fuentes de datos para poder realizar el proceso de integración con la mayor profundidad y calidad posible. Integración de aplicaciones El nivel de integración de aplicaciones provee una visión unificada de las aplicaciones que residen dentro o fuera de la organización. Esta visión unificada se logra a través de la gestión y coordinación del flujo de eventos (transacciones, mensajes o datos) entre aplicaciones [2]. Existen grandes diferencias entre este nivel y el anterior. El nivel de integración de datos posibilita crear un modelo de información unificado que permite proporcionar una visión a un nivel de abstracción superior. Este modelo puede ser accedido por usuarios y aplicaciones. Sin embargo, el nivel de integración de aplicaciones permite tener sincronizadas las aplicaciones a partir de eventos generados por las mismas. Los cambios de integrar a nivel de aplicaciones en las empresas son considerablemente grandes, variando en dependencia de la complejidad de cada empresa. Las implementaciones en este nivel requieren también capacidades y experiencia que, al tratarse de un concepto nuevo, no son abundantes. Las compañías más grandes tienen por lo general equipos de especialistas en arquitectura de sistemas y desarrolladores capaces de realizar la tarea. En dependencia de la tecnología de integración que se utilice, cada organización tendrá que asumir los retos necesarios para realizar una integración a este nivel. Esto conlleva que todas las aplicaciones se preparen para integrarse, ya sea a través de mensajes o a través de servicios, lo cual se puede tornar complejo en dependencia de las arquitecturas con la cual han sido concebidas dichas aplicaciones. Integración de procesos de negocios El nivel de integración de procesos de negocio proporciona una vista unificada de los procesos de una organización. Las herramientas de diseño de procesos de negocios permiten a los desarrolladores analizar, modelar, y simular los procesos, así como sus actividades subyacentes. Estas herramientas, por lo general, implementan y manejan estos procesos a través de tecnologías de integración de aplicaciones. Actualmente en la mayoría de las empresas se tiene una visión del funcionamiento de la misma, orientada a los sistemas informáticos que en ella se han desarrollado; este es un enfoque erróneo porque los procesos de negocio rara vez están regidos solo por un sistema o aplicación. La ejecución de muchos procesos de negocios puede implicar la combinación de varias aplicaciones, por lo que se evidencia una estrecha relación con el nivel anterior. Al tener integradas un conjunto de aplicaciones, estas pueden responder a determinados procesos de negocios. Es importante resaltar que la integración de procesos de negocio no implica solamente tener integradas las aplicaciones involucradas, sino también, que un proceso pueda colaborar con otro, es decir, lograr que los procesos de la empresa estén relacionados. En el ámbito de la integración de información, integrar a nivel de procesos presupone conocer todos los procesos de negocio que se llevan a cabo en la empresa. Para lograr este f in se debe contar con un equipo compuesto fundamentalmente por conocedores del negocio que realicen un levantamiento de los procesos y sus actividades subyacentes y los modelen. Por otra parte, un grupo de desarrolladores conocedores de las aplicaciones que responden a estos procesos deben llevar a cabo el proceso de integración. Interacción de usuarios El último nivel es la interacción de usuarios que se basa en proveer a los usuarios una única interfaz personalizada donde se presenta el contenido empresarial (procesos de 6

8 Debora Oliva Alfonso - Thais Pineda Alfonso - Dalila Kindelan Castro - Josue Carralero Iznaga negocio, aplicaciones y datos). Una vez que se haya efectuado el proceso de integración ya sea a nivel de datos, aplicaciones, procesos de negocios o una combinación de estos niveles, se debe exponer de manera homogénea la información integrada de forma que los usuarios puedan interactuar con ella, permitiendo su análisis y comprensión, para tomar decisiones más precisas. Esta interfaz debe permitir a los usuarios colaborar y compartir información. Un portal es la variante más empleada para exponer los resultados de la integración que se ha llevado a cabo en la empresa. Implantación de los niveles de integración en la empresa Una empresa puede implantar una solución que soporte el nivel de integración que más se ajuste para resolver sus necesidades, pasando por alto algún nivel. No obstante, la literatura recomienda que las empresas transiten por cada uno de estos niveles teniendo en cuenta los cambios que presupone su implantación: primero integrar a nivel de datos, luego a nivel de aplicaciones, posteriormente a nivel de procesos de negocio y finalmente exponer toda la información integrada de forma tal que pueda ser compartida, permitiendo así a las empresas tener un entorno de negocios totalmente integrado. TÉCNICAS DE INTEGRACIÓN DE DATOS Aunque son varios los niveles que existen para la integración de información, el presente trabajo se circunscribe en el nivel de integración de datos, que como la literatura recomienda, es el más sencillo de aplicar en una empresa. Existen tres técnicas principales para la integración de datos: Consolidación de datos, Federación de datos y Propagación de datos, las cuales se ilustran en la figura 1. Además, existe una técnica que complementa las dos primeras, y se denomina captura de cambios en los datos, de la cual también se hará un breve análisis en el presente epígrafe. Consolidación de datos La técnica consolidación de datos captura la información de las diferentes fuentes de datos y la almacena en un único repositorio central. Este repositorio puede ser utilizado para la generación de reportes, para los procesos de análisis de la información y toma de decisiones y también puede actuar como una fuente de datos para diversas aplicaciones. El uso de esta técnica implica que exista un retraso, o latencia, en cuanto a la actualización de la información, pues como el proceso de obtención y almacenamiento ocurre periódicamente, puede que cierta información no esté del todo actualizada en un momento determinado. En dependencia del tiempo de actualización que se defina, este período de latencia puede durar desde algunas horas hasta varios días. [3] Las ventajas que ofrece esta técnica es que permite que grandes volúmenes de datos sean transformados, reestructurados y limpiados cuando viajan hacia el repositorio central. Sin embargo, se requieren muchos recursos de cómputo para soportar el proceso de consolidación debido a los grandes volúmenes de información a almacenar. [3] Esta técnica es conveniente utilizarla cuando se requiere integrar grandes volúmenes de información, cuando los datos a integrar no son muy cambiantes y cuando es necesario realizar complejas transformaciones a los mismos. Existen varias tecnologías que implementan esta técnica. Una de ellas es la ETL (siglas en inglés de Extraer, Transformar y Cargar) que consiste en que la información es extraída desde un origen de datos y pasa por una secuencia de transformaciones antes de ser cargado en un repositorio central. El conjunto de fuentes de datos puede ser muy diverso y las transformaciones complejas son implementadas en entornos de desarrollo o dentro de las bases de datos. [4] La tecnología MDM (siglas en inglés de Gestión de Datos Maestros) es muy similar a la tecnología ETL en cuanto a la concepción de integración de información. Fig. 1. Técnicas fundamentales de integración de datos. 7

9 Propuesta de herramientas para la integración de datos La principal diferencia es que MDM se emplea para integrar los datos maestros de la empresa, es decir, la información básica, más valiosa sobre el negocio. Se encuentran muchas herramientas en el mercado que implementan esta tecnología y traen incorporados perfiles específicos del negocio, como productos, clientes, que f acilitan el proceso de integración. [5] La tecnología ECM (siglas en inglés de Gestión de Contenido Empresarial) permite integrar información no estructurada basándose en la técnica de consolidación. Los productos ECM se concentran en el intercambio y la gestión de grandes cantidades de datos no estructurados como documentos, información de la Web y multimedia, relacionados con los procesos de la organización. [6] Federación de datos La técnica Federación de datos provee una vista virtual única de la información recuperada de diferentes fuentes de datos. Uno de los elementos claves de un sistema de federación son los metadatos que son usados por el motor de federación para acceder a los datos, pues estos contienen información acerca de la localización real de los mismos. Esta información adicional puede ayudar a la solución federada a optimizar el acceso a los repositorios de datos. [7] Es importante resaltar que el acceso a los datos se realiza en tiempo real y que los mismos se mantienen en su lugar de origen; esta es su principal diferencia con la técnica de consolidación. Cuando una aplicación solicita información, el motor de federación obtiene los datos directamente de las fuentes, los une en una vista virtual y los resultados de esta unión son devueltos a la aplicación. Las ventajas que brinda esta técnica es que siempre la información se encuentra actualizada, debido a que la integración se realiza en tiempo real. Presenta como inconveniente que no permite recuperar grandes volúmenes de datos y realizar grandes transformaciones a los mismos. Es conveniente utilizarla cuando se necesiten pequeños volúmenes de información para pequeñas consultas y cuando los datos a integrar sean muy cambiantes. [3] La tecnología más comúnmente usada en el mundo para implementar la federación de datos es EII (siglas en inglés de Integración de Información Empresarial) la cual consiste en construir vistas virtuales de la información que se encuentra dispersa en diferentes fuentes de datos. La tecnología EII facilita establecer una capa intermedia de servicios de datos, que lanzan consultas a los diferentes sistemas de información [8]. Los servicios web son una tecnología que no surgió explícitamente para la integración de datos, pero por su característica de ser interoperables, son ampliamente utilizados para federar datos. De hecho, muchos productos EII exponen la integración de sus datos como servicios web accesibles para terceras aplicaciones que necesiten contar con datos integrados en tiempo real. Propagación de datos La técnica Propagación de datos consiste en la distribución de datos desde una fuente de información hacia otra, lo que posibilita que la información de ambas fuentes se encuentre siempre sincronizada. Las fuentes de datos deben ser constantemente actualizadas y este proceso consiste en mover grandes volúmenes de datos de un sistema a otro. Es común, para el movimiento de estos grandes volúmenes de datos, que sea realizado en lotes dentro de un período breve de tiempo. Cuanto mayor sea el volumen de datos a mover, más difícil y complejo se volverá este proceso. Es necesario entonces, encontrar la manera de moverlos con mayor rapidez y de identificar y mover solo los datos que han sido modificados desde la última actualización. Esta técnica se relaciona en algunas ocasiones con la técnica Captura de cambios en los datos, para capturar y propagar solo los cambios ocurridos. La gran ventaja que presenta esta técnica es que puede ser utilizada en tiempo real o en un tiempo cerca de lo real. [3] EDR (siglas en inglés de Replicación de Datos Empresariales) es una tecnología que se basa en la técnica de propagación de datos y frecuentemente emplea la técnica de Captura de cambios en los datos para replicar solo la información que ha cambiado en el origen de datos. Captura de cambios en los datos Es una estrategia de integración de datos para determinar los datos que han sido cambiados, la cual se basa en la identificación, captura y entrega de los cambios (nuevas inserciones, eliminaciones, modificaciones) realizados a las fuentes de datos. Consiste en una variedad de métodos que optimizan la transferencia de datos al mover solo los que han cambiado desde la última transferencia [9]. Sin la utilización de esta técnica, todos los datos deben ser accedidos en lotes y movidos a la fuente que los necesite. Con esta técnica solo un pequeño número de cambios es procesado y enviado a la fuente destino. [10] Existen varios métodos que son utilizados por esta técnica para localizar y capturar los cambios ocurridos en los datos. El método Time-stamp (marca de tiempo) muestra la fecha del último cambio en cualquier fila de cualquier tabla que tenga una marca de tiempo asociada; la columna que tenga la fecha de cambio más reciente, fue la que cambió. La enumeración de versiones es otro método muy utilizado donde se considera que han cambiado todos los datos con números de versiones más recientes. También se emplean triggers para almacenar una copia de los datos modificados e indicadores de estado. La mayoría de los sistemas de gestión de base de datos administran un registro de transacciones que registra todo cambio realizado al contenido y los metadatos de la base de datos. [3] Las marcas de tiempo y los números de versiones son comúnmente utilizados en las aplicaciones de datos no estructurados. Cuando un documento es creado o modificado, los metadatos del documento son actualizados para reflejar la fecha y hora de la actualización. Muchos sistemas de datos no estructurados también crean una nueva versión del documento cada vez que se modifica. 8

10 Debora Oliva Alfonso - Thais Pineda Alfonso - Dalila Kindelan Castro - Josue Carralero Iznaga Enfoque híbrido para la integración de datos Existe una tendencia a implantar un enfoque híbrido que incorpore la combinación de varias técnicas. Este enfoque es muy apropiado ya que se pudiera tener la información poco variable en el tiempo en un repositorio físico de datos utilizando la técnica Consolidación de datos, mientras que por otra parte se tendría la información, que cambia con frecuencia, de manera virtual mediante la técnica de Federación de datos. Igualmente se puede propagar la información, cuando se efectúe un cambio en algún sistema usando la técnica de Propagación de datos. [3] HERRAMIENTAS PARA LA INTEGRACIÓN DE DATOS Lo más recomendable para cualquier organización es comenzar por el nivel de integración de datos, pues solo es necesario ubicar los repositorios de datos y construir vistas de la información que puedan ser accedidas posteriormente desde aplicaciones externas. Por esta razón la presente investigación aborda herramientas basadas en las técnicas de federación y consolidación de datos. Las herramientas de consolidación evaluadas tienen implementadas además las técnicas de captura de los cambios en los datos y la propagación. No se tuvo en cuenta la tecnología ECM porque es necesario tener amplios conocimientos de cómo explotar la información textual antes de comenzar a evaluar herramientas de este tipo. Por otra parte tampoco se tuvieron en cuenta herramientas MDM puesto que son una variante específica de la técnica de consolidación para gestionar los datos maestros de una empresa. Arq uitectura g enéri ca de las h erramientas de integración de datos Las herramientas para la integración de datos, tanto de consolidación como de federación, se caracterizan por brindar conectores o adaptadores para un amplio conjunto de fuentes de datos estructuradas, desde diferentes tipos de bases de datos hasta servicios web. Cuando se desea desarrollar un modelo de integración, el primer paso es identificar las fuentes de datos que van a brindar la información que necesita, obteniendo de esta forma el modelo físico de los datos. Luego, se aplican reglas de transformación a los datos que permiten lograr un modelo lógico de datos que exprese las necesidades del usuario. Este modelo una vez confeccionado puede ser accedido desde aplicaciones externas, lo cual facilita la toma de decisiones a los clientes, al contar con la información integrada. La figura 2 muestra una vista de la arquitectura de estas herramientas basándose en lo explicado anteriormente. Pautas para evaluar las herramientas de integración de datos Con el incremento de la demanda de soluciones de integración por parte de las empresas, los requisitos hacia las herramientas que ofrecen este tipo de soluciones han aumentado. Las compañías que proveen estas herramientas han pasado de brindar un conjunto de productos, a ofrecer plataformas de integración [11]. Ante esta situación se hace necesario contar con un conjunto de pautas que ayuden a decidir cuál es la solución que más se adecua a las necesidades particulares de cada entorno. A continuación se exponen un conjunto de pautas que los autores consideran deben tomarse en cuenta siempre. Interfaz amigable e intuitiva: Es importante tener en cuenta este aspecto pues los usuarios de las herramientas no son necesariamente informáticos. Es conveniente que brinde la facilidad de mostrar la información contenida en las fuentes de datos, por ejemplo, las tablas de las bases de datos conectadas y que haga uso de asistentes que ayuden a los usuarios en la construcción de los modelos de manera sencilla. Soporte para múltiples fuentes de datos: Todas las herramientas existentes tienen un conjunto de conectores o adaptadores para diversas fuentes de datos, pero es limitado; estas herramientas van a ser utilizadas en los más disímiles entornos. Extensibilidad en cuanto a fuentes de datos: Es beneficioso que las herramientas tengan la posibilidad de incluir nuevas fuentes de datos que no estén contenidas en el producto, mediante mecanismos de programación. Transformaciones a los datos, extensibilidad en cuanto a reglas: Deben brindar reglas de transformación de los datos, desde las más sencillas hasta las más complejas. Además, deben permitir desarrollar reglas personalizadas y extender las ya empaquetadas. Fig. 2. Arquitectura de las herramientas de integración de datos. 9

11 Propuesta de herramientas para la integración de datos Como la información que se encuentra en las fuentes de datos en ocasiones posee errores, es necesario que las herramientas permitan realizar procesos de limpieza a los datos garantizando cierto nivel de calidad en la información integrada. Acceso a la información: Las herramientas van a constituir una plataforma base para muchos sistemas, debido a las potencialidades en cuanto a integración que van a poseer, por lo que uno de los requisitos más importantes que deben cumplir es ser interoperables. Para lograr esto, el acceso a la información modelada debe ser mediante el uso de estándares. En tal sentido, como cada día gana más aceptación el concepto de servicio de datos, las herramientas de integración igualmente deben exponer características orientadas a servicios. Técnicas de optimización de comsulta, rendimiento: No se tiene conocimiento de cuántos usuarios van a estar realizando peticiones concurrentemente sobre un mismo modelo. Por tal motivo el rendimiento es un aspecto clave a analizar. En el caso de las herramientas de federación de datos el rendimiento se ve más afectado pues cada vez que se realiza una petición hay que buscar la información directamente en las fuentes de datos y realizar la integración on the fly. Es por esta razón que las herramientas han incorporado técnicas de optimización para mejorar sus tiempos de respuesta. Mientras más mecanismos de optimización incorporen las herramientas de federación, más probabilidades hay de que tengan buen rendimiento. Variantes para sincronizar la información: En el caso de las herramientas de consolidación de información es importante tener en cuenta las variantes para sincronizar la información que estas proveen. Estas variantes deben ser lo menos intrusivas posible en las fuentes de datos y deben ser diversas. Hay que tener en cuenta que generalmente los que integran información no son dueños de las fuentes de datos que intervienen en el proceso, por lo que solo pueden realizar operaciones de lectura sobre sus datos. Herramientas para la consolidación de los datos Después de realizar un estudio de la gama de herramientas de integración de datos disponibles que siguen la estrategia de consolidación de datos, se seleccionaron las herramientas Novell Identity Manager y Microsoft Forefront Identity Manager 2010 para pasar a la fase de evaluación. Otras como Sun One Metadirectory Server, Informatica Power Center, SAP Data Integrator y Critical Path XML no se pudieron evaluar pues las compañías dueñas de las herramientas no ofrecían ninguna versión de prueba de su producto. En cuanto a la conexión a las fuentes de datos Novell y Forefront no tienen muchas diferencias. Su principal diferencia radica en la definición de reglas para transformar los datos, el acceso a la información desde aplicaciones externas y las variantes de sincronización que ofrecen. Novell contiene una serie de políticas con grandes potencialidades y de fácil uso para la transformación de los datos; todas las reglas y eventos son manipuladas mediante documentos en formato XML, pero la interfaz de usuario es poco intuitiva. Forefront ofrece un asistente que guía al desarrollador en todos los pasos a realizar, aunque no tiene la variedad de reglas de Novell pero estas se pueden personalizar de manera ágil a través de una API que brinda la herramienta. El acceso a la información integrada es muy superior en Forefront, pues brinda unas API en.net que permiten acceder a servicios web, mientras que con Novell hay que tener un amplio conocimiento sobre LDAP para saber cómo comunicarse con el modelo a través de las API que proporciona. Las v ariantes de sincronización son un aspecto determinante en las herramientas de consolidación de datos. Novell obliga al usuario a crear una tabla en la fuente de datos a la que se va a tener acceso y debe crear triggers para llenarlas; esto es imposible de acometer cuando el usuario no es el dueño de la fuente de datos o no tiene permisos para realizar cambios en la misma. Forefront además de esta variante intrusiva permite sincronizar cada cierto tiempo toda la información modelada. A manera de resumen, en la tabla 1 se muestra una comparación entre estas dos herramientas teniendo en cuenta los aspectos definidos anteriormente. Tabla 1 Comparación de herramientas de consolidación de datos Parámetros Interfaz amigable e intuitiva Soporte para múltiples fuentes de datos Extensibilidad en cuanto a fuentes de datos Transformaciones a los datos Extensibilidad en cuanto a reglas Acceso a la información Variantes para sincronizar la información Novell Identity Manager No Sí No Muchas No No estandarizado Intrusivas Forefont Identity Manager Sí Sí Sí Pocas Sí Estandarizado Intrusivas y no intrusivas Como se puede observar Forefront está mucho más acorde que Novell a los parámetros definidos para la evaluación, por lo que se propone Forefront Identity Manager como herramienta para la consolidación de datos. Herramientas para la federación de datos Después de realizar un estudio de las herramientas de integración de datos disponibles que siguen la estrategia de federación, se seleccionaron Symlabs VDS (siglas en inglés 10

12 Debora Oliva Alfonso - Thais Pineda Alfonso - Dalila Kindelan Castro - Josue Carralero Iznaga de Servidor de Directorio Virtual), RadiantOne VDS y Oracle Data Service Integrator (ODSI) para pasar a la fase de evaluación. Otras como SAP Data Federator, Composite Software Information Server o iway's Enterprise Information Management Suite no se pudieron evaluar pues las compañías dueñas de las herramientas no ofrecían ninguna versión de prueba de su producto. Aunque las herramientas seleccionadas cumplen en alguna medida con los aspectos definidos para evaluarlas, hay ciertos puntos que marcan la diferencia entre unas y otras. Symlabs VDS contiene una serie de plugins que permiten el acceso y el manejo de la información, pero el proceso de integración de los datos se torna lento y complejo pues todas las configuraciones hay que realizarlas de manera manual con una interfaz poco amigable. Además, es necesario tener profundo conocimiento sobre el protocolo LDAP (esquemas, atributos, entradas) tanto para el desarrollo del modelo como para poder accederlo desde una aplicación externa, lo cual complejiza el proceso de despliegue de la solución y el tiempo de aprendizaje por parte de los usuarios. Aunque la herramienta permite desarrollar reglas y conectores personalizados a las fuentes de datos, lo hace a través de un lenguaje desarrollado por la compañía llamado Directory Script con una sintaxis difícil de asimilar. Esta situación se ve agravada pues Symlabs VDS trae pocas reglas para transformar los datos, y por tanto casi todo el modelo hay que implementarlo con Directory Script. Esto último trae como consecuencia que el tiempo de desarrollo por parte de los usuarios sea muy elevado, lo cual es un inconveniente teniendo en cuenta la premura con que se necesita tener los datos integrados. La estrategia que utiliza Symlabs VDS para el rendimiento es mediante la memoria cache; para esto es necesario configurar varios plugins que retardan igualmente el tiempo de desarrollo de los modelos de integración. Por su parte RadiantOne VDS brinda un amplio conjunto de conectores a las fuentes de datos, tiene una interfaz muy intuitiva que facilita el proceso de integración de datos pues visualiza la información referente a los esquemas, tablas y columnas de las bases de datos sin necesidad de realizar procesos tediosos de configuraciones. En cuanto a las reglas, la herramienta no brinda grandes posibilidades de transformación a los datos, pero tiene un entorno de desarrollo en java (lenguaje muy conocido y empleado por los programadores) que facilita la personalización de las reglas y el desarrollo de conectores a las fuentes de datos que la herramienta no incluya. La única vía que proporciona RadiantOne VDS para que las aplicaciones clientes se conecten al modelo es mediante LDAP. Aunque LDAP es un estándar, todos los entornos de desarrollo no incluyen API para comunicarse con servidores de este tipo. Además serían aplicaciones que habría que perfeccionar constantemente en la medida que el modelo va creciendo en cuanto a fuentes de datos a integrar. Una idea válida para solventar esta limitación sería desarrollar una capa de servicios web dinámica para un servidor LDAP. De esta manera las aplicaciones clientes consumirían los datos del modelo integrado a través de la capa de servicios, abstrayéndolos de la estructura de protocolo LDAP. Esto serviría de igual manera para Symlabs VDS. La estrategia que utiliza RadiantOne VDS para el rendimiento es mediante la memoria cache; esta puede ser configurada para cualquier rama en el directorio virtual. Este modelo de cache presenta dos tipos de memoria: principal y virtual. [12] La memoria principal es la memoria real donde un cierto número de la mayoría de entradas recientemente usadas permanecerán. La memoria virtual es la memoria en disco y es donde residirán todas las entradas que excedan la cantidad permitida en la memoria principal. El intercambio de entradas desde la memoria virtual hacia la principal (y viceversa) es gestionado por el servidor virtual. [13] ODSI es una solución completamente basada en estándares y declarativa, que permite rehusar los servicios de datos. Tiene los más variados conectores a fuentes de datos y posibilita el desarrollo de adaptadores personalizados. Es importante resaltar que esta herramienta convierte todas las fuentes de datos conectadas en esquemas XML abstrayéndose de la especificidad de cada repositorio de datos, lo que facilita el uso de XQuery como lenguaje de consulta a ficheros XML. El mapeo y las transformaciones son diseñadas en un componente fácil de usar con más de 200 funciones XQuery; además, brinda un editor de código fuente para el código XQuery donde se puede incorporar alguna transformación compleja no contemplada en las funciones. Al exponer los datos como servicios web de manera semiautomática, la información es accesible a una amplia variedad de tipos de clientes. ODSI logra un rendimiento óptimo para las consultas mediante la realización de SQL pushdown. Pushdown es una técnica de optimización que alivia la carga de procesamiento del motor de XQuery mediante el envío de consultas nativas SQL hacia las fuentes de datos. [14] Mediante el almacenamiento en la cache se pueden mejorar los tiempos de respuesta para los clientes y reducir la carga de procesamiento en las fuentes de datos subyacentes. [15] La tabla 2 muestra, a manera de resumen, los aspectos claves evaluados en cada herramienta de federación de datos. El rendimiento no se pudo evaluar en ninguna de las tres herramientas porque no se tuvo un entorno real donde se pudiera probar la concurrencia y la capacidad de respuesta de cada una al integrar un conjunto determinado de datos, por eso no se incluyó en la tabla comparativa, sin embargo, se reflejó como elemento importante a tener en cuenta para evaluar cualquier herramienta de federación de datos. A manera de conclusión parcial es evidente la superioridad de ODSI respecto a RadiantOne VDS y Symlabs VDS. Aunque ODSI tiene una arquitectura muy robusta se propone que sea evaluado en un entorno de prueba para validar las técnicas de optimización que ofrece y medir aspectos claves como el rendimiento en una estrategia de federación de datos. 11

13 Propuesta de herramientas para la integración de datos De los resultados de la evaluación, es posible llegar a la conclusión de que las herramientas Symlabs VDS y RadiantOne VDS resuelven parcialmente el problema de la integración de datos, pero carecen de un grado aceptable de estandarización, lo que entorpece en gran medida la compatibilidad con otros sistemas y la reutilización de los modelos integrados. La escasa implementación de técnicas de optimización en las citadas herramientas conlleva a que existan problemas de latencia y poca fiabilidad en el acceso a los datos integrados, dado que el tiempo de respuesta se vería afectado y los usuarios y/o aplicaciones tendrían que esperar espacios de tiempo prolongados, comprometiendo de esta manera la gestión de los mismos. que integra datos mediante la técnica de consolidación con un grado de calidad elevado. En general con la correcta elección de la técnica, tecnología y herramienta para la integración de datos en su empresa, se logrará que la información sea confiable y exacta. Existirá mayor rapidez en la toma de decisiones de la organización y un aumento de la capacidad de respuesta operativa de la entidad. Se reducirá el tiempo de búsqueda, acceso y uso de la información global de la empresa, dado que habrá un único punto de acceso a los datos, permitiendo una visión unificada, homogénea y en un único formato. Tabla 2 Comparación de herramientas de federación de datos Parámetros Symlabs VDS RadiantOne VDS ODSI Interfaz amigable e intuitiva No Sí Sí Soporte para múltiples fuentes de datos Sí Sí Sí Extensibilidad en cuanto a fuentes de datos No Sí Sí Transformaciones a los datos Pocas Pocas Muchas Extensibilidad en cuanto a reglas No Sí Sí Acceso a la información No Estandarizado No Estandarizado Estandarizado Técnicas de optimización de consultas Pocas Pocas Variadas CONCLUSIONES La tarea fundamental para la implantación de una herramienta de integración de datos es definir en qué entorno y estado se encuentran los mismos, para realizar la elección de la técnica y tecnología que más se ajusta a la situación empresarial en cuestión. Si es necesario consultar datos en tiempo real y estos no son de gran volumen, se debe optar por la técnica de federación, y por consecuente la tecnología EII, y se propone la utilización de la herramienta ODSI, que posee grandes potencialidades en la implementación de la técnica y tecnología mencionadas. Por otra parte, si se desean integrar grandes volúmenes de datos y estos no van a ser muy cambiantes en el tiempo, la consolidación es la opción correcta. En cuanto a las tecnologías, si lo que se quiere realizar son transformaciones a los datos, para que luego sean almacenados en un repositorio determinado, la tecnología a utilizar es ETL, si lo que se necesita es integrar los datos más importantes de la empresa para utilizarlos en los procesos claves del negocio, se recomienda implementar la MDM, y si lo que busca es gestionar datos no estructurados como imágenes, correos o documentos, entonces la más adecuada es ECM. En este caso se sugiere la utilización de la herramienta Forefont Identity Manager REFERENCIAS 1. Data Integration: Using ETL, EAI, and EII Tools to Create an Integrated Enterprise. Colin White, B.R EAI: Integración de Aplicaciones de Empresa de algunos conceptos básicos [en línea]. IDG COMMUNICATIONS, S.A.U. Computer World [ref. de 2006]. Disponible en Web: de-aplicaciones-de-empresa.alguno/seccion-tec/articulo A Roadmap to Enterprise. [en línea] White, Colin [ref. de 2006]. Disponible en Web: ftp://service.boulder.ibm.com/ p s / s o f t w a r e / e m e a / d e / d b 2 / RoadmapToEDI_WP_ pdf 4. ETL(Extracción Transformación y Carga) [en línea]. Technologies, O.D. [ref. de 2006]. Disponible en Web: 5. Enterprise Master Data Management an SOA Approach to Managing Core Information [en línea]. Allen Dreibelbis, E.H., Ivan Milman, Martin Oberhofer, Paul van Run and Dan Wolfson [ref. de 2008]. Disponible en Web: cdn.ttgtmedia.com/searchdatamanagement/downloads/ MasterDataManagementSOA1.pdf 12

14 Debora Oliva Alfonso - Thais Pineda Alfonso - Dalila Kindelan Castro - Josue Carralero Iznaga 6. What is ECM? AIIM [en línea]. Association, A.-T.E.C.M. [ref de 2005]. Disponible en Web: What-is-ECM-Enterprise-Content-Management.aspx. 7. What is Data Federation Technology [en línea]. TechTarget [ref. de 2009]. Disponible en W eb: searchdatamanagement.techtarget.com/sdefinition/ 0,,sid91_gci ,00.html. 8. Enterprise Information Integration: Successes, Challenges and Controversies [en línea]. Halevy, A.Y., Naveen Ashish, Dina Bitton, Michael Carey [ref de 2005]. Disponible en Web: alon/files/eiisigmod05.pdf 9. PAWEL PLASZCZAK, T.M. Real-time Data Integration Using Change Data Capture [en línea]. BigDataMatters [ref. de 2009]. Disponible en W eb: bigdatamatters.com/bigdatamatters/2009/08/real-timedata-integration-using-change-data-capture.html. 10. Change Data Capture: Driving Results with Event Driven Data [en línea]. Informática. [ref de 2005]. Disponible en Web: articledir_1962/981362/6816_wp_pecdc_web.pdf 11. Unified Data Management: A Collaboration of Data Disciplines and Business Strategies. P., R RadiantOne VDS Context Edition Architect's Guide [en línea]. Radiant Logic, I. [ref de 2009]. Disponible en Web: 13. RadiantOne VDS Context Edition Performance and Scalability [en línea]. Radiant Logic, I.l [ref de 2009]. Disponible en Web: products_vcs_performance.html. 14. XQuery and XQSE Developer's Guide. XQuery Engine and SQL [en línea]. Oracle. [ref de 2008]. Disponible en W eb: docs30/pdf/xquery.pdf 15. Administration Guide [en línea]. Oracle [ref de 2008]. Disponible en Web: E13190_01/liquiddata/docs85/pdf/admin.pdf. AUTORES Debora Oliva Alfonso Ingeniera Informática, Máster en Informática, Instructora, Complejo de Investigaciones Tecnológicas Integradas (CITI), La Habana, Cuba Thais Pineda Alfonso Ingeniera Informática, CITI, La Habana, Cuba Dalila Kindelán Castro Ingeniera Informática, CITI, La Habana, Cuba Josue Carralero Iznaga Ingeniero Informático, Máster en Informática, Asistente, CITI, La Habana, Cuba Proposed Tools for Data Integration Abstract Currently, in most of the companies, for performing certain business operations and primarily to make decisions, large volumes of data must be handled. This information is located in various data repositories with the result that it is decentralized with errors and often repeated in different sources. Because of this, the integration process becomes complex and it takes time to search data source directly, requiring to know the structure of each one. Very often the effective use of information has helped organizations to reduce costs, optimize processes, offer new products and improve service to its customers. However, many obstacles arise for strategic management of information, being probably the two most cited the dispersion and heterogeneity. This also makes it difficult the information integration process in a way that it can be accessed by external applications, which hampers its efficient use by organizations managers. This investigation aims to study the information integration levels and data integration techniques to perform an approach to the state of the art of the information integration. This research also does an analysis on the use of data integration tools in an enterprise environment, in order to arrive at concrete proposals. The objective pursued is that organizations that have similar problems to those described above, can discover the existing solutions and know how to use them depending on their needs. Key words: integration, data, information, levels, techniques, tools 13

15 1(III), 15-20, 2012 INGENIERÍA INFORMÁTICA Modelo de descripción de arquitectura de almacenes de datos para ensayos clínicos del Centro de Inmunología Molecular Anthony Rafael Sotolongo León Correo Artículo Original Martha Denia Hernández Ramírez Correo Universidad de Ciencias Informática (UCI), La Habana, Cuba Resumen La descripción correcta y detallada de la arquitectura de los sistemas informáticos resulta muy importante para lograr éxito en el desarrollo de los mismos. Los almacenes de datos como solución informática que apoya la toma de decisiones en las entidades que los implementan también necesita una descripción detallada de la arquitectura. Ralph Kimball propone los aspectos a tener en cuenta para la descripción pero no expone con qué realizarla. Existen modelos específicos para describir la arquitectura como es el 4+1 vistas de Kruchten o el metamodelo Common Warehouse Metamodel (CWM) pero no se ajustan a las necesidades de descripción que requiere un almacén de datos que integre información de ensayos clínicos del Centro de Inmunología Molecular (CIM). En este artículo se propone un modelo basado en vistas para describir la arquitectura de almacenes de datos que se ajusta a las necesidades del Centro de Inmunología Molecular siguiendo el marco de referencia de Kimball y usando como lenguaje de modelado UML 2.0. Palabras clave: arquitectura de almacenes de datos, vistas arquitectónicas, ensayos clínicos Recibido: 10 de noviembre del 2011 Aprobado: 18 de diciembre del 2011 INTRODUCCIÓN En la actualidad, la humanidad enfrenta diversas enfermedades que constituyen causa de muerte de millones de personas. El número de decesos por enfermedades crónicas es muy alto en el mundo; pero a la par de esta situación los científicos realizan investigaciones y crean medicamentos para combatirlas. En Cuba se funda de manera oficial el 5 de diciembre de 1994 el Centro de Inmunología Molecular (CIM) con el propósito de estudiar el comportamiento de estas enfermedades y crear biofármacos que puedan combatirlas, para de esta forma lograr un mejoramiento en la calidad de vida del pueblo. El CIM tiene como principal misión obtener y producir nuevos medicamentos destinados al tratamiento del cáncer y otras enfermedades crónicas no transmisibles y ponerlos al servicio de la salud pública cubana; también se encarga de hacer la actividad científica y productiva económicamente sostenible y realizar aportes importantes a la economía del país [1]. El CIM ha desarrollado además varios productos como el anticuerpo monoclonal anti CD3 lo que le ha dado un prestigio a nivel mundial en la producción de fármacos para combatir enfermedades cancerígenas y poniendo a Cuba en la vanguardia de la investigación farmacéutica a nivel mundial. Para el estudio y aprobación de los fármacos elaborados se realiza en varios hospitales del país y en algunos en el exterior, diferentes ensayos clínicos (EC). Un ensayo clínico es un tipo de estudio clínico en el que se evalúan nuevos fármacos o tratamientos médicos a través de su aplicación a seres humanos [2]. Por tanto, es un estudio experimental, analítico, prospectivo, controlado y con tamaños muestreales suficientes. Estos presentan un protocolo, documento que establece la razón de ser del

16 Modelo de descripción de arquitectura de almacenes de datos para ensayos clínicos del Centro de Inmunología Molecular estudio, sus objetivos, diseño, métodos y el análisis previsto de sus resultados, así como las condiciones bajo las que se realizará y desarrollará el estudio; también debe contemplar el acceso a los datos por la importancia y sensibilidad de los mismos, de modo que debe quedar bien descrita la manipulación de esa información en todas las gestiones que se realicen con esos datos. La información es recogida en los cuadernos de recogida de datos (CRD), formulario diseñado para anotar las variables obtenidas durante un ensayo clínico [3], este formulario es diseñado de modo diferente en dependencia de lo que se quiera lograr, por tanto no tienen que coincidir las variables, con la información recogida, puede llegar a ser de hasta 1000 variables por cada CRD. Para comprender, analizar y tomar decisiones de toda esta información relacionada con los productos, el CIM almacena los datos de cada ensayo clínico por separado, teniendo en cuenta que este análisis requiere la interrelación de las estadísticas de cada ensayo. Este es el punto crítico y se hace necesario integrar información de las diferentes fuentes disponibles de cada ensayo clínico relacionado. Para esto se ha trazado una estrategia de utilizar almacenes de datos (AD) por todas las ventajas que tienen los mismos para la toma de decisiones. Pero la entidad no dispone de una arquitectura ni soporte tecnológico para su implementación. Siendo la arquitectura un punto clave en el desarrollo de los almacenes de datos, la definición de la misma cuenta con tres procesos fundamentales: diseño, descripción y evaluación. La arquitectura si no está bien descrita pierde su verdadera utilidad. Una excelente descripción de la arquitectura debe representar a todas las estructuras del sistema así como la interacción entre sus partes. Cabe destacar la importancia que se le da a estos datos en el CIM, pues en ellos se encuentra la documentación de los medicamentos que puede salvar las vida de cientos de personas e información sensible de los pacientes que se someten al estudio; por ese motivo siempre están bajo estricto monitoreo y control, así como se regula el acceso de los datos por los diferentes especialistas y aplicaciones que interactúan con estos. Ralph Kimball investigador destacado en la materia de almacenes de datos propone un marco de referencia donde expone los criterios a tenerse en cuenta para realizar la descripción de la arquitectura de un almacén de datos pero a su vez no define con qué realizar esta descripción. Una alternativa viable para describir la arquitectura de software son las vistas o modelos de vistas utilizados por la comunidad de arquitectos de software. Aún cuando existe un consenso general acerca de la necesidad de representar la arquitectura utilizando diferentes vistas, cuando dicho consenso desaparece hay que definir cuáles son esas vistas. El estándar IEEE [4] define de alguna manera los puntos de vista que deben tenerse en consideración para describir la arquitectura, pero a un nivel de abstracción tan alto que las vistas pueden seleccionarse o definirse siguiendo criterios muy diferentes en dependencia de las necesidades. Ejemplos de modelos que definen puntos de vista explícitos son el modelo de 4+1 vistas de Kruchten, los modelos de Sowa y Zachman y el modelo propuesto por Hofmeister, Soni y Nord. De todos estos modelos, el que ha conseguido mayor aceptación es el modelo de vistas de Krutchen. [5] Los almacenes de datos de ensayos clínicos tienen características diferentes a los sistemas que comúnmente se modelan con estas vistas. Incluso el modelo de 4+1 vistas no describe en su totalidad la arquitectura necesaria para un almacén de datos de ensayos clínicos, pues en estos sistemas la arquitectura gira alrededor de los requisitos y los almacenes giran alrededor de los datos. Además, existe el Common Warehouse Metamodel (CWM)[6], que aunque no es un modelo para describir arquitectura, permite concebir almacenes de datos e intercambiar información sobre los mismos, este metamodelo no realiza la descripción basada en vistas sino por escenarios tales como: ETL, OLAP, cuestionarios, administración y herramientas. Con este metamodelo se ignoran los aspectos relacionados con el hardware, tema esencial para la descripción de la arquitectura propuesto por Kimball, y tampoco contempla del todo el acceso a datos. Después de analizar la problemática, se identifica el problema científico: Cómo describir la arquitectura de sistemas de información basada en almacenes de datos para ensayos clínicos del CIM? Se identifica como objetivo: Definir un modelo para la descripción de la arquitectura de sistemas de información basada en almacenes de datos para ensayos clínicos, que contribuya a la construcción de almacenes de datos en el Centro de Inmunología Molecular. MATERIALES Y MÉTODOS Arquitectura de almacenes de datos Los AD, según Inmon [7], son un conjunto de datos con las siguientes características: orientado a temas, variante en el tiempo, no volátil e integrado. Otra definición muy aceptada es la que presenta Kimball [8], y plantea que es: " una copia de las transacciones de datos específicamente estructurada para la consulta y el análisis ". Ambos autores plantean que es un conjunto de datos con fines de análisis de un tema específico. La arquitectura de los AD es una forma de representar la estructura global de los datos, la comunicación, los procesos y la presentación del usuario final, puede verse en la figura 1. Además, es típica e incluye lo siguiente [9]: Datos operacionales: Origen de datos o datos fuentes de donde se extraerán los datos primarios. Extracción, transformación y carga (ETL de sus siglas en inglés): Extracción de datos. Extracción de datos operacionales con el fin de formar parte del almacén de datos. Transformación de datos. Procesos de cambios que ocurren sobre los datos que poblarán el almacén. Carga de datos. Proceso de poblado del almacén con los datos extraídos y transformados. Almacén: Almacenamiento físico de datos. Herramienta de acceso: Herramientas que proveen acceso a los datos. 16

17 Anthony Rafael Sotolongo León - Martha Denia Hernández Ramírez colocar los datos en el almacén y front room es el responsable de hacer accesible los datos a los usuarios finales. 3. La columna de infraestructura ( el dónde?): Describe dónde se van a almacenar los datos físicamente, tiene en cuenta las plataformas y los servidores y las ubicaciones físicas de los componentes. Se decide utilizar para definir y describir la arquitectura del almacén de datos el marco de referencia de Kimball [11] pues plantea una serie de aspectos muy importantes de esta área, además, este marco hace un énfasis mayor en las herramientas a utilizar además de estar bien documentado, contando con un amplio respaldo y apoyo de la comunidad de desarrollo de almacenes de datos. También hay que tener en cuenta que no se especifica cómo realizar la descripción de la misma, es decir, no expresa qué artefactos generar para el apoyo a la descripción. Fig. 1. Arquitectura básica de un almacén de datos. Marco de descripción de arquitectura de almacenes de datos El marco de descripción de arquitectura es el punto de vista sobre el cual se debe hacer la misma. En Luján [10] se plantea un marco de referencia de arquitectura para AD. En el mismo se proponen tres niveles fundamentales en la arquitectura: Nivel 1 Conceptual: Define el almacén de datos desde el punto de vista conceptual, es decir, desde el mayor nivel de abstracción y contiene únicamente los objetos y relaciones más importantes. Nivel 2 Lógico: Abarca aspectos lógicos, como la definición de las tablas y claves, la definición de los procesos ETL, entre otros. Nivel 3 Físico: Define los aspectos físicos del almacén de datos como el almacenamiento de las estructuras lógicas, en diferentes discos, o la configuración de servidores de base de datos que mantienen los datos del almacén. Otro marco de referencia es el planteado por Kimball[11]. En él se proponen tres columnas fundamentales en la arquitectura de los almacenes de datos: 1. La columna de datos ( el qué?): Describe qué datos se van a analizar, las características, cuál va a ser su estructura dentro del almacén, especificando el modelo dimensional, además de los modelos lógico y físico. 2. La columna técnica ( el cómo?): Esta área abarca el flujo de los datos. Es decir, cómo se van a extraer los datos de las fuentes y ubicarlos en un lugar accesible, describiendo las transformaciones que van a sufrir los mismos. Además de cuáles son los estándares y productos que se necesitan para acceder y realizar la carga de los datos y qué tipo de análisis se les va realizar, también qué estándares se van a usar para mostrar la información y cómo se va a ver la misma. Se divide en dos partes fundamentales back room y front room. El back room es la parte encargada de acceder a las fuentes de orígenes y Modelos de descripción de arquitectura Existen varios modelos donde se definen ciertas vistas y diagramas; correspondientes a esta investigación se estudian el modelo 4+1 vistas de Krutchen [5] y el CWM [6]. El primero es de gran aceptación por los arquitectos de sistemas clásicos de gestión donde hay una gran cantidad de usuarios interactuando y operaciones de todo tipo, además, la lógica de negocio está bien definida. Analizando el tema de AD donde todo fluye alrededor de los datos y los ensayos clínicos en el CIM, en el cual un aspecto importante es el flujo y acceso a los datos por las diferentes partes del sistema, cuestiones que no las contempla el 4+1 vistas. El CWM aunque no es exactamente para describir arquitectura, ha sido utilizado por los diseñadores de AD para intercambiar información y describir aspectos de los mismos, y no tiene en cuenta puntos relacionados con el hardware, tema fundamental para la descripción de la arquitectura según Kimball, ni tampoco tiene en cuenta las características de cómo va a ser el acceso a los datos por los usuarios. A partir de esto, se elaborará un modelo para la descripción de la arquitectura de un AD que pueda ser aplicado a la gestión de los EC en el CIM. Lenguajes para el modelado de la arquitectura En un esfuerzo para estandarizar las notaciones y procesos a utilizar para describir arquitecturas se define el lenguaje de descripción de arquitectura [12] (ADL por sus siglas en inglés, Architecture Description Language) y el lenguaje unificado de modelado [13] (UML por sus siglas en inglés, Unified Modeling Language). El UML 2.0 fue liberado en el 2003 y cumple con la mayoría de las características de los ADL: además, hace grandes adelantos para convertirse en una notación para describir arquitecturas. La metodología RUP promueve el uso de UML 2.0 para modelar la arquitectura de software, lo que le da un gran impulso para ser la notificación estándar de descripción de arquitectura de software, por otro lado los ADL difieren unos de otros y en ocasiones son difíciles de comprender, por tanto se decide utilizar UML 2.0 como lenguaje de modelado. 17

18 Modelo de descripción de arquitectura de almacenes de datos para ensayos clínicos del Centro de Inmunología Molecular Los perfiles UML son una posibilidad que proporciona el propio UML para ampliar su sintaxis y su semántica con el objetivo de expresar los conceptos específicos de un determinado dominio de aplicación, El hecho de que UML haya sido un lenguaje diseñado de propósito general brinda una gran flexibilidad y expresividad a la hora de modelar sistemas. Pero en ocasiones, es más aconsejable utilizar algún lenguaje más específico para modelar y representar los conceptos de ciertos dominios particulares. Existen dos posibilidades para definir lenguajes específicos de un dominio: [14] 1. Definir un nuevo lenguaje. 2. Extender el propio UML Decidirse por una alternativa u otra trae sus inconvenientes si bien con la primera se puede lograr un modelado a la medida del dominio lo que puede traer consigo que las herramientas CASE no puedan ser utilizadas, de lo contrario con la segunda, se facilitaría su implementación, que sería ajustar y extender UML a la terminología de otros modelos ya existentes. En el caso de esta investigación si no se puede describir un dominio específico con UML, los autores proponen extender UML a una terminología ya existente que se ajuste a las necesidades del dominio a analizar siempre que sea posible, esto traería consigo que se pueda modelar en las herramientas CASE existentes. RESULTADOS Y DISCUSIÓN Propuesta de modelo de descripción de arquitectura de AD Siguiendo el estándar IEEE se definen una serie de pasos para determinar las vistas de la arquitectura para que la misma posea una buena documentación. Este estándar queda resumido en la figura 2. Fig. 2. Estándar IEEE Usuarios: Expertos del CIM, diseñadores de base de datos, integradores de datos, arquitectos, especialistas de hardware. [15] Necesidades: Conocer cómo van a fluir los datos por la solución, Cómo va a ser el acceso a los mismos por los diferentes componentes Cómo los usuarios los van a manipular, Además de los productos necesarios, la relación entre ellos. Conocer las características de los datos a almacenar y las estructura de los mismos. Saber las responsabilidades de cada parte de la solución, su alcance, sus dependencias y la maneras de comunicación (protocolos de seguridad). Saber la ubicación lógica de componente. Disposición de hardware que se requiere. Distribución de los componentes por hardware. Puntos de vistas: Punto de vista de datos, punto de vista técnico y punto de vista de infraestructura. [15] Punto de vista de datos: corresponde con la columna de datos ( el qué?). Describirá la estructura de los datos. Punto de vista técnico: corresponde con la columna técnica ( el cómo?). Describirá la parte técnica de la solución, la relación entre sus componentes y su ubicación lógica. Punto de vista de infraestructura: corresponde con la columna de infraestructura ( el dónde?). Responde a la distribución física de componentes y las necesidades de hardware. Vistas y modelos: [15] Punto de vista de datos: Vista de datos. Punto de vista técnico: Vista de flujo de datos, vista de de implementación y vista lógica de implementación, vista de acceso a datos. Punto de vista de infraestructura: vista de despliegue, Vista de despliegue por componentes. En la figura 3 se puede observar un resumen del modelo y sus diagramas. [15] El estándar UML 2.0 no contempla diagramas UML para acceso a datos por usuarios y componentes, por lo cual se realiza una extensión y se definen dos diagramas nuevos UML: Diagramas de acceso a datos por usuarios y componentes. En las figuras 4 y 5 se muestran los componentes y su relación en los respectivos diagramas En la tabla 1 se realiza una comparación de los modelos descritos anteriormente y el modelo propuesto para describir arquitectura de almacenes de datos de EC en el CIM. Existen varios diagramas en común con ambos modelos y a su vez se tienen dos diagramas en particular que son el de flujo de datos y los de acceso a datos por usuarios y componentes, los cuales describen el flujo y acceso a los datos, aspecto importante en los almacenes de datos de EC del CIM, y contribuye a una descripción más completa de la arquitectura del los almacenes, tema que no describen los modelos. 18

19 Anthony Rafael Sotolongo León - Martha Denia Hernández Ramírez Fig. 3. Resumen del modelo. Fig. 4. Diagrama de acceso a datos por usuarios. Fig. 5. Diagrama de acceso a datos por componentes. Tabla 1 Comparación de los modelos Diagramas El modelo 4+1 de Krutchen CWM Modelo para describir almacenes de datos de EC en el CIM Diagrama de clases x x Diagrama de entidad- relación o relacional x x Diagrama de componentes x x Diagrama de despliegue x x Diagrama de casos de uso x Diagrama de secuencia x Diagrama de paquetes x x x Diagrama de flujo de datos x Diagrama de acceso a datos de usuarios x Diagrama de acceso a datos de componentes x 19

20 Modelo de descripción de arquitectura de almacenes de datos para ensayos clínicos del Centro de Inmunología Molecular El modelo fue aplicado en el CIM para describir la arquitectura del AD del producto Nimotuzumab (hr3) que fue explicado por A. Sotolongo [15] y permitió facilitar la implementación del almacén y entregar a los especialistas del CIM los datos históricos integrados del producto, para realizar análisis de los mismos. CONCLUSIONES En el presente artículo se evidenciaron las deficiencias de los modelos existentes para describir la arquitectura de un almacén de datos para ensayos clínicos en una institución especializada como es el Centro de Inmunología Molecular de La Habana. Basado en el estudio presentado, se propone la utilización de un modelo especializado para describir la arquitectura de almacenes de datos necesaria para el control de los ensayos clínicos fundamentado en el estándar IEEE 1471 y utilizando UML 2.0 compuesto por tres puntos de vistas y siete diagramas, el cual cubre las necesidades y demandas de los sistemas de almacenes de datos del CIM de La Habana. RECONOCIMIENTOS Los autores agradecen a los trabajadores del departamento de Informática y Ensayos Clínicos del Centro de Inmunología Molecular, que hicieron posible la realización de este trabajo. REFERENCIAS 1. CIM. Página de Presentación [En línea] [Citado el: 15 de marzo de 2010.]http://www.cim.co.cu 2. Clinical Trials. Understanding Clinical Trials. [En línea] [Citado el: 8 de mayo de 2010.] ct/info/whatis#whatis. 3. AZNAR-SALATTI, J. S. "Diseño de protocolos de un estudio clínico: las denominadas case report forms o cuadernos de recogida de datos", Revista: Jano, 2007, registro HILLIARD, Rich. All About IEEE Std ZARAGOZA ORTIZ, Francisco José. Arquitectura de Referencia para Unidades de Control de Robots de Servicio Teleoperados. Cartagena, Group, Object Management.Common W arehouse Metamodel (CWM) Specification INMON, Bill. Building the Data Warehouse. s.l.: Wiley Publishing, Inc, 2002.p 428, ISBN KIMBALL, Ralph. The Kimball Group Reader: Relentlessly Practical Tools for Data Warehousing and Business Intelligence, Wiley, 2010, p. 744, ISBN SEN, A. an d SINHA, A. P. A Comparison of Datawarehousing Methodologies, Communication of the ACM, pp , LUJÁN, Sergio. "Data Warehouse Desing whit UML. Tesis doctoral, Alicante, s.n., KIMBALL, Ralph. The Data Warehouse Lifecycle Toolkit, 2nd. Edition, Wiley, 2008, p. 636, ISBN REYNOSO BILLY, Carlos. De lenguajes de descripción arquitectónica, Buenos Aires, s.n., OMG-UML. Catalog Of UML Profile Specifications, [En línea] [Citado el: 1 de junio de 2010.] w w w. o m g. o r g / t e c h n o l o g y / d o c u m e n t s / profile_catalog.htm. 14. VALLECILLO, Lidia y FUENTES, Antonio. Una Introducción a los perfiles UML. [En línea] [Citado el: 1 de junio de 2010.] uma.es/~av/ Publicaciones/04/UMLProfiles-Novatica04.pdf. 15. SOTOLONGO, A. "Modelo de descripción de arquitectura de almacenes de datos para ensayos clínicos del Centro de Inmunología Molecular". Tesis de maestría, La Habana. Universidad de las Ciencias Informáticas, AUTORES Anthony Rafael Sotolongo León Ingeniero Informático, Máster en Ciencias, Profesor Asistente, Universidad de las Ciencias Informáticas (UCI), La Habana, Cuba. Martha Denia Hernández Ramírez Ingeniera Informática, Máster en Ciencias, Instructora, Universidad de las Ciencias Informáticas (UCI), La Habana, Cuba. Description Model of Warehouse Architecture for Clinical Test at the Molecular Immunology Centre Abstract Accurate and detailed description of the architecture of computer systems is very important to achieve success in their development. As informatic solutions, data warehouses and software support decision-making in institutions that need to implement a detailed description of the architecture. Ralph Kimball proposes the aspects to be considered of the description and explains how it is done. There are specific models used to describe the architecture such as Kruchten 4 +1 views of meta-model or the Common Warehouse Metamodel (CWM) however these models do not meet the need of the description that requires a data warehouse that integrates information from clinical trials of the Molecular Immunology Centre (CIM). In this paper we propose a model for describing the data warehouse architecture that fits the needs of the Molecular Immunology Center following the Kimball framework and using as UML 2.0 modeling language. Key words: datawarehouse architecture, architecture views, clinical trial 20

21 1(III), 21-27, 2012 INGENIERIA MECÁNICA Gestión de las discontinuidades geométricas combinadas en el diseño mecánico Ricardo Mario Amé Correo Daniel Hernán Lezama Correo Universidad Nacional de Lomas de Zamora, República Argentina Resumen Es conocido que en elementos mecánicos la distribución de las tensiones localizadas y el valor máximo generado en las discontinuidades geométricas combinadas en una misma sección o en secciones próximas depende de la posición relativa de las formas y su distribución. La oportunidad de disponer de herramientas informáticas permite optimizar el diseño mecánico por minimización de las tensiones localizadas en piezas de máquinas con formas complejas combinadas. En el presente trabajo se muestra una aplicación de este concepto mediante el estudio de una pieza plana, con cambio de ancho y perforación central, sometida a carga axial constante. Son comparados los factores de concentración de tensiones sugeridos por la bibliografía especializada y los obtenidos por MEF en este estudio. Los resultados sugieren la necesidad de analizar distintas alternativas y la posibilidad de comprobar que la combinación de discontinuidades geométricas, en una misma sección, no sólo genera menores tensiones que las declaradas en la literatura clásica especializada, sino que permite, en oportunidades, un adecuado diseño de minimización de tensiones localizadas Palabras clave: concentración de tensiones, elementos finitos, diseño mecánico Artículo Original Recibido:15 de noviembre del 2011 Aprobado: 22 de diciembre del 2011 INTRODUCCIÓN Los componentes de máquinas se diseñan con las formas adecuadas a su función específica. La mayoría de las veces, esa funcionalidad exige ejecutar discontinuidades geométricas en una misma sección resistente o en secciones muy cercanas. Ello puede generar tensiones localizadas de mayor valor a la nominal. Esta circunstancia es difícil de obviar. En trabajos anteriores [1-5] realizados por el equipo de investigación de la Facultad de Ingeniería de la Universidad Nacional de Lomas de Zamora, Argentina, se ha podido comprobar que la magnitud de las tensiones localizadas por combinación de discontinuidades geométricas produce tensiones localizadas de magnitud significativamente menores a las que indican distintos autores [6-8]. La distribución de tensiones en discontinuidades geométricas aisladas es bien conocida y puede estudiarse a partir de diversos libros de texto, pero ante la presencia de varias discontinuidades, que interactúan entre sí, las soluciones disponibles son escasas. La existencia de trabajos de investigación sobre la distribución de tensiones en placas planas, con cargas axiales en sus bordes, con agujeros o cambio de ancho es abundante. Chin-Bing Ling, Schoulz y Hutter, citados en Peterson, determinaron matemáticamente las relaciones entre las tensiones máximas y nominales para placas con dos agujeros, con más de dos agujeros en línea y para dos líneas paralelas de agujeros, [9] con carga aplicada en dos caras opuestas de la placa o en las cuatro aristas. Se observa, por ejemplo, que para la placa con una línea de agujeros orientada de manera perpendicular a la carga, la tensión en el punto periférico interno del orificio aumenta a medida que disminuye la distancia entre centros de los agujeros y disminuye, a medida que se alejan. El factor de concentración de tensiones K t, calculado entre la máxima tensión obtenida y la tensión en la sección neta entre agujeros, disminuye a medida que ésta última aumenta por acercamiento entre centros. Lipson y Juvinall [10] ofrecen el gráfico que muestra el valor del factor de concentración de tensiones -calculado matemáticamente a partir de la relación con la tensión nominal- para una placa plana con varios agujeros distribuidos en dos ejes paralelos entre sí y perpendiculares a la carga aplicada, equidistantes, tanto lineal como diagonalmente; a medida que los agujeros se

22 Gestión de las discontinuidades geométricas combinadas en el diseño mecánico separan el factor de concentración de tensiones tiende a 3. Zimmerman [11] también ha estudiado matemáticamente las tensiones en el borde interno de dos agujeros muy cercanos entre sí, incluso al punto en que llegan a ser tangentes, ubicados sobre una placa. Por su parte, Peñaranda Carrillo, et. al [12], han determinado el factor de concentración de tensiones en los bordes de dos agujeros de igual diámetro, en una placa plana, orientados en el sentido de la carga y perpendicularmente a ella. El estudio consistió en determinar las tensiones en el borde interno de los orificios, variando la magnitud de sus diámetros y la distancia que los separa; con la utilización del método de elementos finitos sus conclusiones apuntan a la relación entre la menor distancia y el mayor valor del factor de concentración (como en los casos anteriormente descritos). La aplicación del análisis de tensiones por elementos finitos es muy utilizado por la eficiencia y confiabilidad que otorga, Roldan y Bastidas [13] lo usan para estudiar una placa plana con agujero y comparan los resultados con los obtenidos mediante la teoría matemática de la elasticidad y de manera experimental; sus conclusiones indican que el factor de concentración de tensiones obtenido matemáticamente es superior en un 12,5% al calculado experimentalmente y por aplicación de los elementos finitos, que coinciden. Haddon, citado en Pilkey y Pilkey [14], ha estudiado el efecto que producen, en la distribución de tensiones, dos orificios circulares, de distinto diámetro, en una placa plana de dimensiones infinitas, encontrando que, para una diferencia de diámetros dada, la tensión en el borde interno de los orificios aumenta con la cercanía entre ellos, y para una separación dada, la magnitud de la tensión localizada disminuye a medida que los diámetros tienden igualarse. Monroy y Godoy [15] estudian las interacciones producidas por la existencia de varias perforaciones circulares, de distintos diámetros, sobre una placa plana sometida a carga axial en sus dos extremos opuestos, su estrategia fue determinar la distribución del campo de esfuerzos en la zona intermedia entre las discontinuidades, encontrando que las tensiones dependen de la distancia que las separa y de la relación de tamaño entre ellos, observándose que las tensiones crecen a medida que los agujeros se acercan entre sí a menos de una distancia de 4 radios, y decrecen a medida que se alejan, llegando a ser poco significativas a una distancia de más de 13 radios. Ting y Chen [16] también estudiaron la distribución de las tensiones para la placa plana con dos, tres y cinco perforaciones circulares, de igual y distintos diámetros, orientadas perpendicularmente o en igual sentido a la carga externa; sus conclusiones coinciden en el sentido de la influencia de la cercanía de las perforaciones con la intensidad de las tensiones generadas en sus bordes internos. Con respecto al estudio de la distribución de tensiones en placas planas, con cambio de ancho, sometidas a cargas axiales, se tienen los trabajos de Frocht (1935), citados en Peterson [9] y en Lipson y Juvinall [10], y los de Appl y Koerner (1969) y Wilson y White (1973) citados por Pilkey y Pilkey [14], donde, por medio del método de fotoelasticidad, se obtuvieron los factores de concentración de tensiones, indicando que, a medida que aumenta la diferencia entre los dos anchos de la placa, el factor se incrementa, del mismo modo que para pequeños radios de enlace entre las dos secciones. A pesar de la cantidad de estudios realizados para los casos descritos anteriormente, trabajos que analicen la distribución de las tensiones, en especímenes que incluyan ambas discontinuidades geométricas: orificios circulares con cambio de ancho, en placas planas cargadas axialmente, no están disponibles. En este trabajo se analiza el grado de importancia de la ubicación relativa de las discontinuidades geométricas en el valor de las tensiones localizadas generadas, y se comparan los factores teóricos de concentración de tensiones K t obtenidos, con aquellos ofrecidos en la literatura clásica [9 y 14] para casos de discontinuidades geométricas únicas y sencillas. Esta actividad implica un procedimiento que garantiza la optimización del diseño mecánico en función de minimizar dichas tensiones localizadas. ESPÉCIMEN DE ESTUDIO El espécimen de estudio del presente trabajo es una pieza plana, de pequeño espesor, con dos anchos distintos, unidos por medio de una curva suave semicircular, con una perforación circular sobre el eje de simetría longitudinal, como se muestra en la figura 1. La singularidad del análisis consiste en determinar las tensiones σ a y σ b (en los puntos a y b) para distintas posiciones de la perforación a lo largo del eje central. La placa está solicitada a carga axial F a constante, resultante de la aplicada de manera distribuida en cada uno de sus extremos, que genera una tensión nominal de 200 MPa en la sección menor. Las dimensiones son: h = 130 mm, ha = 100 mm, ra = 15 mm, rb = 15 mm, espesor 1mm, con lo que resultan las relaciones: 2rb/ha = 0,30, ra/ha = 0,15 y h/ha = 1,30. Fig. 1: Objeto de estudio. 22

23 Ricardo Mario Amé - Daniel Hernán Lezama La longitud total es suficientemente para evitar su influencia en los resultados que puedan obtenerse (Troyani, et. al. 2003, citado en [14]) y poder compararlos con los indicados en la "Chart 3.1", pág. 151 de Pilkey y Pilkey. HERRAMIENTA, PROCEDIMIENTO Y RESULTADOS Se utiliza un software de análisis de tensiones por elementos finitos. La herramienta ya fue validada en otras oportunidades, [2,5] constatando que puede presentar un error menor al 4% en los resultados obtenidos. Se aplica para obtener las tensiones localizadas en los puntos a y b, para distintas posiciones de la perforación central dada por la cota j. El eje transversal de referencia para la medición de la cota j, se ubica en el inicio de la curva de empalme entre el ancho mayor y el ancho menor. Hacia la derecha de esa referencia se miden las cotas j positivas, y negativas hacia la izquierda. Se determinan las tensiones en los puntos indicados para los casos en que j =0, j =15, j =30 y j = -15. Con los valores de las tensiones obtenidas σ a.máx y σ b.máx se calcula el "Factor teórico de concentración de tensiones K t " haciendo la relación con el valor la tensión nominal según las ecuaciones (1) y (2): K a. máx ta (1) nom Y también: K b. máx tb (2) donde: nom K : Factor teórico de concentración de tensiones para el ta punto a. K : Factor teórico de concentración de tensiones para el tb punto b. : Máxima tensión axial obtenida en el punto a, para a. máx cada alternativa de posición de la perforación central. : Máxima tensión axial obtenida en el punto b, para b. máx cada alternativa de posición de la perforación central. :Tensión nominal de 200 MPa existente en la sección nom completa de ancho ha. Con el objetivo de comprobar la relación existente entre los resultados históricos y los obtenidos con este análisis, los valores se comparan con aquellos ofrecidos por Pilkey y Pilkey [14] para "Chart Factores de concentración de tensiones K t de una barra plana escalonada con empalme curvo de hombro sometida a tracción", "Chart Factores de concentración de esfuerzos K tg y K tn de la tensión en un elemento de ancho finito delgado con un agujero circular". Resultados obtenidos para j = 0 La figura 2 muestra el modelo de trabajo para j = 0. El eje vertical de la perforación central coincide con el inicio del radio de empalme entre ambos anchos. En este caso y en los subsiguientes se ha aprovechado la simetría de la pieza para lograr ahorro de procesamiento informático. Se obtiene la tensión σ a.máx, en el punto a: 362 MPa, y tensión, σ a.máx en el punto b = 553 MPa El color más oscuro se debe a la alta concentración de celdas de menor tamaño en la zona de estudio, si la figura estuviera más ampliada se verían tonalidades más claras correspondientes al color rojo representativo de las altas tensiones en el modelo de elementos finitos. Resultados obtenidos para j = 15 mm La figura 3 muestra el modelo de trabajo para j = 15mm. El eje vertical de la perforación central se ha desplazado hacia la derecha, respecto del esquema anterior, y coincide con la finalización del empalme entre ambos anchos. Se obtiene la tensión σ a.máx, en el punto a: 360 MPa, y tensión, σ b.máx en el punto b = 534 MPa b.máx = 553 MPa = 362 MPa a.máx Fig. 2. Modelo de análisis de tensiones para j = 0 23

24 Gestión de las discontinuidades geométricas combinadas en el diseño mecánico b.máx = 534 M P a a. máx = 3 60 M Pa Fig. 3. Modelo de análisis de tensiones para j = 15 mm. Resultados obtenidos para j = 30 mm La figura 4 muestra el modelo de trabajo para j = 30mm. El eje vertical de la perforación central se ha desplazado más hacia la derecha que en el caso anterior. Puede observarse que la perforación está fuera de la zona de cambio de ancho. Es decir, la combinación de discontinuidades geométricas prácticamente ha desaparecido. Se obtiene la tensión σ a.máx, en el punto a: 389 MPa, y tensión, σ b.máx en el punto b = 573 MPa. Resultados obtenidos para j = -15 mm. La figura 5 muestra el modelo de trabajo para j = -15 mm. En este caso, el eje vertical de la perforación central se ha desplazado hacia la izquierda respecto de j = 0. Puede observarse que, como para el caso de j = 30 mm, la perforación central se ubica fuera de la zona del cambio de ancho. Puede observarse que en este caso también ha desaparecido la combinación de discontinuidades geométricas. Se obtiene la tensión σ a.máx, en el punto a: 382 MPa, y tensiónσ b.máx, en el punto b = 556 MPa. La tabla 1 muestra los valores de las tensiones máximas obtenidas para cada uno de los puntos en estudio y cada disposición de la perforación central. La tabla permite realizar la comparación entre ellos y, además, se indica el factor de concentración de tensiones K t teórico en función de la tensión nominal aplicada de 200 MPa de acuerdo con las ecuaciones (1) o (2) según corresponda. Puede leerse que, de todas las máximas tensiones obtenidas, las menores corresponden, tanto para el punto a como para el b, a la cota j =15 mm. Las mayores tensiones se leen para j = 30 mm para ambos puntos. En la tabla 2 se han colocado nuevamente los factores de concentración de tensiones de la tabla 1, conjuntamente con los ofrecidos por [14] como se indicó anteriormente. = 5 73 MP a b.m áx a. máx = M Pa Fig. 4. Modelo de análisis de tensiones para j = 30 mm. 24

25 Ricardo Mario Amé - Daniel Hernán Lezama b.máx = 556 MPa = 382 MPa a. máx Fig. 5. modelo de análisis de tensiones para j = -15 mm. Tabla 1 Cuadro resumen de tensiones localizadas y factor de concentración de tensiones teórico K t Cota j (mm) Esquema Kt Kt Kt Kt Máx. tensión en el punto a (MPa) Máx. tensión en el punto b (MPa) 362 1, , , , , , , ,78 Tabla 2 Cuadro comparativo de factores teóricos de concentración de tensiones K t Cota J (mm) Según el presente estudio [14] Chart [14] Chart (1) Punto a 1,81 1,8 1,94 1,91 (2) Punto b 2,76 2,65 2,86 2,78 (3) Punto a 1,87 1,87 1,87 1,87 (4) Relación (1/3) 0,97 0,96 1,04 1,02 (5) Punto b 3,13 3,13 3,13 3,13 (6) Relación (2/5) 0,88 0,85 0,91 0,89 En la figura 6 se han trazado los valores de las tensiones de los puntos a y b, en función de la cota j, para una visualización gráfica. Puede observarse claramente que las tensiones se reducen en la zona comprendida entre j = 0 y j = 15 mm. 25

26 Gestión de las discontinuidades geométricas combinadas en el diseño mecánico Fig. 6. Tensiones en los puntos a y b en función de la cota J. CONCLUSIONES El diseño de componentes mecánicos constituidos por placas planas, sometidos a cargas axiales constantes, con discontinuidades geométricas combinadas no debe presentarse como un escollo insalvable. Se ha podido demostrar en este trabajo que las tensiones localizadas, que se generan por ellas, no son de valor significativo. También se ha podido comprobar que las sugerencias disponibles, respecto al cálculo del factor de concentración de tensiones teórico, en los textos de diseño de elementos de máquinas no son aplicables. El factor K t para el punto a, en el presente estudio, es prácticamente coincidente con el dado en el gráfico "Chart. 3.1" de la obra de Pilkey y Pilkey. Ello indica que la existencia de la perforación central no lo afecta sensiblemente, por lo menos con las relaciones dimensionales con las que se trabajó. En cuanto al valor del factor K t para el punto b, obtenidos en el presente estudio, resultan entre el 9 % y 15 % menores al ofrecido por la "Chart. 4.1" del Pilkey y Pilkey. Este comportamiento ya fue observado en trabajos anteriores por este equipo de investigadores. La hipótesis a estudiar contempla la posibilidad que ello resulte del necesario equilibrio interno de tensiones, frente a la existencia de mayor cantidad de puntos localmente sobre tensionados. Cuando existe una discontinuidad geométrica aislada, se genera una zona de mayor tensión, cuya ubicación depende del tipo de discontinuidad y su orientación con el sentido de la carga aplicada; cuando existen más discontinuidades combinadas, se producen tensiones que interactúan entre sí de modo que se distribuyen de manera de mantener el equilibrio. [15] REFERENCIAS 1. AMÉ, Ricardo Mario y DASSO, Gabriel María. "Concent ración de tensi ones producida por discontinuidades Geométricas combinadas. Una exploración del estado del arte". En Actas del Primer Congreso Argentino de Ingeniería Mecánica, I CAIM- 2008, 2008, Bahía Blanca, Argentina. ISBN DASSO, Gabriel María y AMÉ, Ricardo Mario. "Nuevos aportes al análisis de las tensiones localizadas producidas por di scont inui dades geom étri cas combinadas. Una aplicación del análisis de tensiones por elementos finitos". En Actas del Primer Congreso Argentino de Ingeniería Mecánica IºCAIM-2008, 2008, Bahía Blanca, Argentina. ISBN DASSO, Gabriel María; AMÉ, Ricardo Mario y LEZAMA, Daniel Hernán. "Determinación de las tensiones localizadas de Von Mises producidas por discontinuidades geométricas combinadas en estados complejos de tensión". En Actas del Segundo Congreso Argentino de Ingeniería Mecánica, IIº CAIM-2010, 2010, San Juan, Argentina. ISBN AMÉ, Ricardo Mario; DASSO, Gabriel María y LEZAMA, Daniel Hernán. "Tensiones localizadas producidas por di scont inui dades geom étri cas combinadas". En Actas del X Congreso Iberoamericano de Ingeniería Mecánica, 2011, Porto, Portugal, pp ISBN AMÉ, Ricardo Mario; DASSO, Gabriel María y LEZAMA, Daniel Hernán. "Tensiones localizadas 26

27 Ricardo Mario Amé - Daniel Hernán Lezama producidas por di scont inui dades geom étri cas combinadas". Revista Cubana de Ingeniería, La Habana: 2011, 2(2), ISNN SHIGLEY, Joseph E. y MITCHELL, Larry D. Diseño en Ingeniería Mecánica, México: McGraw-Hill Inc., pp. ISBN X 7. FAIRES, V. M. Diseño de Elementos de Máquinas, España: Editorial Montaner y Simon S.A., pp. ISBN DEUTSCHMAN, A. D.; MICHELS, W. J. y WILSON, C. F. Diseño de máquinas, Teoría y práctica, México: Editorial CECSA, 1985, 973 pp. ISBN PETERSON, R. E. Stress Concentration Design Factors. Estados Unidos de Norteamérica: John Wiley & Sons Inc., pp. 10. LIPSON, Charles and JUVINALL, Robert C. Handbook of Stress and Strength. Design and Material Appliocations. Estados Unidos de Norteamérica, Editorial Macmillan Company, pp. 11. ZIMMERMAN, R. W. "Stress Singularity Around two Nearby Holes". Mechanics Research Communications 15, 87-90, PEÑARANDA CARRILLO M.; PEDROZA ROJAS J. B. y MÉNDEZ ORELLANA J. "Determinación del factor teórico de concentración de esfuerzo de una placa infinita con doble agujero". En Actas del 8º Congreso Iberoamericano de Ingeniería Mecánica, Cusco, 23 al 25 de Octubre de ROLDAN, Fernando y BASTIDAS, Uriel. "Estudio experimental y por análisis de elementos finitos del factor de concentración de esfuerzo producido por un agujero en una placa plana". Dyna. Universidad Nacional de Colombia, 2002, vol. 69, núm. 137 pp PILKEY, Walter D. and PILKEY, Deborah F. Peterson's Stress Concentration Factors, Estados Unidos de Norteamérica: John Wiley & Sons, MONROY, Héctor A. y GODOY, Luis A. "Un sistema computacional para la simulación de interacción de defectos estructurales". En Actas del Sexto Congreso Argentino de Mecánica Computacional, MECOM Mendoza, Argentina. 16. TING, K.; CHEN, K. T. and YANG, W. S. "Applied Alternating Method to Analyze the Stress Concentration Around Interacting Multiple Circular Holes in an Infinite Domain". International Journal of Solids and Structures, 1999, vol. 36, Issue 4, pp AUTORES Ricardo Mario Amé Ingeniero Mecánico, Doctor, Profesor Titular, Ordinario de Elementos de Máquinas, Coordinador del Ciclo de Especialización de Ingeniería Mecánica, Facultad de Ingeniería, Universidad Nacional de Lomas de Zamora, República Argentina Daniel Hernán Lezama Ingeniero Industrial, Ayudante en la Cátedra de Elementos de Máquinas, Facultad de Ingeniería, Universidad Nacional de Lomas de Zamora, República Argentina Management of the Combined Geometrical Discontinuities in Mechanical Design Abstract In previous works were studying the distribution of localized stresses in mechanical components with geometrical discontinuities combined into a single section or sections near. However, the maximum value of these stresses depends on the relative position of geometric shapes, so the study of adequate distribution of them favors the design optimization. The opportunity to have software tools has revealed the importance of mechanical design for minimization of localized stresses in machine parts with complex shapes combined. In the present work shows an application of this concept. The object of study is a flat piece, with change in width and core drilling, subjected to constant axial load. It works on different relative positions of the central hole, for the section where the plate widths changes, and determine the best position in the same localized minimum tensile stress. We compare the values of factor of theoretical stress concentration obtained those suggested by the literature. The work suggests the need to analyze alternatives and the possibility to check that the combination of geometric discontinuities, in the same section, not only generates higher stresses it is alleged, at times, a proper design to minimize localized stresses Key words: stress concentration, finite element, mechanical design. 27

28 1(III), 29-36, 2012 MECATRÓNICA Sistema de localización de un robot móvil usando técnicas de visión computacional Rony Cruz Ramírez Correo Empresa Comercializadora de Combustibles de Matanzas, Cuba Artículo Original Maikel O. Torres Piñeiro Correo Valery Moreno Vega Correo Instituto Superior Politécnico José Antonio Echeverría, La Habana, Cuba Resumen La robótica móvil es una temática con múltiples campos de acción, por lo que los estudios en esta área son de vital importancia. En este documento se describe el desarrollo de un sistema de localización de un robot móvil, estimando su posición y orientación mediante visión computacional y el uso de una webcam, colocada a una altura en la que se visualiza el entorno de navegación. En la investigación se utilizó un Kit LEGO NXT, a partir del cual se construyó un robot móvil de ruedas de configuración diferencial. Se programó un software en lenguaje C++ y se usaron las librerías de funciones de OpenCV 2.0 para la atención a la webcam, el procesamiento de las imágenes capturadas, el cálculo de la localización del robot, el control y la comunicación mediante Bluetooth. Además, se implementó un control cinemático de posición y se realizaron varios experimentos con vistas a verificar la fiabilidad del sistema de localización; los resultados de uno de ellos son documentados aquí. Palabras clave: robótica móvil, visión computacional, LEGO NXT. Recibido:10 de noviembre del 2011 Aprobado:18 de diciembre del 2011 INTRODUCCIÓN La influencia de los robots en la sociedad actual es cada vez más notable, tanto desde el punto de vista estrictamente social como a los aspectos económicos e industriales. Como consecuencia, la investigación y desarrollo de la robótica es de vital importancia. Dentro de este campo de estudio y aplicación se destaca el tema de la robótica móvil, debido a que los robots móviles cubren una gran variedad de tareas, como: los trabajos subterráneos y submarinos, las misiones espaciales, desactivación de explosivos, operación en zonas radioactivas y aplicaciones militares. En todos los casos la presencia de la robótica es justificada por la dificultad o imposibilidad de intervención humana, bien directa o teleoperada. [1] El Departamento de Automática y Computación de la Cujae ha realizado varias investigaciones en el tema de la robótica móvil, específicamente sobre generación de trayectorias. Para ello cuenta con un Kit LEGO NXT, el cual presenta encoders en sus motores, lo que permite utilizar la odometría para la estimación de la posición en aplicaciones de navegación. Esta técnica tiene como ventaja su simplicidad y bajo costo; sin embargo, es vulnerable a imprecisiones causadas por el deslizamiento de las ruedas e irregularidades en el suelo, lo que impide obtener con la exactitud requerida la posición del robot [1]. Debido a esto, hasta el momento no se han obtenido resultados reales de los estudios, por lo que es necesario un sistema de localización para el robot móvil que satisfaga los requisitos propios de la aplicación. En el campo de la robótica móvil, el sistema de localización desempeña un papel primordial debido a la necesidad de estimar de forma fiable la posición de un robot móvil en un entorno de navegación, para su control por realimentación. El tema ha motivado el desarrollo de varias investigaciones [2], [3]; que proponen diversas técnicas para ello. Estas varían R e v i s t a C u b a n a d e I n g e n i e r í a. ISSN

29 Sistema de localización de un robot móvil usando técnicas de visión computacional significativamente en función del entorno de navegación, del conocimiento que de él se tenga, de la tarea a realizar y del tipo de sensor con que el robot va equipado o con el que se cuenta; pero una de los más populares por sus ventajas y facilidad es el uso de cámaras de video y algoritmos de visión computacional [1], [4]. Teniendo en cuenta esas características y el poder contar con una webcam, se seleccionó esta última técnica, para ser utilizada en la construcción de una plataforma para la navegación del robot. SISTEMA DE LOCALIZACIÓN DEL ROBOT MÓVIL Descripción de la plataforma de navegación construida El desarrollo de esta investigación se basa en la construcción de una plataforma de navegación para el robot móvil LEGO NXT, con una webcam para la estimación de su posición y orientación (figura 1). Fig. 1. Esquema de la plataforma de navegación. Como se observa en la figura 1, el entorno de navegación es un área determinada por el alcance de visión de la webcam, instalada a una altura del suelo. La cámara es conectada a una PC mediante USB; de esta forma es posible captar imágenes del área de trabajo, realizar un tratamiento de ellas con algoritmos de visión computacional, obtener la posición y orientación del robot, calcular las señales de control y enviar por Bluetooth los comandos directos para la ejecución de las acciones sobre los motores de CD. Para la construcción de la plataforma de navegación se colocó la webcam a una altura de 214 cm. Como resultado, el entorno de navegación del robot, limitado por el área de visión, tiene las siguientes dimensiones: 160 cm de largo x 120 cm de ancho, lo cual da una relación a esa altura de 2px/cm (1cm=2px), teniendo en cuenta que la resolución de la webcam es de 320 x 240 px. Esto permitió obtener una relación entre la altura y las dimensiones del área de visión. Así aumentando la primera es posible ampliar el entorno de navegación y conocer la relación px/cm para la nueva configuración, pero como consecuencia se pierde nitidez en la imagen captada, debido a que la relación se hace menor y puede influir negativamente en el procesamiento de las imágenes. La webcam utilizada es de tecnología CMOS, de reducidas cualidades y su interfaz con la PC es USB. En la conexión se utilizó un adaptador USB - USB de 120 cm que sumado a los 130 cm del cable propio de la webcam, da una longitud resultante de 250 cm, que no debe exceder los 500 cm, debido a las restricciones técnicas propias de USB. También es usado un adaptador USB-Bluetooth, que es conectado en uno de los puertos USB de la PC para la comunicación con el NXT. Descripción del robot móvil En la construcción del robot fue utilizado el kit LEGO MindStorms NXT. Esta herramienta educacional brinda una variada posibilidad de diseños de robots móviles, aunque el caso de interés es el de configuración diferencial, con un prototipo de tres ruedas proporcionado por LEGO: dos de tracción y una rueda de apoyo. [5] Al finalizar su construcción el robot presentó dimensiones de 19 cm de largo, 14 cm de ancho y 14 cm de altura. Las dos ruedas de tracción, de radio 2,8 cm, se montaron en los rotores de dos de los motores del kit. Al prototipo se le agregaron tres bombillos propios del kit, mediante los adaptadores que este presenta. El primer bombillo se colocó en una extensión realizada con piezas del kit sobre la rueda de apoyo. Mientras que los otros dos se ubicaron en paralelo, en los anclajes, a los lados del ladrillo inteligente y sobre las ruedas de tracción. El objetivo de esta modificación es facilitar la estimación de la posición y orientación mediante el procesamiento de las imágenes tomadas con la cámara en el entorno. En la configuración de los puertos solo se tomaron en cuenta los tres de salida, ya que no se usó ninguno de los sensores que presenta el kit, solo los actuadores, dos motores y los tres bombillos, que son alimentados por el ladrillo. Para ello se conectaron los motores derecho e izquierdo (mirando desde la rueda de apoyo hacia las de tracción) en los puertos de salida A y C respectivamente. En el puerto B se conectó un adaptador para la alimentación de los bombillos. Descripción del software de manejo del robot móvil En la arquitectura del sistema de localización para la navegación del robot móvil es necesario una interfaz de software en la PC para la atención a la cámara, la visión computacional, la implementación de los controladores de posición y la comunicación Bluetooth para el envío de comandos al firmware del ladrillo inteligente NXT y la ejecución por este de las órdenes de control. Para la realización del software y de los módulos necesarios, se utilizó el IDE Qt Creator, basado en Qt4, y las librerías de funciones para la visión computacional de OpenCV 2.0. Qt es una biblioteca multiplataforma para desarrollar interfaces gráficas de usuario. [6] OpenCV es una biblioteca de visión computacional originalmente desarrollada por Intel. Esta librería provee las funciones de 30

30 Rony Cruz Ramírez - Maikel O. Torres Piñeiro - Valery Moreno Vega morfología y atención a la webcam, básicas en la captura y procesamiento de las imágenes. Ambos software son multiplataforma y distribuidos libremente. Módulo de comunicación Bluetooth y control remoto El ladrillo inteligente LEGO MINDSTORMS NXT se puede comunicar con dispositivos externos que utilizan Bluetooth Serial Port Profile (SPP). También es posible enviar comandos directamente al ladrillo NXT desde un dispositivo externo de Bluetooth o un ordenador. En el caso de este proyecto se hizo uso de este medio para ejecutar las acciones de control sobre el robot. El software implementado en la PC es el encargado de capturar las imágenes del flujo de video, calcular los valores de velocidad de cada motor y enviar los comandos con las órdenes al LEGO mediante Bluetooth. [7], [8], [9]. En el módulo elaborado se programaron funciones para establecer la comunicación Bluetooth, PC - LEGO y el control de los motores remotamente a partir del mecanismo de comandos directos. De esta forma es posible establecer la conexión, enviar y recibir mensajes. Para ellos fue necesario predefinir en el sistema un puerto serie (COM) fijo para la conexión Bluetooth con el dispositivo NXT y hacer uso de las APIs de W indows para el manejo de la conexión. [10] Módulo de visión computacional y cálculo de la localización Un sistema de visión computacional actúa sobre una representación de la realidad que le proporciona información sobre brillo, colores y formas [4], [11]. Estas representaciones suelen estar en forma de imágenes. Una imagen digital es una matriz cuyos índices (f(x, y)) identifican un punto en la imagen y la correspondiente matriz de valores identifica niveles de color y brillo. El objetivo del uso de la visión computacional en este caso, está orientado a encontrar las coordenadas espaciales bidimensionales de la posición del robot móvil y su orientación. El proceso de estimación parte de la adquisición de las imágenes del flujo de video captado por la webcam. La captura de cada frame permite percibir el entorno de navegación del robot móvil, siempre y cuando este se encuentre dentro del área de visión. Para llevar a cabo este paso se usaron las funciones de la librería HighGUI de OpenCV debido a que esta contempla las funciones de I/O video. [12] Una imagen del robot en el entorno de navegación captada por la webcam se muestra en la figura 2. En el desarrollo de la investigación se tuvieron en cuenta varios mecanismos y metodologías para obtener la posición de un objeto en una imagen, entre ellos se destacan de forma general dos: detección de objetos por segmentación de colores, y por segmentación de límites de región. [4] Fig. 2. Imagen del robot captada por la webcam en el entorno de navegación. El primer método es muy utilizado en la robótica móvil, la técnica es idónea sobre todo en entornos donde navegan más de un robot. Esto se debe a que es posible colocar sobre cada uno de ellos señalizaciones de diferentes figuras geométricas o códigos de colores, que permitan identificarlos independientemente para calcular su posición y orientación. Como desventaja presenta la necesidad de un hardware de visión de alta definición. En este proyecto se desestimó esta técnica debido a las dificultades con la resolución y las características de la cámara. La definición obtenida de las imágenes captadas no permitió precisar correctamente los códigos de colores y señalizaciones colocadas en el robot. Teniendo en cuenta estas dificultades se optó por el segundo método. Esta técnica es bastante usada en la detección y seguimiento de objetos. Consiste en convertir las imágenes a color, en RGB u otro espacio a escala de grises, donde la imagen se representa en niveles de intensidad luminosa. De esta manera es posible realizar transformaciones morfológicas que permitan segmentar el objeto en cuestión y separarlo del resto. [4] Al implementar esta técnica, como consecuencia de los ruidos y la iluminación no uniforme e irregular, se detectaron problemas en el proceso de segmentación, lo que impidió definir correctamente las fronteras del objeto en todas las regiones de la imagen. Como solución se decidió insertar a la arquitectura del robot LEGO NXT señalizadores activos, los bombillos descritos con anterioridad, con lo que se logran tres puntos de alta intensidad luminosa que, al analizarlos, representan los vértices de un triángulo isósceles. Teniendo esta información se pueden calcular la posición y orientación del robot en el entorno. [2] La metodología diseñada para la segmentación de los bombillos en las imágenes capturadas de la webcam tiene el siguiente orden: 1. Convertir la imagen en RGB a escala de grises. 2. Binarizar la imagen en escala de grises. 31

31 Sistema de localización de un robot móvil usando técnicas de visión computacional 3. Dilatar la imagen binaria. 4. Calcular los contornos en la imagen y comprobar que sean tres. 5. Separar los contornos en imágenes independientes. 6. Calcular el centro de cada contorno. Las imágenes en escala de grises muestran niveles de intensidad que se visualizan como una variación de color desde el negro (valor 0) hasta el blanco (valor 255), como se puede ver en la figura 3. y calcular las coordenadas de sus centros. Para llevar a cabo todas estas tareas de procesamiento de la imagen se utilizaron las funciones de las librerías de OpenCV. [12] Fig. 4. Imagen binaria dilatada. Fig. 3. Imagen en escala de grises. Luego de obtener la imagen en escala de grises se procede a segmentar los bombillos. Para ello es necesario binarizar la imagen; este proceso consiste en transformar la matriz en escala de grises, donde cada índice puede tener 256 posibles valores a solo 2, blanco o negro. El objetivo en este paso es separar los bombillos del resto del fondo, así se obtiene una imagen con solo dos posibles valores de iluminación, donde los objetos segmentados se muestran en blanco y el resto en negro. [4] El umbral de la binarización (threshold) debe ser tomado como un valor alto, debido a que los bombillos emiten luz y su valor de luminosidad en las imágenes en escala de grises es cercano al máximo; pero es posible que en algunas regiones, como consecuencia de los ruidos y la iluminación no uniforme, los valores de iluminación oscilen por lo que se utilizó un umbral sobre el valor 240. [4] A la imagen binaria obtenida se le aplica dilatación, que es una de las operaciones de la morfología matemática utilizada en el procesamiento digital de imágenes. Con la dilatación se obtiene una representación de los contornos segmentados, con una mejor definición. [4] Lo que permite calcular los contornos y los centros de estos de forma segura. El elemento estructurante usado para la operación de dilatación fue una elipse con un diámetro de 3px. Como se observa en la figura 4, solo quedan los tres contornos que ocupan los bombillos en blanco y el resto en negro. Lo siguiente es identificar cada uno de los contornos En el cálculo de los centros de los contornos se hace una transformación de coordenadas en el eje y o en el ancho de la imagen, con el objetivo de correr el centro de coordenadas (0,0), hacia el (0,240). De esta forma se establecen las coordenadas de acuerdo con el marco de referencia global determinado para el robot. Teniendo las coordenadas del centro de cada contorno, que representan a los tres bombillos, se obtienen las coordenadas de los vértices del triángulo isósceles. Con los puntos obtenidos se calculan las longitudes entre cada uno de ellos de forma consecutiva, coincidiendo la menor con la base del triángulo. El punto medio de la base, que es el centro del eje de las ruedas, es la coordenada de posición buscada. Con esta y el tercer vértice, identificado por no conformar la base y que corresponde al bombillo sobre la rueda de apoyo, se determina el ángulo de orientación del robot, calculando la arcotangente de la mediana a la base formada por ambos puntos. Módulo de control El control de un robot móvil en la mayoría de los casos se realiza por realimentación. Uno de los controladores más sencillo y utilizado en el caso de un robot móvil de configuración diferencial, es el control basado en el modelo cinemático. La cinemática, se centra en el estudio del movimiento del robot en función de su geometría. [13] El control cinemático de robots móviles consiste en determinar las acciones del robot necesarias para llevarlo desde su posición actual a una posición final deseada, considerando las velocidades y la orientación. Un robot móvil de ruedas de configuración diferencial presenta dos ruedas activas, paralelas e independientes y 32

32 Rony Cruz Ramírez - Maikel O. Torres Piñeiro - Valery Moreno Vega una tercera rueda pasiva con funciones exclusivamente de equilibrio. El chasis del robot es considerado como un cuerpo rígido con movimiento en el plano horizontal, por la tracción de las ruedas activas, y se describe en términos de velocidad lineal v (t) y la dirección (t), obteniéndose como resultado un desplazamiento lineal del punto medio del eje de las ruedas activas (v(t)) y rotacional ( (t) ) del cuerpo del robot sobre este mismo punto. El modelo matemático de este problema cinemático considera las dos variables de control: v(t), (t) y tres variables de estado: la posición y orientación del robot (x,y, ) y está dado por [3], [13]. En la figura 5, es el ángulo entre el eje X R del marco de referencia del robot y el vector que conecta el punto medio en el eje de las ruedas P y el objetivo, este ángulo es definido entre, y determina el sentido de giro del robot en ω o - ω. Mientras que describe la distancia entre P y el objetivo, y el ángulo entre la dirección en línea recta al objetivo y el eje X 0. Así se establece la ley de control cuyo propósito es determinar las entradas del sistema v y ω [3]:. x. cos 0 sen 0 v y. 0 1 El control de movimiento del robot se realiza proporcionando las velocidades de las ruedas v l (t) y v r (t) o equivalentemente v(t) y (t), variables de control [3], [13]. La ley de control considerada [3], consiste en un controlador por realimentación de estados, que es adecuado para el cumplimiento de misiones de navegación como movimiento de un punto a otro. Para su diseño se considera una situación arbitraria de posición y orientación del robot y se predefine un punto objetivo a alcanzar, como se muestra en la figura 5. (1) v k 1 cos (4) k sen cos k (5) 1 2 El movimiento del robot es definido por las velocidades imprimidas por los motores de CD a las ruedas, a partir de las referencias de las velocidades (v l,v r ) recibidas por Bluetooth y que son determinadas mediante las señales de control (v, ). El esquema del control implementado se puede observar en la figura 6. Fig. 5. Situación arbitraria considerada. Donde se define: x y (2) (3) Fig. 6. Esquema del control implementado. El software implementado es el encargado del muestreo para recibir las imágenes de la cámara, almacenarlas, procesarlas para obtener la posición y orientación, calcular las señales de control y transmitir los comandos al robot. En el software se utilizó una constante de tiempo de muestreo de 150 ms, este valor puede ser menor pero se presentaron retrasos con la cámara usada, debido a que el muestreo asincrónico para obtener los frames, impide dos capturas consecutivas en un tiempo menor al utilizado. Al establecer la constante de tiempo en ese valor, el tiempo total utilizado para las tareas de: captura, procesamiento de la imagen, cálculo de las señales de control y envío del comando de velocidad al NXT, es de 14 ms en una PC Intel Pentium Dual - Core. Mientras que el retardo del Bluetooth fue de 7 ms. 33

33 Sistema de localización de un robot móvil usando técnicas de visión computacional VERIFICACIÓN DEL SISTEMA DE LOCALIZACIÓN Para la verificación del sistema de localización se realizaron varios experimentos uno de los cuales es documentado aquí. Los experimentos consistieron en la ejecución de tareas de navegación por el robot y el análisis de los puntos registrados en los recorridos realizados y de los valores de las señales de control calculadas por el controlador en cada muestreo. Luego se realizaron simulaciones del control en MATLAB considerando el modelo cinemático del robot. El ajuste del controlador estuvo dado por (k 1 = 0,25, k 2 = 0,5). Las gráficas de los experimentos son cotejadas con las obtenidas en las simulaciones. Para el primer experimento, el robot tuvo una posición inicial en (X 0 = 45px, Y 0 = 53 px, 0 = 99 0 ) y el destino en (X f =267px, Y f =186px). En la gráfica de la figura 7, con color azul y en guiones, el recorrido obtenido por la simulación. Mientras que en rojo los puntos del recorrido real, muestreados por el sistema de localización. Al analizar las dos curvas se observan las diferencias entre el recorrido simulado y el real. Para entender estas diferencias entre las curvas es necesario analizar las señales de control generadas (v, ), en las figuras 8 y 9 respectivamente. Como se observa en la figura 8, las curvas de velocidad lineal obtenidas no difieren mucho, sin embargo, resulta claro cómo los valores reales de velocidad superan a los simulados después de los 2 s, debido a esto la curvatura de la gráfica de los valores reales en la figura 7 es menor a la de la simulación, al igual que la distancia recorrida y con un movimiento más cercano a describir una recta. Como resultado se obtiene también el tiempo de movimiento del robot de 15,9 s, que es menor al de la simulación de 23 s. Fig. 8. Gráfica de v vs t, del experimento y la simulación. En el caso de la velocidad angular ( (t)), la gráfica de los valores reales sigue más cercanamente a la de la simulación, y aunque sus v alores siempre son superiores, el comportamiento del movimiento del robot es más afectado por los valores de la velocidad lineal que por los de la angular, debido a que su magnitud es mayor numéricamente y por lo tanto tiene más definición y protagonismo en el movimiento. A pesar de las diferencias entre el comportamiento real y el simulado, la tarea de navegación es cumplida, el punto destino que es el objetivo, es alcanzado por el robot, lo que evidencia la fiabilidad de la estimación de la posición y la orientación, que constituyen la realimentación del sistema de control de la posición. Otros experimentos fueron realizados obteniéndose resultados similares. Fig. 7. Gráfica de x vs y, del experimento y la simulación. Fig. 9. Gráfica de w vs t, del experimento y la simulación. 34

34 Rony Cruz Ramírez - Maikel O. Torres Piñeiro - Valery Moreno Vega CONCLUSIONES Teniendo en cuenta los resultados obtenidos se pudo constatar que es posible controlar de forma precisa la posición de un robot móvil, y cumplir satisfactoriamente misiones de navegación con el uso del sistema de localización desarrollado. El software implementado es una herramienta necesaria y sirve de base para múltiples aplicaciones. La baja calidad de la cámara provocó que el sistema siempre fuera perturbado por múltiples ruidos propios del entorno. Una de las mayores perturbaciones fue la iluminación, sus variaciones influyeron notablemente en la segmentación, principalmente en determinadas áreas en las que la incidencia de la luz directamente sobre la superficie del robot creó brillos de muy alta intensidad. En los resultados, aunque hubo cierta semejanza entre las gráficas de las simulaciones y las reales, se observó cuanto difiere el modelo cinemático ideal de lo que representa realmente el robot, debido fundamentalmente a no tener en cuenta las características dinámicas de este. Al contar con un sistema de localización fiable, es posible el uso del Kit LEGO en variadas aplicaciones de control, planificación y generación de trayectorias para un robot móvil. Esta investigación sienta las bases a múltiples estudios en el campo de la robótica móvil para el Departamento de Automática y Computación de la Cujae. REFERENCIAS 1. GONZÁLEZ, Javier y OLLERO, Anibal. Estimación de la Posición de un Robot Móvil [en línea]. [ref. de 9 de febrero 2011]. Disponible en web: <http://www.robotica- urjc.es/doctorado/gonzalez-estimacion_de_la_posicion- 96.pdf>. 2. DE LUCA, A. et al. Visual- Based Planning and Control for Nonholonomic Mobile Robot. Proceedings of the 10th Mediterranean Conference on Control and Automation [Lisbon, Portugal], MARTINS-FILHO, Luiz S. et al. "Kinematic Control of Mobile Robots to produce Chaotic Trajectories". ABCM Symposium Series in Mechatronics 2, 2006, FLORCZYK, Stefan. Robot Vision Video-based Indoor Exploration with Autonomous and Mobile Robots. [Darmstadt]: Wiley-VCH Verlag Gmbh & Co. KGaA, pp. ISBN: ASTOLFO, Dave; FERRARI, Mario and FERRARI, Giulio. Building Robots with LEGO MindStorms NXT. Ed. Dave Astolfo. [Burlington]: Syngress Publishing. Inc., pp. ISBN: 13: BLANCHETTE, Jasmin and SUMMERFIELD. Mark. C++ GUI Programing with QT 4. Prentice Hall, pp. ISBN-10: THE LEGO GROUP. LEGO MindStorms NXT Bluetooth Developer Kit Disponible en web: <http:// mindstorms.lego.com>. 8. THE LEGO GROUP. LEGO MindStorms NXT Direct Commands. LEGO MindStorms NXT Bluetooth Developer Kit Disponible en web: <http://mindstorms.lego.com>. 9. THE LEGO GROUP. LEGO MindStorms NXT Communication Protocol. LEGO MindStorms NXT Bluetooth Developer Kit Disponible en web: <http:// mindstorms.lego.com>. 10. PETZOLD, Charles. Programming Windows. Microsoft Press, , pp.isbn: X. 11. ITO, Daiko. Robot Vision Strategies, Algorithms and Motion Planning. Ed. Daiko Ito. [New York]: Nova Science Publishers, Inc., pp. ISBN: OpenCV Community. OpenCV Documentation Disponible en web: <http://sourceforge.net/projects/ opencv/>. 13. NOURBAKHSH, Illah R.; SIEGWART, Roland. Introduction to Autonomous Mobile Robots. Ed. Ronald C. Arkin. [Cambridge, Massachusets]: The MIT Press, pp. ISBN: X. AUTORES Rony Cruz Ramírez Ingeniero en Automática, Empresa Comercializadora de Combustibles de Matanzas (ECCM), Unión Cupet, MINBAS, Matanzas, Cuba Maikel O. Torres Piñeiro Ingeniero en Automática, Máster en Informática Industrial y Automatización, Asistente, Departamento de Automática y Computación, Facultad de Ingeniería Eléctrica, Instituto Superior Politécnico José Antonio Echeverría Cujae, La Habana, Cuba Valery Moreno Vega Ingeniero en Máquinas Computadoras, Doctor en Ciencias Técnicas, Profesor Titular, Departamento de Automática y Computación, Facultad de Ingeniería Eléctrica, Instituto Superior Politécnico José Antonio Echeverría Cujae, La Habana, Cuba 35

35 Sistema de localización de un robot móvil usando técnicas de visión computacional Localization System for a Mobile Robot Using Computer Vision Techniques Abstract Mobile Robotics is a subject with multiple fields of action hence studies in this area are of vital importance. This paper describes the development of localization system for a mobile robot using Computer Vision. A webcam is placed at a height where the navigation environment can be seen. A LEGO NXT kit is used to build a wheeled mobile robot of differential drive configuration. The software is programmed in C++ using the functions library Open CV 2.0. this software then soft handles the webcam, does the processing of captured images, the calculation of the location, controls and communicates via Bluetooth. Also it implements a kinematic position control and performs several experiments to verify the reliability of the localization system. The results of one such experiment are described here. Key words: mobile robotic, computer vision, LEGO NXT 36

36 1(III), 37-44, 2012 PROBLEMAS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA Universidad, patentes e innovación Antonio B. Zaldívar Castro Correo Artículo de Reflexión Lierli Oconnor Montero Correo Instituto Superior Politécnico José Antonio Echeverría, Cujae, La Habana, Cuba Resumen La escasa relevancia de las patentes en la cultura innovadora en el ámbito universitario latinoamericano y en particular en Cuba, se debe en gran medida, a la no introducción en el sector productivo de las invenciones gestadas. El establecer una concordancia invención-invocación con el uso de las estadísticas de patentes, la Clasificación Internacional de Patente (IPC) y el Sistema de Clasificación de Actividades Industriales, puede brindar los recursos metodológicos, que junto a un sistema automatizado de búsqueda y procesamiento de los datos, permite ubicar las patentes del sector universitario en un sector económico dado, para facilitar de esa manera, su gestión por la innovación. Palabras clave: patente, invención, innovación Recibido: 22 de septiembre del 2011 Aprobado: 18 diciembre de abril 2011 PLANTEAMIENTO DEL PROBLEMA En la actualidad se aprecian cambios en la manera en que las universidades se relacionan con la sociedad, y en ese contexto surge la necesidad de estudiar las patentes generadas dentro de esas instituciones, en el sentido de la transferencia de los resultados científico-tecnológicos medidos por ese indicador, a los sectores económicos para su transformación en innovaciones tecnológicas. Dada la importancia que la innovación tecnológica tiene actualmente, en este trabajo resulta pertinente analizar que, el Instituto Superior Politécnico José Antonio Echeverría, Cujae, como centro rector de la enseñanza de las ciencias técnicas en el país, que cuenta con siete facultades donde se cursan doce carreras, once de ellas acreditadas, y ocho con categoría de excelencia y la actividad de ciencia e innovación tecnológica constituye un pilar fundamental del trabajo, debería lograr que la difusión de los resultados de la investigación universitaria hacia el sector productivo no se desarrolle preferentemente, mediante las formas tradicionales de transferencia del conocimiento (posgrados, asesorías, auditorías), y tome en cuenta que también los resultados patentables de las investigaciones tengan una real aplicación en los sectores de la economía cubana, y la invención protegida por patente pueda transformarse en innovación tecnológica, lo cual es imprescindible, no solo por la evolución notable que el tema de la protección de la propiedad industrial tiene en la actualidad, sino que, "...es inevitable considerar el tema más que como una cuestión de técnica jurídica, desde la perspectiva de la política tecnológica y de la política universitaria". [1] ALGUNAS CONSIDERACIONES BÁSICAS Los problemas del cambio tecnológico han ocupado un lugar destacado en el análisis económico. Desde entonces, una de las preocupaciones básicas consistió en buscar indicadores adecuados para medir la actividad tecnológica y su relación con la eficiencia económica. El indicador de patente resulta de gran utilidad. La patente puede entenderse como el documento que acredita el derecho exclusivo que el Estado le concede al autor o titular de una invención, y que le permite explotarla e impedir que un tercero pueda utilizarla con fines comerciales sin su autorización durante un tiempo determinado (según el Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual, relacionados con el comercio ADPIC. [2] (TRIP'S, por sus siglas en inglés) por lo menos veinte años desde la solicitud y en el territorio donde sea registrada. Es por lo

37 Universidad, patentes e innovación tanto, la forma que el ordenamiento jurídico establece para proteger las invenciones. En esta definición se consideraron algunos elementos esenciales como: el carácter jurídico que tiene la patente al ser un certificado emitido por el Estado para proteger al autor de la invención impidiendo que otros la puedan utilizar sin su consentimiento con fines de lucro; la diferencia entre autor y titular, por cuanto el autor es el creador de la invención y pude ser al mismo tiempo el titular. El titular es el que lleva a cabo la explotación de la invención y no tiene que ser necesariamente el autor de la misma; la limitación en cuanto al tiempo o plazo de exclusividad del ejercicio el derecho sobre la invención protegida y los límites territoriales donde se pueden obtener estos derechos (los derechos sobre la patente son válidos en el territorio donde esta se registre). [3] Al ofrecer protección y exclusividad, la patente es un instrumento político cuya finalidad es alentar a los inventores a que inviertan en investigación y en el trabajo de innovación posterior que conseguirá que esas invenciones tengan una aplicación práctica. Lo que constituye parte de los fundamentos económicos de las patentes. Siendo así, las estadísticas de patentes tienen una considerable atención en la literatura especializada, ya que constituyen un método valioso para medir el cambio tecnológico, por su abundancia, larga proyección temporal e incorporar una información complementaria sobre la actividad inventiva. [4] Actualmente el uso de las patentes se estructura según los niveles de análisis que se quieran afrontar. Los estudios pueden agruparse alrededor de tres amplios campos de investigación: el sistema legislativo y administrativo de las patentes; el análisis de la racionalidad económica del sistema de patentes; y el uso de las estadísticas de patentes como fuente de información tecnológica, útil para el análisis económico. LA PATENTE EN EL SECTOR UNIVERSITARIO En los últimos años se han incrementado los estudios empíricos acerca del comportamiento de las universidades en la generación de patentes. La mayoría de esos estudios se efectuaron por autores norteamericanos que tomaron como objeto de investigación sus propias universidades, aunque investigadores europeos, analizando su entorno geográfico, también han hecho sus contribuciones. No puede decirse lo mismo del continente latinoamericano, donde el fenómeno se manifiesta todavía de forma incipiente. Según Henderson y otros, [5] los factores fundamentales que propician el auge y la comercialización de las patentes universitarias en el caso estadounidense son: 1. La aplicación en 1981 de la Ley Bayh-Dole. En 1980 el Congreso Norteamericano modificó la Ley de patentes y marcas al publicar la Ley Bayh-Dole, que permite a las universidades retener los derechos de propiedad derivados de las investigaciones financiadas con los fondos públicos. 2. El aumento de la financiación empresarial a la Universidad, debido al interés de las empresas por la investigación académica. 3. El crecimiento sustancial de las entidades de interfaces de las universidades (Oficinas de Transferencia de Resultados de Investigación). El impacto de estas leyes después de años de aplicación resulta interesante: Las patentes otorgadas a universidades pasaron de 250 por año a Las oficinas universitarias de patentes pasaron de 25 a más de 200. El número de centros de investigación universidadindustria se duplicó. El dinero que la industria deriva a la investigación universitaria pasó del 4% al 7% del total del rubro. [6] La puesta en práctica de la Ley Bayh Dole, no solo modificó el papel de la Universidad en la transferencia de los conocimientos científico-técnicos a la empresa, sino que constituyó un paradigma que motivó a otros investigadores a analizar el comportamiento de esa misma problemática en otros entornos académicos. Así, Wallmark, [7] en el análisis de las patentes en la Universidad Tecnológica de Chalmers, de Suecia, aprecia que los profesores de más alta categoría son los que constituyen el mayor potencial en términos de patentes. Al mismo tiempo, considera que mediante la explotación de las patentes por las empresas, a través de la licencia, aumentan los beneficios de la propia Universidad, y contribuyen a prestigiar el currículum de los investigadores. Por su parte, Meyer y otros, [8] quienes estudian las patentes solicitadas en universidades alemanas en el periodo 1974 y 1994, señalan que "... una patente solo tiene sentido en una institución científica si esta se encuentra interesada en la explotación comercial de un nuevo descubrimiento y se pretende conseguir o existe ya una colaboración con un socio empresarial". También identifican las disciplinas científicas desarrolladas en la Universidad que más se relacionan con la empresa, destacando en este caso, la biotecnología, y demuestran que las patentes en la Universidad resultan de gran utilidad en la medida que estimulan las relaciones con su entorno. En América Latina, el análisis del patentamiento de las universidades de cuatro países de la región muestra, que estas no tienen tradición de patentar, de ahí que la actividad de patentamiento en algunos casos es reciente y en otros a penas está comenzando. En el caso de Chile, algunas de esas universidades (Universidad de Chile) cuentan con un reglamento interno, referido a los derechos patrimoniales que tiene la Universidad sobre los inventos desarrollados por sus profesores. Mientras que las que no lo tienen establecen proyectos con instituciones no académicas, que a título de la institución protegen los resultados de las investigaciones en que participan las universidades. En la actividad de patentamiento no existe un comportamiento regular, casi el 90 % de las solicitudes son efectuadas por siete universidades. Solamente la Universidad de Concepción y la Universidad Técnica Federico Santa María solicitan regularmente patentes y entre ambas poseen más del 50 % de las solicitudes universitarias, aunque menos del 5 % fueron concedidas y ninguna está generando ingresos. [9] 38

38 Antonio B. Zaldívar Castro - Lierli Oconnor Montero La obtención de patentes universitarias en Chile, parece más bien anecdótica y una de las razones consiste en la baja contribución privada al financiamiento de las actividades de I+D que se realizan en las universidades, lo que provoca que la contribución de estas a la producción de tecnología expresada en patentes, sea indirecta y solo pueda lograrse mediante las publicaciones, contratos tecnológicos u otras modalidades, incluyendo la docencia. En las universidades colombianas, los resultados son todavía menos alentadores, en 11 universidades de Colombia, en el período de 10 años ( ), tres concentran el 75% del total de patentes solicitadas. De ellas, una sola, la Universidad Nacional de Colombia, posee más de la mitad de las patentes, correspondiéndole 11 de las 20 solicitadas. Del total de patentes, tres han sido concedidas y solo una genera ingresos. [9] En México, las universidades se destacan por su contribución científica en término de publicaciones, pero carecen de capacidades para poner en práctica la invención patentada y la innovación tecnológica, lo cual debilita la autonomía tecnológica y económica mexicana. Por otra parte, existe una alta concentración de las patentes. Solo dos universidades poseen más del 73% del total de las solicitadas. De las 88 patentes generadas por las universidades, más del 90 %, no han sido, ni serán transferidas al sector productivo o a la sociedad, por no haber sido concebidas para que organizaciones mexicanas las produzcan, comercialicen e introduzcan en el mercado en forma de innovaciones tecnológicas. [10] En el caso de las universidades brasileñas se aprecia un crecimiento a partir de los años 90, que duplican y hasta triplican el número de solicitudes de patentes, con relación al período anterior. También se observa una alta concertación de patentes por parte de algunas universidades. [11] Los principales factores de la actividad de patentamiento de estas universidades son: La Ley No /96 de propiedad industrial que posibilita la protección de los medicamentos, alimentos y productos químicos, y beneficia a las universidades brasileñas, que desarrollan inv estigaciones importantes en áreas relacionadas que antes no se protegían. Unido a la promulgación del Decreto que permite la participación de los investigadores universitarios, en las ganancias derivadas de la explotación de los resultados de sus investigaciones patentados, como forma de incentivar la labor de patentamiento. La búsqueda de fuentes alternativas de recursos para la investigación mediante el aumento de la cooperación con el sector industrial. La creación de oficinas de transferencia de tecnologías dentro de las universidades responsables de dictar las reglas de la participación de los investigadores en los resultados económicos de sus invenciones. De esta forma, las universidades brasileñas están siguiendo pautas de comportamientos similares a las univ ersidades norteamericanas. Una lectura cuidadosa de la literatura más importante en el campo de las patentes universitarias, sugiere que algunas peculiaridades en las reglas legales y las normas económicas y sociales, tienen que ser tenidas en cuenta antes de imitar la metodología de estudio y algunas políticas adoptadas en el campo de las patentes en instituciones académicas, tanto norteamericanas como europeas. Habría que tomar en cuenta, si el clásico sistema de patente, concebido como un sistema de economía privada y derecho privado que tiende a impulsar el progreso técnico y económico, mantiene su significado cuando ese progreso técnico es planteado, financiado y dirigido por el Estado Socialista en una determinada dirección. SITUACIÓN DEL PATENTAMIENTO EN LA UNIVERSIDAD CUBANA La legislación en materia de propiedad industrial vigente en la República de Cuba, es el Decreto-Ley 68 del 14 de mayo de 1983 de "Invenciones, Descubrimientos Científicos, Modelos Industriales, Marcas y Denominaciones de Origen". Dicho texto legal, está descontextualizado del ámbito internacional de hoy, caracterizado por la existencia del acuerdo ADPIC, que establece estándares mínimos de protección en materia de propiedad intelectual y del propio contexto nacional. En Cuba se han producido transformaciones económicas, que no se reflejan en la legislación vigente. El Decreto Ley 68 de 1983, estipula asimismo dos formas de proteger las invenciones: por medio del certificado de autor y certificado de patente de invención La concesión del certificado de autor de invención, produce una división en el derecho de propiedad industrial: el autor se beneficia con el derecho moral al ser reconocido como tal, mientras que el derecho de explotación exclusiva del invento pasa al Estado, quedando el resto de las instituciones incluida la Universidad (con el que está vinculado laboralmente el profesor/inventor), un derecho de administración operativa de la patente, lo que significa que cualquier empresa del país puede utilizar el invento, ya que el derecho exclusivo de explotación de este, lo tiene el Estado en general y nunca la institución. No obstante, existe un cierto derecho para el inventor, que es el derecho a la remuneración. Aunque nunca fue promulgado el reglamento que debió establecer las formas o los mecanismos legales para llevar a cabo la remuneración de los autores de las invenciones por certificado de autor de invención, por lo que en la práctica esta no se efectúa. Una ventaja con que cuenta la Universidad es que, desde la década del noventa del siglo pasado, se instituyeron estructuras de interfaces para facilitar la transferencia de resultados entre las universidades y las empresas, proteger los mismos y garantizar otros aspectos legales de tipo contractual. De acuerdo con lo establecido, la Universidad y los autores académicos de las invenciones, se benefician de la excepción del pago de tasas de derechos siempre que obtengan el certificado de autor de invención, ya que el pago es solamente para el certificado de patente y en dicha modalidad de protección, todos incluyendo a la Universidad deben abonar las tasas fijadas. 39

39 Universidad, patentes e innovación Para el estudio estadístico de las patentes universitarias se tomó la base de datos de la OCPI, la búsqueda se centró en dos indicadores fundamentales, patentes solicitadas y patentes concedidas a las universidades cubanas, así como el estado de explotación de estas patentes, también, se localizaron los datos de otros organismos de la administración central del Estado a efectos comparativos. (tabla 1). Las patentes solicitadas y concedidas a las instituciones del Ministerio de Educación Superior (MES) donde se incluyen las universidades son mayores que las patentes presentadas y concedidas a otros organismos, lo que indica que las universidades son agentes gestores de tecnologías más dinámicos que otras instituciones. Este dinamismo no se corresponde de igual manera con los resultados innovativos, pues teniendo el mayor número de invenciones concedidas, presentan un menor número relativo de innovaciones (invenciones explotadas comercialmente). Por otra parte, el número de invenciones solicitadas al extranjero es poco relevante en sentido general, eso puede deberse a dos motivos fundamentales: falta de recursos monetarios para patentar y mantener la patente en el exterior (que es bastante costoso) o carencia de importancia de la patente para asumir esos costos. Por ello, un mayor volumen de solicitudes de patentes en el extranjero por parte de las instituciones del MES, no indica una mayor capacidad financiera para patentar que el resto de los solicitantes (como pueden ser las empresas) sino, una mayor importancia desde el punto de vista económico de las patentes que se generan en esa institución. Una característica importante de las patentes universitarias cubanas es que su producción está fuertemente concentrada en pocas universidades, como se muestra en la tabla 2. Solamente tres universidades, Cujae, la Universidad de La Habana (UH) y la Universidad Central de Las Villas (UCLV), poseen más de la mitad del total de patentes, es decir, un 68,68 %. En este sentido se puede observar la importancia que tiene la Cujae, institución que sirve de base para el estudio de caso en la siguiente sección. Tabla 2 Patentes concedidas a universidades cubanas en el período de Universidades Instituto Superior Politécnico José Antonio Echeverría Universidad de La Habana (UH) Universidad Central de Las Villas (UCV) Patentes Concedidas Otras Universidades (10) 76 Total 241 Fuente: A partir del sitio Web de la OCPI (www.ocpi.cu). Tabla 1 Total de solicitudes presentadas, solicitudes concedidas y su explotación en C uba en el período de Organismos P resentadas C oncedidas S olicitadas en el extranjero Explotadas en C uba E xplotación (%) C ITMA % ME S ,20 % MINAGRI MINAL ,37 % MINAZ ,7 % MINBA S MINSA P SIME % TOTAL ,2 % Fuente: Oficina Cubana de la Propiedad Industrial (OCPI). 40

40 Antonio B. Zaldívar Castro - Lierli Oconnor Montero PATENTAMIENTO EN EL INSTITUTO SUPERIOR POLITÉCNICO JOSÉ ANTONIO ECHEVERRÍA El Instituto Superior Politécnico José Antonio Echeverría, situado en la Ciudad Universitaria del mismo nombre, es actualmente el mayor centro de estudios universitarios de Cuba en el campo de las ciencias técnicas. Es una de las instituciones que posee un innegable potencial para contribuir de forma más activa y permanente al desarrollo económico, vinculando el sistema científico y tecnológico con el aparato productivo del país. Sin embargo, el estudio realizado evidencia que las invenciones patentadas por dicho Instituto entre , no actuaron como un factor de innovación dentro de la economía cubana. Al examinar la base de datos de patentes de esa institución, se puede apreciar en la tabla 3, el número patentes de la Cujae: solicitadas, concedidas y las que han sido explotadas por algún sector de la economía cubana. Tabla 3 P atentes solicitadas, concebidas y explotadas por años. C ujae Indicadores C antidad P atentes solicitadas 171 P atentes concedidas 73 P atentes explotadas 6 % ,69 8,2 Las patentes solicitadas, son mucho más que las concedidas. Lo que se puede atribuir a tres circunstancias diferentes: la oficina no concede la patente, porque la misma incumple con algunos de los requisitos mínimos de patentabilidad, existe un número importante de patentes desistidas por diferentes causas y variaciones en la eficiencia con que la oficina de patentes realiza el trabajo, lo cual influye directamente sobre la variación anual de patentes concedidas. Para determinar los requisitos de las oficinas de patentes realizan un examen que puede ser de forma y de fondo. En el primer caso, el análisis solo recae en los aspectos formales de la solicitud, sin reparar en la novedad, ni en la actividad inventiva. El examen de fondo resulta más minucioso, en él los examinadores analizan el invento, su capacidad para ser patentado y si cumple de forma satisfactoria todos los requisitos de patentabilidad ello requiere de un tiempo determinado (3 o 4 años), en dependencia de las características de la tecnología y la eficiencia con que se realice el trabajo. [12] Las patentes explotadas representan la minúscula cifra de 6 para el 8,2 %. Desde esta perspectiva, la protección jurídica de las invenciones generalmente obedece a la intención de las universidades de licenciar o transferir la nueva tecnología o invención, de ahí que un punto de vital importancia en el tema consista en la necesidad de su comercialización. La muestra de patentes concedidas al Instituto en general y su desagregación por las diferentes facultades, revela una marcada y negativa homogeneidad en cuanto a su explotación industrial y comercialización como se observa en la tabla 4, donde también se han reflejado otros indicadores de interés. Tabla 4 Comportamiento de las invesnciones en cuanto a su explotación industrial y comercialización en Cuba y en el extranjero. Cujae Facultades / Indicadores IEPC CxL E CxL N V. N V. E R.I. E C.I.E Eléctrica Mecánica Química Civil Arquitectura Industrial Total Cujae Fuente: Confeccionado por el autor. Notas sobre las siglas: (IEPC): Invenciones puestas en explotación productiva y comercial. (CxLE): Comercialización en el extranjero por acuerdo de licencia. (CxLN): Comercialización en Cuba por acuerdo de licencia. (V. N): Puesta en venta en el territorio nacional. (V.E): Puesta en venta en otros países. (RIE): Registro de las invenciones en el extranjero. (CIE): Invenciones concedidas en el extranjero. 41

41 Universidad, patentes e innovación Argumentación de las expresiones anteriores (IEPC) Invenciones puestas en explotación productiva y comercial De las 73 inv enciones patentadas seis se han industrializados, lo que representa el 8,21%. entendiendo por industrializados aquellos inventos que se fabricaron en cantidades significativas, o hayan sido utilizados de forma importante y permanente en el proceso productivo de un bien de acuerdo con las necesidades de la economía nacional; entonces, existe un índice de industrialización bastante marginal al concepto referido. De esta forma el flujo de actividad inventiva resulta ser un elemento exógeno al sistema productivo cubano. En todos los casos, se trata de patentes ofrecidas a las empresas, lo cual no significa que efectivamente haya mediado un proceso de transferencia de tecnología a través del contrato requerido. Muchas de esas invenciones no son contratadas con las empresas y no suponen una respuesta a las necesidades surgidas en ellas. Eso hace aún más difícil su introducción como parte de los planes de producción, ya que suelen exigir determinados cambios desde el punto de vista organizativo y del sistema de fabricación que muchas veces, no compensan la inversión que la empresa debe realizar. De ahí, que su transmisión al sector productivo resulte casi siempre nula. Esa situación se presenta de forma diferente en los centros de investigaciones de los polos científicos del país. (CxLE) Comercialización en el extranjero por acuerdo de licencia (CxLN) Comercialización en Cuba por acuerdo de licencia El titular de una patente, según establece el Decreto Ley 68, puede conceder la patente mediante acuerdo de licencia de uso o de explotación, a una o más personas. El acuerdo de licencia es un contrato mediante el cual se otorga el uso de derechos de propiedad intelectual a otras personas, por lo que constituye una relación contractual de negocio, en él, el otorgante, que es el licenciante, y el adquirente del derecho llamado también licenciatario, contrata ya sea el uso de una invención, de cierta tecnología, conocimiento técnico o knowhow, una patente, u otra forma de propiedad intelectual que constituya propiedad del oferente, y debe ser inscrita con carácter obligatorio ante la OCPI, para que no logre producir efectos en perjuicios de terceros. Sin embargo, no existe en Cuba ni en el extranjero ninguna patente que se haya comercializado por acuerdo de licencia. Existen dos elementos más que resultan interesantes. (RIE) Registro de las invenciones en el extranjero (CIE) Invenciones concedidas en el extranjero Hay dos patentes registradas en el exterior por la Cujae, el primer caso, fue resultado de una investigación que condujo a la defensa del doctorado de una profesora, cuyo tutor era de la antigua URSS. Así, la invención además de registrarse en Cuba también, se registró en otros países del antiguo campo socialista y fue al mismo tiempo concedida. La otra, es reciente, del año 2009, en coautoría con investigadores españoles, no se protegió en Cuba y sí en España. Son grandes los costos relacionados con la obtención de una patente en el exterior. Por ejemplo, una solicitud con su traducción en Japón, puede costar alrededor, de euros y posteriormente pagar anualidades, respuestas a acciones oficiales, publicación y concesión, en el caso de EUA, China Australia, los costes de solicitud son también muy elevados. El pago de las anualidades es igualmente costoso. (V N) Puesta en venta en el territorio nacional (V E) Puesta en venta en otros países Las patentes puestas en ventas en el territorio nacional fueron dos y pertenecen a la Facultad de Ingeniería Eléctrica. En las entrevistas realizadas a los autores de ambas invenciones, estos señalaron que las mismas fueron traspasadas, una al Ministerio de Cultura y la otra al Ministerio del Interior. En ninguno de los dos casos los inventores recibieron compensación monetaria alguna y fue imposible conocer el beneficio económico que reportaron a la Universidad. Respecto a la posibilidad de poner en ventas en el extranjero algunas de las patentes, resulta conveniente aclarar que nunca se efectuó tal operación. En resumen, el centro del problema relativo a las invenciones universitarias está en conseguir la implantación de mecanismos que permitan la transmisión de aquellas a la industria, para que esta las ponga en explotación. Porque sin esa explotación, la patente carece de sentido. Existe además otros indicadores, los denominados indicadores negativos del nivel de inventiva referidos a la actitud inadecuada que en ocasiones se asume en la actividad del patentamiento de una invención y que aborta la posibilidad de que una patente pueda ser concedida y por tanto comercializada. Ver tabla 5. A pesar de que esos indicadores no se reflejan en las estadísticas internacionales, a los efectos de estudiar la actividad de patentamiento universitario, arrojan resultados de interés. Por otra parte, no todos ellos manifiestan un comportamiento inadecuado en la gestión de patentar, como es el caso de las patentes que están en tramitaciones. De un total de 171 solicitudes realizadas en el período, 56 resultaron abandonadas, lo que representa 32,74 %. Si se toma en cuenta la suma porcentual (50,87 %), de lo que se ha denominado indicadores negativos del nivel de inventiva (patentes abandonadas, denegadas, renunciadas y nulas), se constatará, que resulta mayor que el porcentaje de las patentes concedidas (42,69 %), del total de las solicitadas, lo que denota una mala gestión del instituto en cuanto a la propiedad industrial en términos de patentes. 42

42 Antonio B. Zaldívar Castro - Lierli Oconnor Montero Sobre las patentes en estado de tramitación, se debe decir que todavía no han pasado el examen de forma. Que adquieran otro estatus depende en última instancia de la eficiencia con que trabaje la oficina y del nivel de complejidad de la invención. Tabla 5 Comportamiento del indicador de patente en la Cujae. Período Indicadores Cantidad % Patentes Solicitadas Patentes Concedidas Patentes Abandonadas , ,74 Denegadas 25 14,61 Nulas 2 1,16 Tramitación 7 4,09 Renunciadas 4 2,33 No localizadas 4 2,33 Fuente: Sobre la base de datos de la OCPI confeccionada por el autor. CONCLUSIONES La definición de patentes dada en este trabajo representa un elemento de carácter metodológico para realizar análisis económicos y pone en evidencia la necesidad de su transformación en innovaciones tecnológicas para aumentar el beneficio social de la investigación académica e incrementar la transferencia y explotación de los resultados del conocimiento creado en estas instituciones en los diferentes sectores económicos. Un paso importante en la aplicación de las patentes universitarias cubanas, en particular de la Cujae, para ser evaluadas como indicador de innovación, es establecer una propuesta teórica metodológica que sitúe los resultados más cerca de la realidad, y como consecuencia, conduzcan a un aprovechamiento económico de esa enorme fuente de información, que es la colección de datos proveniente de las patentes. REFERENCIAS 1. BERCOVITZ RODRÍGUEZ-CANO, A. "Titularidad y explotación de los derechos en las relaciones empresauniversidad". En: Los retos de la propiedad industrial en el Siglo XXI. Indecopi. Lima, Perú, p Organización Mundial del Comercio (OMC) "Acuerdo sobre los aspectos de los Derechos de Propiedad Intelectual relacionados con el comercio". Marrakech, Marruecos, 15 de abril, ZALDÍVAR CASTRO, Antonio B. "Propuesta teóricometodológica para el desarrollo del proceso de innovación tecnológica, desde las invenciones patentadas en el ISPJAE en el período ", Director: Lierli O Connor. Tesis de doctorado, Instituto Superior Politécnico José Antonio Echeverría, La Habana, GRILICHES, Zvi. "Patent Statistics as Economic Indicators A Survey", Journal of Economic Literature, 1990, vol. 28, núm. 4, pp HENDERSON, Rebecca; JAFFE B., Adam and TRAJTENBERG, Manuel "Universities as a source of commercial technology: A detailed analysis of university patenting, ". Review of Economics and Statistics, 1998, vol. 80 núm.1, pp MOWERY, David C. et al. "The Growth of Patenting and Licensing by U.S. Universities: An Assessment of the Effects of the Bayh-Dole Act of 1980". Research Policy 30, 2001: pp WALLMARK, J. T. "Innovations and Patents at Universities: the Case of Chalmers University of Technology", Technovation. 1998, vol. 17 núm. 3 pp MEYER S., Martín; KRAHMER, FRIEDER and SCHMOCH, Ulrich. "Science-Based Technologies: University-Industry Interactions in Four Fields," Research Policy, 1998, vol. 27, núm. 8, pp SCHMAL S., Rodolfo; LÓPEZ G., María del Socorro y CABRALES G., Fernando. "El camino hacia la patentación en las Universidades". Ingeniare. Revista chilena de ingeniería, 2006, vol. 14 núm. 3, pp ORIHUELA ESTRADA, Sergio. El impulso a la innovación e invención tecnológica en las empresas y las universidades mexicanas para fortalecer la autonomía de la economía del país Disponible en Web /www.senado.gob.mx/comisiones/lx/cyt/content/ seminarios/universitario/sergioestradaorihuela.pdf. 11. COSTA PÓVO, LUCIANO Martins. Depósitos de patentes de universidades brasileiras ( ), Disponible En: web seminarios/seminario_diamantina/2006/d06a006.pdf, Consultado 5/28/ ZALDÍVAR CASTRO, Antonio B. y OCONNOR MONTERO, Lierli. Guía metodológica sobre la propiedad industrial. Monografía. La Habana 2011.ISBN

43 Universidad, patentes e innovación AUTORES Antonio B. Zaldívar Castro Licenciado en Economía, Máster en Relaciones Económicas Internacionales, Profesor Auxiliar, Departamento de Ciencias Sociales, Instituto Superior Politécnico José Antonio Echeverría, Cujae, La Habana, Cuba Lierli Oconnor Montero Licenciado en Matemática, Doctor en Ciencias Pedagógicas, Profesor Titular, Departamento de Matemática, Facultad de ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, La Habana, Cuba University, Patents and Innovations Abstract The limited relevance of the patents in the Latin American-innovative-culture of the university context is determined by the omission of new inventions within the productive sector, particularly in Cuba. It is easy to offer the methodological resources together with an automated data system of searching and processing through the establishment of an agreement invention-invocation with the use of the statistics of patents, the International Classification of Patent (IPC) and the System of Classification of Industrial Activities. This procedure allows the placing of university-sector patents in a given economic sector, making possible their management for innovation. Key words: patent, invention and innovation 44

44 1(III), 45-52, 2012 TELECOMUNICACIONES Aplicaciones y servicios basados en localización Elenis Gorrita Michel Correo División Centro TRD Caribe, Santa Clara, Villa Clara, Cuba Artículo de Reflexión Rónier Sierra Dávila Empresa Eléctrica, La Habana, Cuba Samuel Montejo Sánchez Correo Universidad Marta Abreu de Las Villas, Villa Clara, Cuba Resumen Los servicios basados en localización (LBS) continúan creciendo en popularidad, efectividad y fiabilidad; en la medida en que las aplicaciones son diseñadas e implementadas con las facilidades de la información de localización del usuario. En este trabajo, son abordadas algunas de las principales aplicaciones, con el fin de dar a conocer la importancia que tienen en la actualidad los LBS, como una rama tecnológica en pleno desarrollo. Son estudiadas además las principales técnicas de estimación de la localización, información imprescindible para los LBS. Debido a la vigencia del tema son discutidos además trabajos e investigaciones en curso. Palabras clave: estimación de la localización, servicios basados en la localización, técnicas de posicionamiento Recibido: 25 de noviembre del 2011 Aprobado: 19 de diciembre del 2011 INTRODUCCIÓN Los servicios basados en localización (LBS, del inglés Location Based Services) son aplicaciones apoyadas en esquemas móviles cliente-servidor y servicios fundamentados en la localización de usuarios móviles. [1] Los mismos involucran la habilidad de estimar la localización geográfica de un dispositivo móvil y proveer servicios basados en esta información. Para su operación, utilizan los sistemas de información geográfica (GIS, del inglés Geographic Information System), tecnologías de posicionamiento tales como GPS u otros servicios de localización y redes de comunicación para transmitir la información hacia la aplicación LBS encargada de procesar y responder la solicitud. La utilización de los LBS presenta aplicaciones de gran relevancia social. Una de las más básicas, es la de agilizar el proceso de socorro a personas en casos de emergencias, cuando el conocimiento de su localización es de vital importancia. También, es posible reducir las fallas en las llamadas si se conoce la información de la localización de un usuario, la cual puede ser usada para optimizar la comunicación inalámbrica en función del entorno. [2] En general, los LBS no solo estimulan las oportunidades comerciales de la localización, donde muchas compañías de tecnología relacionada con LBS se desarrollan, tales como: SignalSoft, Webraska, TruePosition, Cellpoint; también han cautivado el interés de la academia, dada la importancia de la aplicabilidad de la información de localización en relevantes y novedosos servicios de alto impacto, que pueden ser desarrollados cuando se combina el conocimiento de la localización con tecnologías tradicionales o tecnologías emergentes como la radiocognitiva. APLICACIONES DE LOS SERVICIOS BASADOS EN LOCALIZACIÓN Múltiples y variadas son las aplicaciones y los servicios basados en localización, que buscan proveer servicios geográficos en tiempo real. A continuación serán enunciados algunos de los más relevantes. Rescate y salvamento Dada la importancia de la detección rápida y robusta de la posición de las víctimas en casos de emergencias, los LBS

45 Aplicaciones y servicios basados en localización son parte fundamental de esquemas de comunicación para la seguridad pública. El mejoramiento de los servicios de llamadas de emergencia es una de las aplicaciones más importantes de los LBS. En EE.UU. el servicio Enhanced 911 está diseñado para asistir a las víctimas en situaciones de emergencia y agilizar la entrega instantánea de la información de localización de la víctima, al punto de respuesta de seguridad pública (PSAP, del inglés Public Safety Answering Point) entidad a la cual el usuario está conectado. [3] Este servicio, así como el Enhaced 112, de Europa, posibilita la localización, con un error acotado entre 50 y 100 m, [4] de cualquier teléfono celular que llame al número de emergencia en cuestión. El objetivo es encontrar al usuario que estableció la llamada de emergencia aún cuando el mismo no conozca su ubicación o no pueda hablar adecuadamente. [5] OTHMAN [1] ha propuesto nuevos modelos para la detección de la posición de las estaciones móviles dentro de una red celular. Mientras que GORCIN [3] ha abordado cómo localizar a los usuarios incluso cuando la red primaria no está operando, lo cual tiene gran importancia debido a la alta probabilidad del fallas de la red basada en infraestructura en situaciones de emergencias, tales como desastres naturales. Rastreo y navegación De la combinación de los LBS con el campo de la telemática, nuevas facilidades pueden ser implementadas. Aplicaciones típicas de los LBS son los servicios de mapas y páginas amarillas geográficas electrónicas, incluso es posible ofrecer una navegación avanzada en los terminales de usuario en la que se incluyan actualizaciones del estado del clima y congestión o accidentes de tráfico. También se puede implementar una aplicación de búsqueda social de personas, en la que, el usuario, desde su móvil, pueda solicitar la ubicación de cualquier persona perteneciente a su lista de contactos. [6] La localización de usuarios que se mueven en medios de transporte en una red de carreteras también es posible empleando LBS, para lo cual se propone un método de representación que integra la información relacionada con el transporte con un mapa de carreteras. [7] Se ofrece además la búsqueda de rutas y de vecinos cercanos (otros usuarios en movimiento) basada en las redes de transporte con o sin la cooperación de otros dispositivos ajenos a dichas redes. Los primeros pasos en este sentido se han dado ya en Asia, donde se ofrecen servicios de localización y actualización de tráfico, reportes del clima y asistencia de navegación a nivel de calles. [5] Hogar Las potencialidades de los LBS son muy variadas y su alcance incluye el entorno doméstico, con aplicaciones y ambientes que emplean el conocimiento de la localización para proveer información preventiva sobre los lugares peligrosos en el contexto de los niños. [8] Estos LBS pueden prevenir, alertar y evitar accidentes, dependientes del entorno; cuando los niños se encuentran cerca de los lugares propensos a accidentes. Privacidad Dada la importancia que reviste para los clientes la privacidad asociada a la información de localización, algunas investigaciones proponen una nueva estructura entre dispositivos móviles (clientes) y servidores de LBS basada en el protocolo de certificación anónima directa (DAA, del inglés Direct Anonymous Attestation). Este protocolo es propuesto para la verificación anónima de la autoridad de los usuarios y preservar la privacidad de la información de localización de usuario, constituyendo así una infraestructura más confiable en el ambiente de los LBS [1, 9]. Mensajería Con el advenimiento de la infraestructura de comunicación futura, donde sería posible proporcionar servicios convergentes como mensajería, presencia y control de la llamada, los LBS no solo requieren productos escalables sino también una avanzada plataforma de servicio convergente que soporte las aplicaciones. Los servicios convergentes con conocimiento de localización constituyen una nueva experiencia y proveen renovadas oportunidades a sus usuarios. Un sistema de mensajería con conocimiento de localización es una de las aplicaciones posibles cuando se combinan los LBS y la plataf orma de serv icio convergente. [10] Entonces un sistema de mensajería puede entregar la información personalizada a los usuarios móviles con la asistencia del protocolo de iniciación de sesión (SIP, del inglés Session Initiation Protocol). Sector comercial En el sector comercial está siendo probada la tecnología de identificación por radiofrecuencias (RFID, del inglés Radio Frequency Identification), en la que las etiquetas adjuntas a determinados productos, se comunican con dispositivos lectores a cortas distancias. Cada etiqueta contiene una antena y un circuito integrado simple que le permite enviar información de identificación como respuesta a una solicitud del dispositivo lector. Las etiquetas de tipo pasivas pueden utilizar la energía del lector para enviar su respuesta, mientras que las activas tienen baterías que les permiten transmitir sus propias señales. Originalmente estas etiquetas fueron diseñadas para transmitir a frecuencias cercanas a 134 khz, aunque actualmente su rango de frecuencia y su alcance han sido extendidos y abaratados sus precios; lo cual ha permitido incrementar su aplicación. [5] Varias investigaciones se han enfocado en desarrollar arquitectura de servicios para aplicaciones basadas en localización. En [11] se propone y desarrolla una arquitectura para servicios distribuidos de localización, basados en la tecnología de localización de identificación activa. En [12] se presenta un servicio de localización general global para soportar el conocimiento de la localización en sistemas distribuidos abiertos, lo que enfatiza la importancia de integrar 46

46 Elenis Gorrita Michel - Rónier Sierra Dávila - Samuel Montejo Sánchez varias técnicas de localización y usar un control de acceso para proteger la privacidad de la información de localización. Asímismo, en [13] se aborda un servicio de conocimiento de la localización y una plataforma de aplicación, que provee acceso modular y unificado a varios servicios, que pueden ser comúnmente usados por múltiples aplicaciones. Un sistema de conocimiento de la localización escalable se presenta en [14], capaz de entregar información de usuario basada en su localización. En [15] se describe la arquitectura de un sistema suscriptor para la gestión de localización. TÉCNICAS DE ESTIMACIÓN DE LA POSICIÓN Estimar y reconocer la localización de los usuarios resulta la premisa básica e indispensable de los servicios antes abordados. Sin embargo, las difundidas técnicas de posicionamiento global no garantizan la exactitud y precisión requerida en todos los entornos. Existe una gran variedad de formas en que la posición puede ser estimada a partir de las mediciones de diferentes parámetros de una señal. Las técnicas más trascendentes son las basadas en: la potencia de la señal recibida (RSS, del inglés Received Signal Strength), el tiempo de arribo (TOA del inglés Time of Arrival), diferencia del tiempo de arribo (TDOA, del inglés Time Difference of Arrival) y el ángulo de arribo (AOA, del inglés Angle of Arrival). [16] Las mismas pueden ser aplicadas a cualquier tipo de red conformada por dispositivos móviles, como una red celular, alcanzando así al sistema global para comunicaciones móviles (GSM, del inglés Global System for Mobile Communications). Potencia de la señal recibida La RSS es la potencia recibida de una señal que viaja entre dos nodos (estaciones móviles o estaciones base) y constituye un parámetro con información relativa a la distancia entre esos nodos, aplicable en señales de tipo radioeléctrico o acústico. Teniendo en cuenta que los nodos se comunican entre sí a través de señales radioeléctricas, usualmente las mediciones se realizan a estas durante el intercambio normal de datos y de esta forma se evitan requerimientos adicionales de energía o de ancho de banda. [17] En el caso ideal, un estimado RSS en un nodo determina la posición de otro nodo en un círculo a su alrededor como se muestra en la figura 1, si se trata de posicionamiento en dos dimensiones. [18] Principales fuentes de error: Efecto de sombra Aunque son relativamente poco costosas y simples de implementar en cuanto a hardware, las mediciones de tipo RSS son también notablemente afectadas por los efectos de sombra y multitrayecto, añadiéndoles una alta componente aleatoria. Debido al multitrayecto, múltiples señales con diferentes amplitudes y fases arriban al receptor, y se añaden de forma constructiva o destructiva en función de la frecuencia, causando desvanecimiento selectivo en frecuencia. El efecto de este tipo de desvanecimiento puede ser disminuido usando un método de ensanchamiento del espectro, que promedia la potencia recibida sobre un amplio rango de frecuencias. El uso de este método es una aceptable solución ya que también reduce la interferencia en las bandas sin licencia en las cuales los dispositivos inalámbricos operan típicamente. La potencia recibida medida usando un método de banda ancha es equivalente a medir la suma de las potencias de cada señal multitrayecto. [17] Asumiendo que los efectos selectivos en frecuencia son reducidos, los errores en las mediciones de tipo RSS son causados en su mayoría por el ensombrecimiento, con la atenuación de la señal debido a obstrucciones, producidas por estructuras u obstáculos naturales, en el trayecto entre el transmisor y el receptor. Estos efectos de sombra son modelados típicamente como aleatorios, utilizando para ello una distribución log-normal. [17] Calibración y sincronización Además de las pérdidas por trayectoria, la RSS son medidas es función de la calibración del transmisor y del receptor. Dependiendo de la calidad de los equipos, los circuitos de medición de RSS y de transmisión variarán de un dispositivo a otro. También la potencia transmitida puede variar a medida que las baterías se agotan. Es por esto que los sensores podrían designarse para medir y reportar sus propios datos de calibración a sus vecinos. Alternativamente, cada potencia de transmisión podría ser considerada como un parámetro desconocido a estimar, o de forma análoga al método TDOA, se podría considerar solamente las diferencias entre mediciones RSS en un par de receptores. Esta diferencia de RSS entre dos sensores provee información acerca de sus distancias relativas del transmisor y elimina la dependencia de la potencia real. Tiempo de arribo Es el tiempo que demora una señal en viajar de un nodo a otro y provee información relativa a la distancia entre esos nodos. En ausencia de errores, al igual que las mediciones de tipo RSS, el TOA estimado provee una región de incertidumbre en forma de círculo alrededor del nodo que realiza la estimación, como se muestra en la figura 1. Fig. 1. Círculo de incertidumbre de radio d definido por las mediciones RSS y TOA. 47

47 Aplicaciones y servicios basados en localización El TOA medido es el tiempo de transmisión sumado a la demora de tiempo de propagación. Esta demora de tiempo que transcurre desde la transmisión de la señal desde un nodo hasta su recepción en otro, es equivalente a la distancia entre ambos sensores dividida por la velocidad de propagación. Esta velocidad de propagación en RF es mucho mayor que la velocidad del sonido; como regla general, para propagación acústica, en 1ms la señal viaja 0,3 m, mientras que para RF, viaja la misma distancia en 1ns. [17] Esta estimación se ve afectada por ruido aditivo y señales multitrayecto. La piedra angular de las técnicas basadas en tiempo es la habilidad de los receptores para estimar con precisión el tiempo de arribo de la señal, para lo cual los relojes de los nodos transmisores y receptores deben estar rigurosamente sincronizados entre sí. Para TOA en redes de sensores asincrónicas, una práctica común es usar mediciones TOA de ida y retorno. En este método, un sensor transmite una señal a un segundo sensor, que inmediatamente responde con su propia señal. En el primer sensor, el retraso medido entre su transmisión y la recepción de la respuesta es dos veces la demora de la propagación más el retraso interno en la respuesta del segundo sensor. Este retraso interno es conocido o medido, y enviado al primer sensor para ser sustraído. Esta técnica no requiere tanta sincronización como el modo unidireccional. Si solo dos sensores realizan mediciones, existirán dos puntos definidos por las intersecciones, por lo que, para evitar ambigüedades a la hora de determinar la posición, este método requiere mediciones de al menos tres sensores para la localización en dos dimensiones, coincidiendo así las tres circunferencias en un solo punto, teóricamente pues en la práctica se producen inexactitudes que deben ser resueltas con técnicas más inteligentes. Principales fuentes de error: Ruido aditivo Incluso en la ausencia de señales multitrayecto, la exactitud del tiempo de arribo está limitada por el ruido aditivo. Típicamente, el TOA estimado es el tiempo que maximiza la cros-correlación entre las señales recibidas y la señal transmitida conocida. Este estimador es conocido como el cros-correlator simple (SCC). El cros-correlator generalizado (GCC) que es el estimador de máxima verosimilitud (MLE, del inglés maximum likelihood estimator) para el TOA, extiende el SCC aplicando filtros para amplificar las componentes espectrales de la señal que tienen poco ruido y atenúa las componentes con mucho ruido. El GCC requiere conocimiento de la señal y del espectro de potencia de ruido. La exactitud lograda por este método depende del ancho de banda disponible y la relación señal a ruido del canal de comunicación. La cota de Cramér-Rao (CCR), provee un límite inferior en la varianza del TOA estimado en un canal libre de multitrayecto. Para una señal con ancho de banda mucho menor que la frecuencia central, las potencias de señal y de ruido constantes en todas las componentes del ancho de banda de la señal y designando el sistema para lograr una relación señal a ruido (SNR, del inglés Signal to Noise Rate) suficientemente alta, el límite inferior en la varianza del TOA puede ser evaluado en canales libres de multitrayecto con empleo de la siguiente ecuación: var TOA WT F 2 SNR (1) s c donde: T s : Duración de la señal en segundos (s). Var (TOA) : Límite inferior en la varianza del tiempo del tiempo de arribo. W : Ancho de banda (Hz). F c : Frecuencia central (Hz). SNR : Relación señal-ruido. Principales fuentes de error: Multitrayecto Los errores en los estimados basados en TOA en canales con multitrayecto pueden ser muchas veces mayores que aquellos causados por ruido aditiv o solamente. Esencialmente, todas las componentes multitrayecto de arribo retardado constituyen una autointerferencia y disminuyen la SNR de la señal de línea de visión directa (LOS, del inglés Line of Sight). En lugar de hallar el pico mayor de la cros-correlación en el canal multitrayecto, el receptor debe encontrar el pico que llega primero porque no hay garantía de que la señal LOS será la más fuerte, entre las señales que arriban. Esto puede hacerse midiendo el menor tiempo en que la cros-correlación supera un umbral preestablecido. Generalmente, los errores en la estimación del TOA son causados por los siguientes dos problemas: Multitrayecto de arribo prematuro: Muchas señales multitrayecto llegan demasiado rápido después de la señal LOS, y su contribución a la cros-correlación entorpece la detección del pico de la señal LOS. Señal LOS atenuada: la señal LOS puede ser severamente atenuada comparada con las componentes multitrayecto de arribo tardío, causando que se pierda en el ruido y desaparezca completamente. Esto provoca errores de gran magnitud en el estimado del TOA. En redes densamente pobladas, en las que cualquier par de nodos puede realizar mediciones, existe la ventaja de hacer mediciones entre vecinos cercanos. Con el decremento de la longitud de la trayectoria, la potencia de la señal LOS (relativa a las potencias en las componentes multitrayecto) generalmente se incrementa. Así, el problema de la LOS severamente atenuada es riguroso solo en redes con grandes distancias internodos. [17] Aunque las componentes multitrayecto de arribo prematuro causan errores más pequeños, son muy difíciles de combatir. Generalmente, se requieren anchos de banda más grandes para obtener mayor resolución temporal, ya que el ancho 48

48 Elenis Gorrita Michel - Rónier Sierra Dávila - Samuel Montejo Sánchez del pico de la autocorrelación es inversamente proporcional al ancho de banda de señal. Un pico de autocorrelación estrecho mejora la habilidad de identificar el tiempo de arribo de una señal y ayuda a separar la contribución de la señal LOS a la cros-correlación de las contribuciones de las señales multitrayecto de arribo prematuro. Espectro extendido de secuencia directa (DS- SS, del inglés Direct Sequence Spread-Spectrum) de banda ancha o señales de banda ultraancha (UWB, del inglés Ultra-Wideband) son populares técnicas para mediciones TOA de gran ancho de banda. Sin embargo, anchos de banda más grandes requieren mayor velocidad de procesamiento de señal, altos costos de tecnología y también de la energía empleada en la transmisión. Sin embargo, la mejora en la detección puede resultar en reducir el consumo de potencia promedio en el tiempo. Transferir gran número de paquetes de datos en menos tiempo significa pasar más tiempo en modo stand by. Puede notarse finalmente que los retardos en el hardware transmisor y receptor se añaden al TOA medido. Aunque estos son normalmente conocidos, la varianza en las especificaciones de las componentes y los tiempos de respuesta pueden ser una fuente adicional de varianza del TOA. Diferencia de tiempo de arribo La TDOA es la diferencia entre los tiempos de arribo de la misma señal a dos nodos diferentes. En ausencia de sincronización entre el nodo objetivo y los nodos de referencia, la estimación TDOA puede realizarse si hay sincronización entre los nodos de referencia, y determina la posición del nodo objetivo en una hipérbola, con el foco en los dos nodos de referencia, como se muestra en la figura 2. [18] Una medición TDOA no depende del sesgo del reloj del sensor que transmite. Un modo de obtener la TDOA es estimar en un primer paso el TOA para la señal que viaja entre el nodo objetivo y los nodos de referencia, y entonces obtener la diferencia entre estos estimados. Fig. 2. Una medición TDOA define una hipérbola que pasa a través del nodo objetivo con focos en los nodos de referencia. Como el nodo objetivo y los nodos que reciben la señal no están sincronizados, los estimados TOA incluyen una compensación de tiempo que es la misma en todas las estimaciones al estar los nodos de referencia sincronizados entre sí, en adición al tiempo de vuelo. Por consiguiente, los estimados TDOA pueden obtenerse como: ˆ ˆ TDOA 1 2 (2) donde: ˆ 1 y ˆ 2 : Estimados TOA de la señal que viaja entre el nodo objetivo y nodos de referencia 1 y 2. En determinadas circunstancias, es posible que las dos hipérbolas se crucen en dos lugares, dando lugar a una ambigüedad. De forma similar a la descrita para la ambigüedad derivada de mediciones de tiempo de propagación, esta puede ser resuelta por una tercera medida TDOA (estimación en dos dimensiones). [16] Una cuestión importante a tener en consideración con el método TDOA es la necesidad de establecer el sincronismo entre las estaciones base, que las mismas sean transmisoras o receptoras, para evitar errores en las hipérbolas resultantes. Un modo de obtener la TDOA es estimar en un primer paso el TOA para la señal que viaja entre el nodo objetivo y los nodos de referencia, y entonces obtener la diferencia entre estos estimados. Como la estación móvil y las estaciones base que reciben la señal no están sincronizadas, los estimados TOA incluyen una compensación de tiempo que es la misma en todas las estimaciones al estar las segundas sincronizadas entre sí, en adición al tiempo de vuelo. Ángulo de arribo El parámetro AOA de una señal proporciona información acerca de la dirección en la que se encuentran los nodos vecinos en lugar de la distancia a la que están los mismos, por lo cual constituye un complemento de las mediciones de tipo RSS y TOA. Para calcular la posición utilizando esta técnica, se requiere como mínimo que dos nodos realicen mediciones, de esta forma ambas rectas (entre el nodo cuya posición se quiere estimar y los dos nodos de referencia) se cortarán en un punto y no existirá ambigüedad en la ubicación, como se muestra en la figura 3. Existen dos formas principales en que los nodos pueden medir el parámetro AOA. La más común es utilizando un arreglo de sensores en el nodo de referencia y empleando técnicas de procesamiento de señal para estos arreglos. En este caso, cada nodo es equipado con dos o más sensores individuales (micrófonos para señales acústicas o antenas 49

49 Aplicaciones y servicios basados en localización para señales de RF) cuyas localizaciones con respecto al nodo central son conocidas. El ángulo de arribo es estimado de las diferencias en los tiempos de arribo para una señal transmitida en cada uno de los elementos del arreglo de sensores si la geometría de este arreglo es conocida, como se muestra en la figura 4a) para un arreglo de cuatro elementos en forma de Y. Un segundo modo de estimación del AOA emplea la razón entre los parámetros RSS1 / RSS2 de dos o más antenas direccionales colocadas en el nodo sensor, como se muestra en la figura 4b). [17] Ambas formas de estimar el AOA requieren múltiples elementos de antenas, lo que aumenta el costo y el tamaño del dispositivo sensor. Fig. 3. Mediciones AOA entre dos nodos. Fig. 4. Métodos de estimación AOA. Aunque las técnicas AOA tienen la ventaja de requerir solo dos estaciones base para determinar la posición de un nodo, un pequeño error en la estimación del AOA dará como resultado un gran error de estimación de la posición si el nodo y las estaciones base se encuentran a gran distancia. Generalmente, los esquemas basados en tiempo (TOA y TDOA) se comportan mejor en cuanto a exactitud que los basados en AOA. [19] Las mediciones AOA son afectadas por las mismas fuentes de error que las de tipo TOA: Ruido aditivo y multitrayecto. Las mediciones AOA resultantes son modeladas típicamente como gaussianas, con valor esperado igual al ángulo real hacia la fuente y desviación estándar A. Resultados teóricos para mediciones AOA de tipo acústicas muestran valores típicos del orden de A = 2 o a A = 6 o, dependiendo del rango. Errores de estimación AOA de tipo RF del orden de A = 3 o han sido reportados usando el método de la razón RSS. [17] Técnicas híbridas En algunos sistemas de posicionamiento, dos o más parámetros relativos a la posición, como los estudiados, pueden emplearse para obtener más información sobre la posición de las estaciones móviles. Ejemplo de ello es el sistema propuesto en [19] basado en la combinación de las técnicas TDOA y AOA, para lograr mayor precisión en la localización y disminuir los costos de los receptores móviles. El esquema propuesto tiene los méritos de ambos métodos, TDOA y AOA. Con la información de AOA, el esquema propuesto requiere solo dos estaciones base para una estimación de la posición. Por otro lado, cuando hay más de dos estaciones base logrará la mayor exactitud en la TDOA. Con este esquema se evitan las desventajas de la localización basada solamente en AOA. Además, las mediciones están basadas en las señales piloto que existen actualmente en los sistemas de acceso múltiple por división de código (CDMA, del inglés Code-Division Multiple-Access) de banda ancha existentes, no se requiere señalización extra. Por último, con el empleo de TDOA no se requiere que la estación móvil esté sincronizada con las estaciones base, resultando en un receptor móvil más simple que el utilizado cuando se usa el TOA. Otro ejemplo de esquema híbrido es el propuesto en [20], en el que se utilizan mediciones de tipo TDOA y RSS en redes celulares a bajo costo. Las diferentes fuentes de error de cada técnica hacen que cada una contenga información independiente sobre la localización del terminal móvil, con lo cual se logra un estimado de localización superior. Se muestra la robustez de esta fusión, la calidad superior en cuanto a tasa de errores que los esquemas basados en técnicas individuales y el bajo costo de su implementación. INVESTIGACIONES EN CURSO El campo de las aplicaciones y los servicios basados en localización es joven aún y para implementar múltiples aplicaciones aún es necesario el desarrollo de otras áreas de investigación complementarias. Por ejemplo, para hacer realidad el sistema de localización de peligro para el cuidado y la seguridad de niños, [8] se requiere un diseño elaborado del modelo del sistema y de las funciones principales del mismo, además del desarrollo de un sistema prototipo completo que permita descubrir más problemas prácticos, todo lo cual se encuentra aún en una fase temprana de investigación. Por otra parte, los LBS requieren información sobre la localización del usuario para proveer los servicios necesarios. Para proteger la privacidad de esta información se ha propuesto un límite consistente en una serie de procesos que manipulan dicha información y la preservan de ser 50

50 Elenis Gorrita Michel - Rónier Sierra Dávila - Samuel Montejo Sánchez accedida por un observador en la red. [21] Trabajos futuros incluirán la implementación de este sistema sobre los diversos dispositivos inalámbricos bajo la norma A pesar de los avances tecnológicos, sigue siendo la exactitud alcanzada en la localización uno de los principales retos para estos servicios. [22] Varios trabajos hoy en día centran sus esfuerzos en el desarrollo de algoritmos más precisos y robustos. [23-24] CONCLUSIONES El conocimiento de la localización en cualquier esfera ha sido siempre una necesidad. Desde el punto de vista comercial, este conocimiento se vuelve sumamente atractivo como valor agregado a los productos que existen hoy en día, más relevante resulta, su implementación en extremo beneficiosa para la sociedad, dado a su innegable aplicabilidad en comunicaciones para seguridad pública. En este trabajo se ha hecho referencia a la importancia del desarrollo de este tema, destacando los principales cauces de investigación, así como a los métodos de localización más utilizados por los sistemas que implementan estos servicios. REFERENCIAS 1. OTHMAN, H.; HASHIM, H. and AB MANAN, J. "A Conceptual Framework Providing Direct Anonymous Attestation (DAA) Protocol in Trusted Location-Based Services (LBS)", International Conference for Internet Technology and Secured Transactions (ICITST), Dec., LIN, Q.; MEINA S.; SHAN, X. and HAIOU, J. "A Novel Location Detection Service Model in Cellular Networks". IEEE 2nd Symposium on Web Society (SWS), Aug., GORCIN, A. "RSS-Based Location Awareness for Public SafetyCognitive Radio", Wireless Communication, Vehicular Technology, Information Theory and Aerospace & Electronics Systems Technology, Jul., TREVISAN, L. "Um Algoritmo de Localizaçao de nós em Redes Sem-Fio Usando Nível de Potência do Sina", Curitiba, PR, Brasil, Feb., WARRIOR, J.; MCHENRY, E. and MCGEE, K. "They Know Where You Are [location detection]", IEEE Spectrum, Jul., LIU, F. and YANG, Z. "Study on Applications of LBS Based on Electronic Compass". Wireless Communications, Networking and Mobile Computing, WiCom'09. 5th International Conference on, Sep., FENG, J.; ZHU, Y.; MUKA,I N. and WATANABE, T. "Search on Transportation Network for Location-Based Service". Springer Berlin / Heidelberg, Nov., TAKATA, K.; JIANHUA, M. and APDUHAN, B.O. "A Dangerous Location Aware System for Assisting Kids Safety Care", 20th International Conference on Advanced Information Networking and Applications, Apr., OTHMAN, H.; HASHIM, H.; YUSLAN RAZMI, M.A. and AB MANAN, J. "Forming Virtualized Secure Framework for Location Based Services (LBS) using Direct Anonymous Attestation (DAA) protocol", EE 6th International Conference on Wireless and Mobile Computing, Networking and Communications (WiMob), Nov., CHEN, Y. et al. "Location Aware Messaging - Integrating LBS Middleware and Converged Services", e-business Engineering, Dec., HARTER, A. and HOPPER, A. "A Distributed Location System for the Active Office". IEEE Network, Feb., LEONHARDT, U. "Supporting Location-Awareness in Open Distributed Systems". PhD thesis, Imperial College of Science, Technology and Medicine, University of London, PFEIFER, T. and POPESCU-ZELETIN, R. "A Modular Location-Aware Service and Application Platform". Proceedings. IEEE International Symposium on Computers and Communications, BANERJEE, S. et al. "Rover: Scalable Location-Aware". Computing, IEEE Computer Society, Oct., PODNAR, I.; HAUSWIRTH, M. and JAZAYERI, M. "Mobile Push: Delivering Content to Mobile Users". Distributed Computing Systems Workshops, DRANE, C.; MACNAUGHTAN, M. and SCOTT, C. "Positioning GSM Telephones". IEEE Communications Magazine, Apr., PATWARI, N. et al."locating the Nodes: Cooperative Localization in Wireless Sensor Networks". IEEE Signal Processing Magazine. IEEE, Jul., GEZICI, S. "A Survey on Wireless Position Estimation". Wireless Personal Communications, Springer Netherlands, CONG, L. and ZHUANG, W. "Hybrid TDOA/AOA Mobile User Location for Wideband CDMA Cellular Systems". IEEE Transactions on Wireless Communications, Jul., McGUIRE, M.; PLATANIOT I S, K. N. and VENETSANOPOULOS, A. N. "Data Fusion of Power and Time Measurements for Mobile Terminal Location". IEEE Transactions on Mobile Computing, BOWEN C. III. and MARTIN T. "A Survey of Location Privacy and an Approach for Solitary Users". 40th Annual Hawaii International Conference on System Sciences, Jan., CHEUNG, K.W.; MA, W. and SO, H. "Accurate Ap- Proximation Algorithm for TOA-Based Maximum Likelihood Mobile Location Using Semidefinite Programming". 51

51 Aplicaciones y servicios basados en localización IEEE International Conference on Acoustics, Speech, and Signal Processing, ZHAO, S.H. and CHAN, S.C. "A Novel Algorithm for Mobile Station Location Estimation with None Line of Sight Error Using Robust Least M-Estimation". IEEE International Symposium on Circuits and Systems, XU, B.; CHEN, J. and ZHONG, X. "A Mobile Telephone Locating Method with Erroneous Observer Positions Based on TDOA". 9th International Conference on Electronic Measurement & Instruments, Rónier Sierra Dávila Ingeniero en Telecomunicaciones y Electrónica, Departamento de Telecomunicaciones, Empresa Eléctrica, La Habana, Cuba Samuel Montejo Sánchez Ingeniero en Telecomunicaciones y Electrónica, Máster en Telemática, Asistente, Departamento de Telecomunicaciones, Facultad de Ingeniería Eléctrica, Universidad Central Marta Abreu de Las Villas, Villa Clara, Cuba AUTORES Elenis Gorrita Michel Ingeniera Informática, División Centro TRD Caribe, Santa Clara, Villa Clara, Cuba Location Based Services and Applications Abstract Location Based Services (LBS) continue to grow in popularity, effectiveness and reliability, to the extent that applications are designed and implemented taking into account the facilities of the user location information. In this work, some of the main applications are addressed, in order to make an assessment of the current importance of the LBS, as a branch of technology in full swing. In addition, the main techniques for location estimation are studied, essential information to the LBS. Because of this it is a highly topical issue, the ongoing works and researches are also discussed Key words: location based services, location estimation, positioning techniques 52

52 1(III), 53-62, 2012 TELECOMUNICACIONES Evaluación de modelos de propagación de canal inalámbrico Raikel Bordón López Correo Artículo Original Reinier Alonso Quintana Correo Samuel Montejo Sánchez Correo Universidad Central Marta Abreu de Las Villas (UCLV), Villa Clara, Cuba Resumen En el diseño de sistemas de radiocomunicaciones, la modelación del canal inalámbrico es una alternativa eficiente para predecir las pérdidas de trayecto. En este artículo se presenta un estudio comparativo entre los modelos de propagación de Okumura, Hata, Walfisch-Bertoni y Walfisch-Ikegami. Se describe una herramienta de software implementada con el propósito de permitir la ejecución y evaluación de dichos modelos a través de una interfaz gráfica. El objetivo principal es analizar y comparar las predicciones de las pérdidas de trayecto, considerando distintas condiciones del entorno y límites de validez comunes. Los resultados obtenidos muestran una notable convergencia de los modelos semiempíricos y empíricos abordados cuando existe correspondencia entre el tipo de entorno y el valor del parámetro asumido. Los modelos de Walfisch-Bertoni y Walfisch-Ikegami permiten obtener los resultados más cercanos a las mediciones experimentales. Palabras clave: difracción, dispersión, modelo de propagación, pérdidas de trayecto, reflexión Recibido: 28 de septiembre del 2011 Aprobado: 12 de diciembre del 2011 INTRODUCCIÓN El conocimiento de las características de propagación radioeléctrica es esencial en la etapa de diseño de un sistema de comunicaciones inalámbricas cuando se pretende estimar las localizaciones óptimas de las estaciones base para conseguir altas razones de transmisión y mayor área de cobertura. [1] Las mediciones experimentales pueden proveer resultados muy precisos, pero en la medida en que mayor sea el área de cobertura y la precisión deseada su utilización resulta de elevado costo en términos de tiempo y tecnología. Una alternativa factible por la rapidez de su implementación es la simulación basada en modelos de canal inalámbrico para estimar los parámetros del sistema. El desarrollo de modelos de propagación adecuados a las necesidades de las nuevas tecnologías inalámbricas y su disponibilidad a través de herramientas de simulación cobra cada vez más importancia en el diseño e implementación de redes inalámbricas. En la actualidad existe una gran variedad de modelos que difieren en el rango de aplicabilidad, en cuanto a bandas de frecuencias, características del entorno, movilidad de los usuarios y otros parámetros del sistema de transmisión. El estudio de la propagación de las ondas de radio puede hacerse analíticamente empleando las ecuaciones de Maxwell, determinando las soluciones compatibles con las condiciones de contorno impuestas. Debido a que un análisis por esta vía resulta complejo, en la práctica se utilizan modelos deterministas basados en óptica geométrica y modelos empíricos basados en mediciones reales, o una combinación de ambos. [2] La precisión de los resultados obtenidos al aplicar modelos basados en óptica geométrica es proporcional al nivel de detalle en la información disponible sobre la topografía del terreno. Cuando se desea estudiar la radiopropagación en un entorno para el cual es difícil la obtención de las características detalladas del mismo, resulta más práctico el empleo de modelos empíricos. Los modelos deterministas pueden, en ciertas condiciones, proporcionar predicciones

53 Evaluación de modelos de propagación de canal inalámbrico más acordes a la realidad, pero a cambio de un costo computacional elevado. Los modelos empíricos se basan en mediciones llevadas a cabo en entornos específicos, para parámetros de transmisión y recepción de dados. Una combinación de ambos enfoques, adecuada a requerimientos específicos, puede resultar en un mejoramiento de la precisión, el rango de aplicabilidad y/o la eficiencia computacional. [3] El estudio teórico de los modelos de propagación y su comparación con mediciones reales en una variedad de entornos permite evaluar su correcta aplicación en función de sus limitaciones, el escenario y los requerimientos del sistema. En [4] y [5] los autores realizan una valoración de la exactitud de algunos de los modelos más usados en redes WiMAX sobre la base de una comparación entre la atenuación medida y la predicha por los modelos, para redes en la bandas de 3,5 GHz y 2,5 GHz, respectivamente. En [1] se presenta una revisión de varios modelos donde se discuten sus ventajas y desventajas para la propagación en entornos abiertos y cerrados. Una descripción de diversos modelos empíricos y modelos deterministas fundamentados en técnicas de trazado de rayos puede encontrase en [6]. Con el empleo de métodos basados en el trazado de rayos se logra una exactitud elevada, el precio a pagar es un incremento considerable en la complejidad de los algoritmos y un tiempo de cálculo elevado. Los modelos de propagación encuentran aplicación no solo en el diseño de sistemas de radiocomunicaciones, en [7] se usan modelos de propagación para el posicionamiento de terminales móviles en redes celulares a través de correlaciones entre bases de datos creadas a partir de estos modelos y las mediciones de las pérdidas. El presente artículo tiene dos objetivos fundamentales. En primer lugar, se presenta la evaluación y comparación con resultados experimentales de cuatro modelos de propagación: los modelos empíricos de Okumura y Hata, y los modelos semiempíricos de Walfisch-Bertoni y COST 231 Walfisch- Ikegami. En segundo lugar, se describe una herramienta de software que se diseñó e implementó con el propósito de facilitar el estudio del comportamiento de dichos modelos ante la variación de parámetros como: la frecuencia, la distancia y las alturas de las antenas, para diferentes tipos de entorno (ciudades grandes, pequeñas y zonas suburbanas). PRINCIPIOS BÁSICOS DE LA PROPAGACIÓN Mecanismos de propagación En la propagación de una onda radioeléctrica intervienen diversos y complejos fenómenos físicos, entre los cuales se destacan por su influencia, la reflexión, la difracción y la dispersión [8], representados en la figura 1. Una onda electromagnética sufre una reflexión cuando encuentra en su trayecto un obstáculo de dimensiones mucho mayores que su longitud de onda. Una señal puede reflejarse en múltiples objetos originando ondas reflejadas que pueden sumarse constructiva o destructivamente en el receptor. El resultado depende de varios factores como la polarización de la onda, el ángulo de incidencia y las características del material reflector (como dieléctrico o conductor perfecto). [9] La difracción se produce cuando existe una obstrucción de un objeto de bordes bien definidos entre la antena transmisora y la receptora, dando lugar a la formación de frentes de ondas secundarios. Este mecanismo puede explicarse a partir del principio de Huygens [10] y partiendo de él se puede comprender cómo es posible la propagación de la señal en condiciones sin línea de vista. La dispersión ocurre cuando la onda se propaga en un medio con una alta densidad de obstáculos de dimensiones del orden de la longitud de onda o menores. Se origina sobre la base de un principio físico similar al de la difracción, pero dando lugar a un esparcimiento mayor de la energía de la señal radioeléctrica. [9] Fig. 1. Mecanismos básicos de propagación. Afectaciones al canal inalámbrico Los fenómenos anteriormente descritos producen afectaciones al canal inalámbrico que pueden caracterizarse por las pérdidas de trayecto y los desvanecimientos [11]. Los desvanecimientos causan variaciones rápidas en la envolvente de la señal recibida y pueden clasificarse según su profundidad (magnitud), duración, característica espectral, mecanismo de producción (fenómeno que lo origina), distribución probabilística y dependencia temporal. [2] La modelación de los desvanecimientos se realiza mediante distribuciones probabilísticas como las de Rice, Rayleigh y Gauss. 54

54 Raikel Bordón López - Reinier Alonso Quintana - Samuel Montejo Sánchez Pérdida de trayecto La pérdida de trayecto se define como la razón entre la potencia de transmisión, P t, y la potencia recibida, P r, según la siguiente ecuación: L( db) 10log( P / P ) (1) t r Para condiciones de espacio libre, la potencia recibida por una antena de ganancia G r, separada una distancia d de la antena transmisora de ganancia G t, puede determinarse según la ecuación de espacio libre de Friis [9]: 2 PG G t t r P r 2 2 (4 ) d L a Donde es la longitud de onda y L a es el factor de pérdidas del sistema no relacionadas con la propagación (L a > 1). Se define entonces la pérdida de espacio libre como: L ( db) 32,45 20logf 20logd (3) b (2) G( h ) 20log( h / 200), 30 m h 1000 m (5) te te te 10log( h / 3), h 3 m re re G( h ) re 20log( h / 3), 3 m h 10 m re re Es posible además incluir en los cálculos correcciones debidas a varios factores como la ondulación del terreno, su homogeneidad y pendiente media, la presencia de obstáculos, disposición de las calles y densidad de las construcciones en zonas urbanas. El modelo es aplicable en un rango de frecuencias de 150 a MHz, para alturas de las antenas transmisoras entre 30 y m. Las distancias pueden variar de 1 a 100 km y la altura de la antena del móvil debe estar entre 3 y 10 m. [6] El modelo de Okumura es considerado uno de los más simples y eficaces en términos de precisión para sistemas celulares en entornos de naturaleza irregular. [9] Su efectividad es mayor cuando se aplica para ciudades densas de edificios altos, como aquellas en las que se realizaron las mediciones que dieron origen al modelo. (6) Siendo la frecuencia de operación f que se expresa en MHz y la distancia d en kilómetros. En un entorno de radiocomunicaciones móviles en ambientes urbanos sería erróneo considerar solo las pérdidas de espacio libre, ya que la atenuación de la señal en estos casos no depende de la frecuencia y la distancia únicamente, sino también de las alturas de las antenas transmisoras y receptoras, y de características específicas del entorno. [10] MODELOS DE PROPAGACIÓN Modelo de Okumura El modelo de Okumura [12] proporciona un método empírico para el cálculo de las pérdidas de propagación en entornos urbanos. Fue desarrollado a partir de mediciones llevadas a cabo en Japón, de las cuales se obtuvieron curvas de la atenuación media relativas a las pérdidas de espacio libre en función de la frecuencia y la distancia entre el móvil y la estación base. El valor medio de las pérdidas de propagación según este modelo puede estimarse como: Fig. 2. Curvas del modelo de Okumura para la atenuación media. L( db) L A ( f, d) G( h ) G( h ) G (4) b mu te re área Donde A mu es la atenuación media relativa a las pérdidas de espacio libre, G(h te ) y G(h re ) son los factores de ganancia de las antenas de la estación base y el móv il, respectivamente; G área es un factor de corrección que depende del entorno y es diferente de cero para entornos rurales, suburbanos y suburbanos densos. Los valores de A mu y G área se determinan por curvas experimentales como las mostradas en las figuras 2 y 3, respectivamente; G(h te ) y G(h re ) pueden hallarse a partir de otras curvas de corrección o calcularse usando las aproximaciones siguientes: Fig. 3. Factor de corrección dependiente del entorno para el modelo de Okumura. 55

55 Evaluación de modelos de propagación de canal inalámbrico Modelo de Hata El modelo de propagación de Hata es resultado del desarrollo de expresiones numéricas para las curvas de propagación normalizadas del modelo de Okumura, mediante un análisis de regresión múltiple. [13] Generalmente es utilizado para sistemas móviles de macroceldas, en los cuales la distancia entre el móvil y la estación base oscila entre 1 y 20 km [9]. Su expresión está en función de la frecuencia de operación del sistema, la altura de las antenas transmisora y receptora y la distancia entre la estación base y el terminal móvil. Para estimar las pérdidas en ambientes urbanos, suburbanos y rurales se emplean (7), (8) y (9), respectivamente. L ( db) 69,5 26,16log f 13,82log h a( h ) urb te re (44,9 6,55log h )logd te L ( db) L 2[log( f / 28)] 2 5,4 (8) suburb urb 2 L ( db) L 4, 78(log f ) 18, 33log f 40, 98 (9) rural urb El término a(h re ) es un factor de corrección debido a la altura de la antena receptora que depende de la densidad estructural del entorno urbano, se determina usando (10) para entornos urbanos y (11) para entornos suburbanos y rurales. a( h ) re 2 8,29[log(1,54 h )] 1,1, re f 300 MHz 2 3,2[log(11,45 h )] 4,97, re f 300 MHz (7) (10) a( h ) ( 11, log f 0, 7) h ( 1, 56log f 0, 8) (11) re Modelo de Walfisch-Bertoni re Este modelo, propuesto por Joram Walfisch y Henri Bertoni, tiene en cuenta las pérdidas producidas por las difracciones que se producen en las azoteas de los edificios. [14] Es un modelo que no considera la existencia de línea de vista entre el transmisor y el receptor, utiliza el fenómeno de la difracción para describir las pérdidas que sufre la señal antes de alcanzar al receptor ubicado a baja altura sobre la calle. Es despreciada la contribución de los rayos que penetran en los edificios y de los que sufren múltiples difracciones. La separación entre los edificios debe ser menor que su altura y se suponen organizados en filas paralelas. El rango de frecuencias en que es aplicable este modelo es de 300 a MHz, con separación entre transmisor y receptor de 200 a m. No es aplicable cuando la antena de la estación base está por debajo de la altura media de los edificios. [2] En la figura 4 pueden observarse las variables específicas del entorno que se consideran en el modelo. La expresión de las pérdidas totales toma en cuenta la contribución de las pérdidas de espacio libre L b y las pérdidas por la difracción de la señal en los edificios situados a ambos lados de la calle en la que se encuentra el móvil, L ex. L( db) L L (12) b ex d b / 2 log h L 57, 1 A log f 18 t ex 2 ( d b / 2) log 1 ht 17 (13) 2 b h R A 5log h 9logb 20log tan R 2 b (14) donde b es la anchura promedio entre centros de edificios. Además son denotados h t y h r como las alturas de las antenas transmisoras y receptoras, respectivamente y h R es denotada como la altura media de las edificaciones (figura 4). Entonces, se calcula h R = h R - h r, mientras que h t = h t - h R. Puede notarse que todos estos parámetros son expresados en metros para su empleo en (13) y (14). Modelo COST 231 Walfisch-Ikegami Este modelo, propuesto en el proyecto europeo COST 231, es resultado de la integración de los modelos de Ikegami- Ioshida y de Walfisch-Bertoni [15]. En él se incorpora la influencia de edificaciones y calles en las que se encuentra el dispositivo receptor, para una predicción más precisa de las pérdidas de propagación en entornos urbanos. De acuerdo con [16], las pérdidas pueden evaluarse dependiendo de la existencia o no de línea de vista entre el transmisor y el receptor, según las expresiones (15) y (16): L ( db) 42, 6 20logf 26logd (15) LOS L ( db) L L L (16) NLOS b rts msd donde L rts es la pérdida debida a la difracción de la terraza a la calle en que se sitúa el móvil (rooftop to street), que es independiente de la altura de la estación base, y L msd es la pérdida causada por la difracción de la onda en múltiples construcciones situadas entre el transmisor y el receptor (multiple screen diffraction). Este modelo considera las mismas variables que el modelo de Walfisch-Bertoni (figura 4), en adición a otras dos: w, el ancho de la calle en la que se encuentra el móvil (expresado en metros) y, el ángulo entre el rayo de la onda incidente y el eje de la calle (en grados). En la figura 5 se ha representado una vista superior de la ubicación del receptor, donde se muestra como está definido. Mediante la aplicación de los principios de la óptica física y asumiendo características geométricas uniformes en los 56

56 Raikel Bordón López - Reinier Alonso Quintana - Samuel Montejo Sánchez edificios y su disposición, fueron derivadas las siguientes expresiones: L 8, 23 10logw 10logf 20log h L (17) rts R ori 54, h 0 t k 54 0, 8 h, h 0, d 0, 5 a t t 54 1, 6 h d, h 0, d 0, 5 t t (21) k d 18, h 0 t 18 15( h / h ), h 0 t R t (22) k f 4 0, 7( f / 925 1), para zonas suburbanas 4 1, 5( f / 925 1), para ciudades grandes (23) Fig. 4. Variables consideradas en los modelos Walfisch-Bertoni y Walfisch-Ikegami. Fig. 5. Ángulo entre el rayo de la onda incidente y el eje de la calle, en el modelo Walfisch-Ikegami. Es necesario señalar que la expresión presentada para el cálculo de L rts es el resultado de una corrección, realizada en [17], a la formulación original del modelo. El término L ori es un factor de corrección debido a la orientación de las calles, que toma en consideración el efecto de la difracción terraza-calle cuando la calle no es perpendicular a la dirección de propagación. L ori 10 0, 3571, 35 2, 5 0, 0075( 35 ), o o, ( 55 ), 55 o 90 o o o o (18) L L k k logd k logf 9logb (19) L msd bsh a d f bsh 18log( 1 h ), h 0 t t 0, h 0 t (20) Este modelo, a diferencia del de Walfisch-Bertoni, puede ser aplicado cuando la antena de la estación base se encuentra por debajo de la altura media de las edificaciones; tiene validez para frecuencias entre 800 y MHz, alturas de las antenas transmisoras de 4 a 50 m, distancias en un rango de 200 a m y altura de la antena receptora de 1 a 3 m.[2] HERRAMIENTA PARA LA SIMULACIÓN DE LOS MODELOS Para facilitar el estudio de los modelos anteriormente presentados se implementó una interfaz gráfica (GUI) en Matlab, la cual se muestra en la figura 6. En el área principal de la misma se grafican las pérdidas de propagación para cada modelo, en función de uno de los siguientes parámetros (f, h r, h t, d, w, b,, h R ), seleccionado por el usuario al especificar en el botón de edición correspondiente el rango de variación deseado en forma de vector [X mín X máx ], puede notarse en la figura f (MHz) = [ ]. Es posible asignarle al slider ubicado en la parte superior de la gráfica el control de una de las variables anteriores, permitiendo observar la variación de las curvas, mientras dinámicamente modifica el parámetro seleccionado. Desde la línea de edición de texto ubicada en la parte inferior derecha de la GUI se puede acceder a los datos graficados mediante las variables L ok, L ht, L wb, L wi que representan las pérdidas dadas por los modelos de Okumura, Hata, Walfisch-Bertoni y Walfisch- Ikegami, respectivamente; así como al parámetro en función del cual se evalúan las pérdidas, representado por la variable x. De esta forma, se ofrece la opción de guardar las curvas para un procesamiento adicional posterior o realizar cualquier manipulación directamente desde esta línea de edición. En el modelo de Okumura no es posible determinar las pérdidas directamente a partir de una expresión matemática. Este es uno de los inconvenientes del modelo, puesto que su evaluación a una distancia y frecuencia dadas requiere la ubicación de los puntos manualmente en un gráfico. Para su implementación en la herramienta descrita se obtuvieron muestras de las curvas en varios puntos. Luego, las pérdidas para cualquier distancia y frecuencia se determinaron interpolando dichas muestras. 57

57 Evaluación de modelos de propagación de canal inalámbrico Fig. 6. Interfaz gráfica para la comparación de los modelos. en el rango seleccionado, debido a la escala logarítmica del eje de frecuencias y la dependencia de los modelos del término log f. Considerándolas perfectamente lineales, sus pendientes fueron calculadas y se obtuvieron valores de 23, 18, 21 y 33 db/década para los modelos de Walfisch-Bertoni, Walfisch-Ikegami, Okumura y Hata, respectivamente. Estos valores, excepto para el caso del modelo de Walfisch- Ikegami, se acercan a 20 db/década, lo que demuestra el peso que dentro de las pérdidas totales tiene el factor 20log f presente en las pérdidas básicas. A este factor hay que añadir, en el modelo de Walfisch-Ikegami, el término 10log f contenido en las pérdidas L rts, de ahí que la pendiente calculada para la curva correspondiente a este modelo sea la que más se aleja de 20 db/década. Es importante recordar que las pérdidas en los diferentes modelos dependen de la frecuencia no solo con el término log f, sino que también incluyen factores de corrección de menor peso que varían linealmente con f (factor k f en el modelo de Walfisch-Ikegami) o con el cuadrado del logaritmo de la frecuencia (corrección para los entornos suburbanos y rurales en el modelo de Hata). COMPARACIÓN DE LOS MODELOS En la comparación entre los modelos presentados se consideraron los rangos comunes de validez mostrados en la tabla 1. Tabla 1 Rangos de validez de los modelos Modelo f (MHz) h t (m) h r (m) d (km) Okumura Hata Walfisch-Bertoni ,2-5 COST ,2-5 Fig. 7. Variación de las pérdidas en función de la frecuencia. Rangos Comunes Las comparaciones se realizaron entre las pérdidas predichas por los modelos. Se asumieron los siguientes valores de datos: f = 800 MHz, h r = 3 m, h t = 30 m, d = 5 km, w = 25 m, b = 50 m, = 28 o, h R = 7 m. En todos los casos se consideró un entorno suburbano. Como medida del grado de dispersión de los modelos se utilizó la desviación estándar: 1/ L ( L L ) i (24) i 1 3 donde L es el valor medio de las pérdidas y L i es las pérdida específica de cada modelo. En la figura 7 se muestra el resultado obtenido para la variación de las pérdidas en función de la frecuencia, entre 800 y MHz. Puede notarse la linealidad de las curvas Fig. 8. Dispersión de los modelos en función de la frecuencia. 58

58 Raikel Bordón López - Reinier Alonso Quintana - Samuel Montejo Sánchez La variación de las pérdidas con el logaritmo de la frecuencia no es del todo lineal, como puede observarse en las curvas de la figura 2 para el modelo de Okumura, pero en un rango relativamente estrecho como el que se considera, la aproximación es aceptable. La desviación estándar de las pérdidas fueron calculadas para el rango de frecuencias considerado, empleando (24). Los resultados obtenidos se muestran en la gráfica de la figura 8, en la que puede notarse la pequeña dispersión, con valores comprendidos entre 1 y 3,5 db. En la figura 9 se representa la dependencia de las pérdidas con la distancia, cuando esta varía en un rango de 1 a 5 km. Pudo comprobarse, al emplear una escala logarítmica para la distancia, un comportamiento lineal de las pérdidas en función del logaritmo de la distancia para los cuatro modelos. Esto significa que las pérdidas, cuando solo se considera la variable distancia, pueden describirse aproximadamente por una ecuación de la forma A log d + B, donde A y B son constantes que dependen del resto de los parámetros. Fig. 9. Variación de las pérdidas en función de la distancia. Para las curvas que se muestran, estas ecuaciones son las siguientes: L ( db) 29, 8log d 1171,, L ( db) 35, 2log d 111, 7, ok L ( db ) 39 log d 108, 6 y L ( db) 38log d 111, 3. wb wi Como puede notarse en las ecuaciones anteriores, los modelos de Okumura y Hata son los que presentan la razón de variación más lenta con la distancia. Para los otros dos modelos las pérdidas varían más rápido debido a que consideran la dif racción de la onda en múltiples construcciones situadas entre el transmisor y el receptor. Del análisis anterior y del hecho de ser más altas las pérdidas del modelo de Okumura en la distancia inicial igual a 1 km puede comprenderse porqué la coincidencia de los modelos es más notable cuando se incrementa la distancia, lo cual se aprecia más claramente en la figura 10. En la figura 11 se han graficado las pérdidas en función de la altura media de los edificios, puede notarse que como era de esperar los modelos de Okumura y Hata no muestran dependencia de este parámetro, ya que es considerado implícitamente en el tipo de zona. Cabe destacar cómo las curvas de estos dos modelos coinciden con los modelos de Walfisch-Ikegami y Walfisch-Bertoni para una altura media de las construcciones de aproximadamente 7 m, equivalente a dos plantas o una zona de tipo suburbana. Si se elige como entorno el de una ciudad pequeña se verá cómo esta región de convergencia de los cuatro modelos se desplaza hacia los 14 m, equivalente a cuatro plantas. En este sentido la generalización de los modelos Okumura y Hata impide la correcta caracterización del entorno, al no considerar el valor preciso del parámetro h R. Es por ello que, con el objetivo de hacer una comparación equitativa, se escogió para el parámetro h R un valor de 7 m para una zona suburbana. Se aprecia en esta gráfica la notable influencia que tiene en los modelos de Walfisch-Bertoni y Walfisch-Ikegami el valor de h R, ya que al ser más altos los edificios, más obstruido resulta el trayecto de la señal entre el transmisor y el receptor, y por tanto mayores son las pérdidas debido a la difracción terraza-calle. ht Fig. 10. Dispersión de los modelos en función de la distancia. Fig. 11. Variación de las pérdidas en función de la altura media de los edificios. 59

59 Evaluación de modelos de propagación de canal inalámbrico La gráfica mostrada en la figura 12 se obtuvo de variar el parámetro, del que solo depende el modelo de Walfisch- Ikegami, en consecuencia las pérdidas correspondientes a los demás modelos permanecen constantes. El valor mínimo de las pérdidas estimadas por este modelo resulta para = 90 o cuando el rayo entre el transmisor y el receptor sigue la dirección de la calle. Se evidencia que coincide con el modelo de Okumura cuando se aproxima a 28 o. Puede notarse además, que cuando = 28 o el factor L ori = 0, acorde a (18). Para verificar la incidencia media de este parámetro se generaron 105 valores del ángulo uniformemente distribuidos en el intervalo y se determinó el valor medio de L ori, empleando (18), el resultado obtenido fue de -0, db, valor muy cercano a cero. Los resultados obtenidos por los modelos fueron comparados con resultados experimentales obtenidos en [15], en COST231 Final Report se describe el procedimiento utilizado para realizar las mediciones. Estas mediciones se realizaron a una frecuencia de 947 MHz y los valores estimados para la descripción del entorno fueron los siguientes: w = 13 m, b = 26 m, h R = 20 m, correspondientes a una ciudad de tamaño medio. En la figura 13 se muestran los resultados experimentales y la recta obtenida al ajustar las muestras por el método de mínimos cuadrados. Dicha recta se usa como referencia en la figura 14 para la comparación con los modelos. Como se observa, los modelos de Walfisch-Bertoni y Walfisch-Ikegami son los que más se acercan a los resultados experimentales. Fig. 13. Mediciones experimentales y ajuste de las muestras por mínimos cuadrados. Fig. 14. Comparación de los modelos con las mediciones experimentales. Fig. 12. Variación de las pérdidas en función del ángulo entre el rayo y el eje de la calle. CONCLUSIONES En este artículo son descritos y comparados cuatro modelos de propagación, analizando las pérdidas estimadas por cada uno en función de la frecuencia, la distancia, la altura media de las edificaciones y el ángulo de incidencia respecto a las calles. Los resultados muestran que, aún cuando el modelo de Hata se basa en expresiones algebraicas obtenidas del modelo de Okumura, se destacan diferencias significativas entre sus resultados, en ocasiones menores con respecto a los otros modelos. La coincidencia entre las pérdidas predichas por los modelos es mayor cuando los valores de las variables del entorno caracterizado se aproximan a las de los entornos utilizados para la formulación del modelo de Okumura. Además, se evidencia una mayor sensibilidad de los modelos de Walfisch-Bertoni y Walfisch-Ikegami a las variaciones en la altura media de las edificaciones. 60

60 Raikel Bordón López - Reinier Alonso Quintana - Samuel Montejo Sánchez La elección adecuada de un modelo de propagación para una aplicación en un entorno específico depende de la amplia comparación que se realice en cuanto a parámetros del entorno y cantidad de modelos. La utilidad de la herramienta de software desarrollada resulta de innegable valor en este sentido. En primer lugar, permite la rápida evaluación de las pérdidas en función de las variables del entorno. En segundo lugar, por su escalabilidad, al permitir la incorporación de otros modelos, para contar con mayor cantidad de alternativas en la comparación. REFERENCIAS 1.SARKAR,T. et al."a Survey of Various Propagation Models for Mobile Communication". IEEE Ant. and Propag. Mag, 2003, vol. 45, pp HERNANDO RÁBANOS, José María. Transmisión por radio. España: Editorial Universitaria Ramon Areces, pp. ISBN ISKANDER, M. F. "Channel Characterization and Propagation Models for Wireless Communications Systems". [en línea]. Disponible en Web: 4. MILANOVIC, J.; RIMAC-DRLJE, S. and BEJUK, K. "Comparison of Propagation Models Accuracy for WiMAX on 3.5 GHz". 14th IEEE International Conference. Electronics, Circuits and Syst ems ( ICECS), 2007, pp PETRACCA, M. et al. "Outdoor Path Loss Measurements of WiMAX at 2.5G Hz in Suburban Environment". 4th IFIP International Conference. New Technologies, Mobility and Security (NTMS), 2011, pp ISKANDER, M. F. and YUN, Z. "Propagation Prediction Models for Wireless Communication Systems". IEEE Transaction on MicroWave Theory and Techniques, 2002, vol. 50, pp ZIMMERMANN, D. et al. "Database Correlation for Positioning of Mobile Terminals in Cellular Networks Using Wave Propagation Models". 60th IEEE Vehicular Technology Conference, 2004, vol. 7, pp ANDERSEN, J. B.; RAPPAPORT, T. S. and YOSHIDA, S. "Propagation Measurements and Models for Wireless Communications Channels". IEEE Commun. Mag, 1995, pp RAPPAPORT, T. S. Wireless Communications Principle and Practice. New York: Prentice Hall, pp. ISBN STUBER, G. L. Principles of Mobile Communication. New York: Kluwer Academic Publishers, pp. ISBN GOLENIEWSKI, L. and JARRETT, K. W. Telecommunications Essentials. Stoughton: Addison Wesley Professional, pp. ISBN OKUMURA, Y. et al. "Field Strength Variability in VHF and UHF Land Mobile Service". Rev. Elect. Comm. Lab., 1968, vol. 16, pp HATA, M. "Empirical Formula for Propagation Loss in Land Mobile Radio Services". IEEE Trans. Veh. Technol, 1980, vol. VT-29, pp WALFISCH, J. and BERTONI, H.L. "A Theoretical Model of UHF Propagation in Urban Environments". Antennas and Propagation IEEE Transactions, 1988, vol. 36, pp CICHONAND, D. J. and KURNER, T. Propagation Prediction Models. COST231 Final Report [en línea]. Disponible en Web: 16. ITU-R. Propagation Data and Prediction Methods for the Planning of Short-Range Outdoor Radiocommunication Systems and Radio Local Area Networks in the Frequency Range 300 MHz to 100 GHz. Recommendation ITU-R P Geneva. Switzerland DONGSOO, H.; WATSON,A. M. and CHADNEY, A. G. "Comment on Difraction Loss of Rooftop-to-Street in Cost231-Walfisch-Ikegami Model". IEEE Trans. Veh. Technol, 1999, pp AUTORES Raikel Bordón López Estudiante de 5to. año, Ingeniería en Telecomunicaciones, Universidad Central Marta Abreu de Las Villas (UCLV), Villa Clara, Cuba Reinier Alonso Quintana Estudiante de 5to. año, Ingeniería en Telecomunicaciones, Universidad Central Marta Abreu de Las Villas (UCLV), Villa Clara, Cuba Samuel Montejo Sánchez Ingeniero en Telecomunicaciones y Electrónica, Máster en Telecomunicaciones y Electrónica, Asistente, Departamento de Telecomunicaciones y Electrónica, Facultad de Ingeniería Eléctrica, Universidad Central Marta Abreu de Las Villas (UCLV), Villa Clara, Cuba 61

61 Evaluación de modelos de propagación de canal inalámbrico Wireless Channel Propagation Models Evaluation Abstract In the design of wireless communications systems, channel modelling is an efficient alternative to predict the path loss. In this paper we present a comparative study between Okumura, Hata, Walfisch- Bertoni and Walfisch-Ikegami propagation models. We present a developed software tool, which is useful to evaluate these models from a graphical user interface. The main objective is to analyze and compare path loss predictions, taking into account different environment conditions and a common validity range. The results show the good match between empirical and semiempirical models when there is correspondence between the environment type and the assumed parameter value. Walfisch- Bertoni and Walfisch-Ikegami models predict the results closer to experimental measurements. Key words: diffraction, scattering, path loss, propagation model, reflection 62

62 1(III), 63-69, 2012 TELECOMUNICACIONES Optimización de sistemas Cassegrain utilizando algoritmos genéticos Carlos Santos Rodríguez Correo Instituto de Meteorología, La Habana, Cuba Artículo Original Ana Teresa Aday Martínez Correo Unión Eléctrica, La Habana, Cuba Resumen Este trabajo constituye una propuesta de optimización de un sistema de radiación parabólica, en su variante Cassegrain, utilizando algoritmos genéticos (AG). Esta novedosa herramienta matemática se abre paso en la actualidad en el campo del electromagnetismo, llegando a emplearse como una vía de solución exitosa a diversos problemas propios de las antenas. En los últimos años han aparecido diferentes softwares que implementan los AG, tal es el caso del MATLAB 7.8.0, que será utilizado en este material para la optimización de un fenómeno que limita el buen desempeño de los sistemas Cassegrain, el bloqueo central. El artículo es un intento por introducir el empleo de los AG y su capacidad multiobjetivo para la optimización de estos sistemas, tema del que no se tienen referencias en el país. Asimismo se emplea la herramienta de análisis de reflectores ICARA, que permite realizar la simulación de las características de radiación de diferentes configuraciones de antenas parabólicas, para su posterior análisis. Palabras clave:optimización, AG multiobjetivo, sistema Cassegrain, bloqueo central, pérdidas por bloqueo. Recibido: 20 de noviembre del 2011 Aprobado: 18 de diciembre del 2011 INTRODUCCIÓN El empleo de los AG para la solución de problemas vinculados a la ingeniería no es nuevo. Los primeros estudios sobre estos, hechos por John Holland, [1] demostraron ser una importante contribución a las aplicaciones científicas y de ingeniería. Desde entonces, los resultados de los procesos investigativos en este campo han crecido exponencialmente y se han extendido por la comunidad académica internacional. Estos algoritmos son procesos estocásticos, discretos y no lineales, con un marcado carácter evolutivo. La solución óptima que se obtiene es un producto final que contiene los mejores elementos de las generaciones previas, donde los atributos de los individuos más fuertes tienden a ser copiados en las siguientes generaciones. La regla que sigue este proceso es la "supervivencia del más fuerte". Por su parte las antenas parabólicas de doble reflector se utilizan extensamente en comunicaciones espaciales y radioastronomía, además de comunicaciones terrestres. Este tipo de antena ofrece algunas ventajas sobre las antenas de un solo reflector y, aunque pueden tener diseños diferentes, comparten un conjunto de aspectos básicos comunes. Dentro de las diversas configuraciones de estas, la más empleada es la Cassegrain y su limitación principal es el bloqueo central. Este problema no ha sido importante en los telescopios ópticos en los que las características del patrón de difracción no son severas y por la corta longitud de onda de la luz. En el caso de microondas estas condiciones no se dan y la presencia del subreflector opaco a la energía electromagnética produce un hueco en la iluminación que da como resultado reducción de la ganancia y aumento de los niveles de los lóbulos laterales [2]. Por estas razones es que la optimización de las pérdidas asociadas al fenómeno del bloqueo central, contando para ello con los AG, resulta tan importante. ALGORITMOS GENÉTICOS Los AG están inspirados en el mecanismo de selección natural, un proceso biológico donde el individuo más fuerte

63 Optimización de sistemas Cassegrain utilizando algoritmos genéticos será el ganador de los recursos en un ambiente competitivo. Aquí, los AG utilizan una analogía directa de la evolución natural. En estos, la solución potencial a un problema es un individuo que se puede representar con un conjunto de parámetros, conocidos como genes. El conjunto de todos los parámetros (genes en la terminología de los AG) se codifica en una cadena de valores denominada cromosoma. Un valor positivo, generalmente conocido como valor de aptitud, es utilizado para reflejar en qué grado el cromosoma representa la solución a un problema específico. El funcionamiento del algoritmo comienza con la generación de una población de individuos de forma aleatoria, el tamaño de esta población depende del problema en cuestión. En cada ciclo de operación genética, denominado proceso evolutivo, se crea una generación subsecuente a partir de cromosomas de la población actual. La población se evalúa mediante una función de aptitud. Este proceso solo será exitoso si un grupo de cromosomas, generalmente llamado "padres", son seleccionados de tal forma que los genes de los padres sean mezclados y recombinados para producir la descendencia. Esta mezcla del material genético permite que las especies evolucionen con mayor velocidad de lo que lo harían si tuvieran solo la copia de los genes de uno de sus progenitores. Se espera que de este proceso de evolución el mejor cromosoma creara un mayor número de descendientes, y así tendrán una mayor probabilidad de supervivencia en la generación subsecuente, emulando el mecanismo natural de "supervivencia del más fuerte". Para entender con mayor claridad el funcionamiento de un AG simple se puede observar la figura 1, donde se muestra el código de un AG estándar [3]. Optimización multiobjetivo En muchas ocasiones las funciones de aptitud de los AG tienen más de un objetivo que optimizar, los cuales pueden estar en contradicción. Esto se conoce como el concepto de optimización multiobjetivo. La mejor forma de entender cómo funciona un proceso de optimización de este tipo es mediante un ejemplo que se puede asociar a la vida diaria. [4] Se supone que existe una pareja que está buscando un lugar en donde vivir. Uno de ellos es de Montana y otro es de Florida, en consecuencia, con su lugar de origen cada uno tiene ideas diferentes de lo que es un lugar ideal para vivir. Las dos funciones de aptitud son descritas aproximadamente por: 2 f x x x x f 1 1 x 1 (1) x x x donde: f 1 : Función de aptitud del esposo #1. f 2 : Función de aptitud del esposo #2. x 1 : Temperatura promedio. x 2 : Distancia desde donde vive la familia del esposo #1. x 3 : Costo de la vida. x 4 : Tamaño de la ciudad. Claramente la pareja no está de acuerdo con todos los puntos, el interés que cada uno tiene por cada variable se expresa en el tamaño y el signo del exponente de dicha variable. Fig. 1. Código de un AG estándar. 64

64 Carlos Santos Rodríguez - Ana Teresa Aday Martínez No existe una sola solución para (1), graficando f 1 contra f 2 para varios valores de x se obtiene la figura 2. El punto que representa el mínimo de cada función independiente (min {f 1 }, mín {f 2 }) está fuera de la región factible (conjunto de todos los posibles puntos que satisfagan todas las restricciones) en el gráfico. El conjunto de puntos que limitan el borde inferior de la región factible se denomina frente del Pareto. Fig. 3. Antena reflectora Cassegrain. Fig. 2. Gráfico de f 1 contra f 2. Un AG Pareto retorna una población con muchos miembros sobre el frente del Pareto, esta población es ordenada con base en su "dominancia". Una solución A domina a otra solución B si A tiene aptitud mayor que la de B, para al menos uno de los objetivos de la función de aptitud y no es peor que el resto de los objetivos. En otras palabras, x 1 domina a x 2 si se cumple alguna de las ecuaciones: f x f x f x f x (2) f x f x f x f x (3) La herramienta algoritmos genéticos y búsqueda directa del software MATLAB presenta un solucionador de AG multiobjetivo, el cual utiliza un AG Pareto regido por los principios anteriormente explicados. El proceso de optimización que se analizará en este material utiliza una función de aptitud con tres objetivos definidos en aras de reducir las pérdidas por bloqueo en un sistema Cassegrain. REFLECTORES DOBLES Este tipo de sistema está constituido por dos reflectores, uno principal parabólico y otro secundario. El subreflector puede ser hiperbólico en cuyo caso la antena que se obtiene es Cassegrain (figura 3), o bien elíptico y la antena que se obtiene es Gregorian (figura 4). Cada una de estas aumenta la distancia focal efectiva para obtener un reflector parabólico equivalente. [5] Fig. 4. Antena reflectora Gregorian. En las figuras 3 y 4, el ángulo subtendido del reflector primario es 2, pero el ángulo subtendido efectivo en el 0 alimentador es 2 y 2c es la distancia interfocal. Se 0 posiciona el primero de los focos del subreflector en el foco del reflector principal y se coloca el segundo en el centro de fase de la antena alimentadora. Con los sistemas de doble reflector se logra aunar las ventajas de las antenas de foco corto y largo. El número de diseños con la forma Cassegrain excede al número de diseños que utilizan la variante Gregorian. Esta última requiere una estructura de soporte para el subreflector de mayores longitudes, debido a que el mismo se extiende más allá del foco del reflector principal. La curvatura del borde del subreflector incrementa la difracción y reduce el control del campo incidente sobre el reflector principal, pero proporcionándole una forma determinada al subreflector Cassegrain, se puede acrecentar la eficiencia total. La inversión de los campos en el reflector Gregorian complica este proceder. Para analizar el sistema de reflectores dobles se puede utilizar una parábola equivalente a partir del ángulo subtendido del subreflector 2. Se define entonces, el factor de 0 magnificación como la razón de la longitud focal efectiva y la longitud focal real del reflector principal: 65

65 Optimización de sistemas Cassegrain utilizando algoritmos genéticos f e M (4) f La excentricidad del subreflector puede calcularse a partir de M: Cassegrain Gregorian e ( M 1) e ( M 1) ( M 1 ) ( M 1 ) (5) La distancia interfocal se obtiene de la ecuación (6): Cassegrain Gregorian 2 2 2c 2Pe 2 2c 2Pe 2 ( e 1 ) ( 1 e ) (6) En ella aparece el parámetro de diseño P con el cual se logra cierta libertad en el posicionamiento del alimentador. El diámetro del subreflector varía con P según (7): D s 2eP sin 0 Bloqueo central 1 ecos (7) 0 El incremento de la distancia focal efectiva requiere alimentadores con haces estrechos, y dejar de considerar al alimentador como una fuente puntual. Este proyecta una sombra en el centro del reflector (figura 5) y causa bloqueo central, al igual que el subreflector. En la medida en que se reduce el diámetro del subreflector para reducir el bloqueo, la antena alimentadora debe colocarse más cercana al mismo y su sombra proyectada aumenta. El punto óptimo ocurre cuando el diámetro de bloqueo del alimentador proyectado se iguala al diámetro del subreflector. Este problema produce una reducción de la ganancia y un aumento de los niveles de lóbulos laterales. Las dimensiones del alimentador dependen de la frecuencia a la cual se opera y de la razón efectiva f/d, mientras que el diámetro del subreflector depende únicamente de la geometría. Luego, no se puede determinar el punto óptimo con independencia de la frecuencia. Fig. 5. Bloqueo central en reflectores Cassegrain. OPTIMIZACIÓN DEL BLOQUEO CENTRAL EN UN SISTEMA CASSEGRAIN El sistema a optimizar es una antena Cassegrain con un diámetro del reflector principal de 10 m y con una relación foco/diámetro efectiva de 1,5 para operar a 3,9 GHz. Esta frecuencia lo ubica en la banda C y el sistema puede ser utilizado para enlaces satelitales con estaciones terrenas. Además, el alimentador tendrá una disminución de la amplitud de la señal de alimentación en el borde del reflector de -12 db. Resulta obvio que la disminución de las dimensiones del subreflector provoca una reducción de las pérdidas a consecuencia del bloqueo. Sin embargo, cuando se disminuye el diámetro del subreflector, buscando menos bloqueo del mismo, el alimentador deberá colocarse más próximo a este, por lo que su sombra proyectada aumenta. El punto óptimo como se mencionó anteriormente ocurre cuando el diámetro del bloqueo del alimentador proyectado se iguala al diámetro del subreflector. La función del AG será encontrar este punto óptimo, en un tiempo breve y con una alta precisión. La función de aptitud está diseñada para un reflector doble Cassegrain cuyas características ya f ueron descritas. Las variables independientes que servirán de entrada a la función de aptitud son la relación foco/diámetro del reflector principal (f/d) y la distancia entre los focos del subreflector (2c). Los objetivos que perseguirá la función son la disminución del diámetro del bloqueo del alimentador proyectado (D FB ), del diámetro del subreflector (D S ) y de la diferencia entre estos dos valores, ya que cuando este último valor es cero ocurre el punto óptimo. Con esto se consigue optimizar las pérdidas ocasionadas por el bloqueo. Una vez implementada la función de aptitud con las características antes mencionadas, se procedió correr en múltiples ocasiones la herramienta del AG multiobjetivo. Se fueron variando parámetros como: tamaño de la población, función de creación, selección, reproducción, mutación, cruce y migración, y luego se archivaron los resultados de las corridas realizadas. En la tabla 1 se pueden observar cinco de los mejores resultados obtenidos. El criterio que se utilizó para escoger dichas corridas, se basó en el menor tamaño del subreflector (DS), cuando la diferencia con el diámetro del bloque del alimentador proyectado sea cero. Se obtuvo la mejor corrida (40) con un tamaño de la población de 88 individuos, una función de selección por torneo y tamaño del torneo de 6 competidores, fracción de cruce de 0,65, función de cruce por 2 puntos y mutación uniforme. Bajo estas condiciones el AG determina una relación foco/diámetro de 0,256, una distancia interfocal de 1,07 m y un diámetro del subreflector de 0,728 m, para minimizar las pérdidas por bloqueo central. Estos valores se utilizarán para simular la antena con ayuda del software de análisis de reflectores ICARA. Resulta interesante corroborar a partir de los valores que obtuvo el AG la minimización de las pérdidas por bloqueo. Para ello los autores se apoyan en la tabla 2 que muestra las pérdidas por bloqueo para distribuciones de abertura circular, esta se obtuvo de bibliografía consultada referente al estudio de las antenas. [5] 66

66 Carlos Santos Rodríguez - Ana Teresa Aday Martínez Tabla 1 Corridas con mejores valores de aptitud Corrida Relación f/d Distancia interfocal (m) Número de iteraciones D FB (m) D S (m) Diferencia entre los diámetros 7 0,28 1, ,75 0, ,275 1, ,746 0, ,266 1, ,737 0, ,259 1, ,731 0, ,256 1, ,728 0,728 0 Tabla 2 Pérdidas por bloqueo para distribuciones de abertura circular (db) Bloqueo central (%) Uniforme Gaussiana (12 db en el borde) 5 0,02 0,04 6 0,03 0,06 7 0,04 0,08 8 0,06 0,10 9 0,07 0, ,09 0, ,11 0, ,13 0, ,15 0, ,17 0, ,20 0,36 Si se le presta atención a esta relación de pérdidas, se puede observar como el sistema que resulta con el diámetro del subreflector de 0,728 m, diámetro del reflector principal de 10 m y una distribución Gaussiana con -12 db con respecto al nivel máximo de la señal de alimentación, el porcentaje de bloqueo es de un 7,28 % y las pérdidas por bloqueo son de aproximadamente 0,08 db. Estas pérdidas son inferiores a las obtenidas en un proceso de optimización de un sistema de características muy similares realizado por Milligan. [5] En esta última optimización las pérdidas por bloqueo alcanzan un valor de 0,14 db, superiores a las que se logran con el empleo del AG, por lo que el sistema resultante del empleo del AG es mejor en este sentido. SIMULACIÓN DEL REFLECTOR El reflector parabólico será simulado utilizando la herramienta de análisis de antenas de reflectoras ICARA, cuyo nombre proviene de las iniciales en inglés de Análisis de Corrientes Inducidas en Antenas, de Reflectores; desarrollado por el Grupo de Antenas del Departamento de Teoría de la Señal y Comunicaciones de la Universidad de Vigo en España. Además, está disponible de forma gratuita en Internet.[6] Este software permite dif erentes configuraciones en el diseño y análisis de antenas reflectoras simples o dobles. [7] De esta manera se introducen los valores que definen la geometría del reflector y la señal de alimentación, algunos de ellos resultados de la optimización realizada, en la figura 6 se observan los parámetros geométricos de la antena y se resaltan aquellos que se obtuvieron con la optimización. La figura 7 muestra la geometría generada por estos parámetros y la figura 8 la amplitud de la señal de alimentación de -12 db en el borde del subreflector con respecto al máximo nivel. Se obtiene entonces el patrón de radiación de la antena (figuras 9 y 10). Entre las características de radiación de la antena se tiene una alta directividad (49,529 2 dbi), un bajo nivel de polarización cruzada (3,096 7 dbi) y de lóbulos laterales (menos de 20 dbi) todos estos valores referidos al radiador isotrópico (dbi). El buen desempeño de esta antena era de esperar en consecuencia con haber optimizado uno de los fenómenos que más influyen de forma negativa en las características de radiación de los sistemas Cassegrain, el bloqueo central. 67

67 Optimización de sistemas Cassegrain utilizando algoritmos genéticos Fig. 6. Parámetros geométricos del reflector Cassegrain. Fig. 9. Patrón de radiación del reflector Cassegrain. Fig. 10. Patrón de radiación del reflector Cassegrain 3D. Fig. 7. Geometría del reflector Cassegrain (m). Fig. 8. Distribución de la señal de alimentación sobre el subreflector. Si se atiende a las especificaciones técnicas de una antena comercial para estaciones terrenas de la compañía Antesky [8], con un diámetro de 11 m y de altas prestaciones comprobadas con su homologación por parte de la Unión Internacional de Telecomunicaciones al cumplir con todos los requisitos impuestos por esta, se observa que su ganancia es de 51,64 dbi. Esta ganancia no difiere en gran medida de la directividad que se obtuvo en el trabajo (49,529 2 dbi), a pesar de que el reflector principal utilizado en la antena de 11 m de Antesky es 1 m mayor que el utilizado para la simulación. Cabe destacar que la antena no tiene exactamente las mismas características geométricas y de alimentación de la resultante del proceso de optimización mediante AG, sin embargo, esta atenuante no impide tener un punto de comparación con una antena trabajando en la misma banda de frecuencia y de similares características. CONCLUSIONES Este trabajo demuestra que con el empleo de la herramienta algoritmos genéticos y búsqueda directa del software MATLAB se logra la optimización multiobjetivo del bloqueo central en los sistemas de doble reflector, 68

Propuesta de herramientas para la integración de datos

Propuesta de herramientas para la integración de datos 1(III), 5-13, 2012 Propuesta de herramientas para la integración de datos Debora Oliva Alfonso Correo electrónico:doliva@udio.cujae.edu.cu Thais Pineda Alfonso Correo electrónico:tpineda@udio.cujae.edu.cu

Más detalles

La integración de información. Presente y futuro de la empresa moderna

La integración de información. Presente y futuro de la empresa moderna La integración de información. Presente y futuro de la empresa moderna Ing. Josue Carralero Iznaga, MSc. ISPJAE, Facultad de Ingeniería Informática, Departamento de Ingeniería de Software. Complejo de

Más detalles

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio).

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio). 1 GLOSARIO A continuación se definen, en orden alfabético, los conceptos básicos que se han abordado a lo largo del desarrollo de la metodología para la gestión de requisitos bajo la Arquitectura Orientada

Más detalles

Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta

Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta (Business Process Management, BPM). La Gerencia de los Procesos del Negocio: Se define como: "integración

Más detalles

COMPONENTES DE SERVICIOS WEB A PARTIR DE SERVICIOS EN UDDI: VERSIÓN EXTENDIDA. Instituto Tecnológico de Nogales (ITN)

COMPONENTES DE SERVICIOS WEB A PARTIR DE SERVICIOS EN UDDI: VERSIÓN EXTENDIDA. Instituto Tecnológico de Nogales (ITN) COMPONENTES DE SERVICIOS WEB A PARTIR DE SERVICIOS EN UDDI: VERSIÓN EXTENDIDA 1 Ismael Armando Zúñiga Félix y 2 Luicyana Pérez Figueroa 1,2 División de Estudios de Posgrado e Investigación (DEPI), Instituto

Más detalles

RESUMEN DE LA SOLUCIÓN CA ERwin Modeling. Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial?

RESUMEN DE LA SOLUCIÓN CA ERwin Modeling. Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial? RESUMEN DE LA SOLUCIÓN CA ERwin Modeling Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial? CA ERwin Modeling ofrece una perspectiva centralizada sobre las definiciones

Más detalles

Una propuesta arquitectónica para integrar una herramienta BPMS y un sistema de gestión de reglas de negocio. Contexto

Una propuesta arquitectónica para integrar una herramienta BPMS y un sistema de gestión de reglas de negocio. Contexto Una propuesta arquitectónica para integrar una herramienta BPMS y un sistema de gestión de reglas de negocio Parra Julián Matias 1, Mg. Patricia Bazán 2, Lic. José Martinez Garro 3 1 3 Facultad de Informática

Más detalles

UNIVERSIDAD CENTROCCIDENTAL "LISANDRO ALVARADO" DECANATO DE CIENCIAS Y TECNOLOGIA MAESTRIA EN CIENCIAS DE LA COMPUTACION MENCION REDES DE COMPUTADORAS

UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO DECANATO DE CIENCIAS Y TECNOLOGIA MAESTRIA EN CIENCIAS DE LA COMPUTACION MENCION REDES DE COMPUTADORAS UNIVERSIDAD CENTROCCIDENTAL "LISANDRO ALVARADO" DECANATO DE CIENCIAS Y TECNOLOGIA MAESTRIA EN CIENCIAS DE LA COMPUTACION MENCION REDES DE COMPUTADORAS MODELO DE GESTION WBEM PARA ADMINISTRACION DE REDES

Más detalles

Universidad de Guadalajara

Universidad de Guadalajara Universidad de Guadalajara Centro Universitario de Ciencias Económico-Administrativas Maestría en Tecnologías de Información Ante-proyecto de Tésis Selection of a lightweight virtualization framework to

Más detalles

Herramientas de Software que posibilitan el BPM

Herramientas de Software que posibilitan el BPM Qué es BPM? BPM (Business Process Management) no es solamente una tecnología, sino en términos generales, una disciplina gerencial que trata a los procesos como bienes tangibles que contribuyen al desempeño

Más detalles

ArcGIS. Catálogo de cursos

ArcGIS. Catálogo de cursos ArcGIS Catálogo de cursos 2015 ArcGIS Desktop ArcGIS Desktop ArcGIS 1: Introduction to GIS (10.2)... 2 ArcGIS 2: Essential Workflows (10.2)... 3 ArcGIS 3: Performing Analysis (10.2)... 3 Building Geodatabases

Más detalles

Service Oriented Architecture

Service Oriented Architecture Service Oriented Architecture Isaac Gutiérrez Gómez, Salvador Otón Tortosa Universidad de Alcalá, Departamento de Ciencias de la Computación, 28871 Alcalá de Henares, Spain igutierrez09@yahoo.es, salvador.oton@uah.es

Más detalles

Soluciones de virtualización de datos

Soluciones de virtualización de datos Soluciones de virtualización de datos Cómo obtener una ventaja competitiva gracias al uso de los datos El contexto de cambio vertiginoso en las diferentes actividades de negocio requiere en la actualidad

Más detalles

Programación en Capas.

Programación en Capas. Programación en Capas. Ricardo J. Vargas Del Valle Universidad de Costa Rica, Ciencias de Computación e Informática, San José, Costa Rica, 506 ricvargas@gmail.com Juan P. Maltés Granados Universidad de

Más detalles

Introducción. http://www.microsoft.com/spanish/msdn/comunidad/mtj.net/voices/art143.asp - Gráfica tomada del Artículo de José David Parra

Introducción. http://www.microsoft.com/spanish/msdn/comunidad/mtj.net/voices/art143.asp - Gráfica tomada del Artículo de José David Parra Si en otros tiempos el factor decisivo de la producción era la tierra y luego lo fue el capital... hoy día el factor decisivo es cada vez más el hombre mismo, es decir, su conocimiento... Juan Pablo II

Más detalles

Documentos utilizados en la gestión de la integración del proyecto de salud

Documentos utilizados en la gestión de la integración del proyecto de salud ARTÍCULO ORIGINAL Documentos utilizados en la gestión de la integración del proyecto de salud Documents used in the management of health integration project Lic. Caridad Guzmán Vitón, I MSc. Dr. Denis

Más detalles

Primer Taller sobre Aplicaciones Web para la Gestión de Contenidos

Primer Taller sobre Aplicaciones Web para la Gestión de Contenidos Primer Taller sobre Aplicaciones Web para la Gestión de Contenidos Título: Arquitecturas Orientadas a Servicios en los Sistemas de Gestión de Contenidos. Autor: Keilyn Rodríguez Perojo Institución: INFOMED

Más detalles

Facultad de Ingeniería Informática. Informe de las Prácticas Profesionales

Facultad de Ingeniería Informática. Informe de las Prácticas Profesionales Facultad de Ingeniería Informática CEIS Informe de las Prácticas Profesionales Título: Informatización de los Procesos de Negocio Solicitud de Trabajo Extra laboral en el CITI, a través de la BPMS BizAgi

Más detalles

Bases de Datos Especializadas

Bases de Datos Especializadas Bases de Datos Especializadas BASES DE DATOS ESPECIALIZADAS 1 Sesión No. 12 Nombre: DBMS y Tecnología Web Objetivo: Al término de la sesión, el alumno identificará la integración entre DBMS y la web. Contextualización

Más detalles

La gestión de objetos digitales: una aplicación para la e-ciencia

La gestión de objetos digitales: una aplicación para la e-ciencia La gestión de objetos digitales: una aplicación para la e-ciencia PONENCIAS Digital object management: an application for e-science Luis Zorita Vicente y Alicia López Medina Resumen El nuevo entorno de

Más detalles

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización Página 1 de 16 CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC304_3 Versión 5 Situación RD 1201/2007 Actualización Competencia

Más detalles

VENTAJAS DEL USO DE HERRAMIENTAS DE ETL SOBRE ANSI SQL

VENTAJAS DEL USO DE HERRAMIENTAS DE ETL SOBRE ANSI SQL VENTAJAS DEL USO DE HERRAMIENTAS DE ETL SOBRE ANSI SQL LIC. DIEGO KRAUTHAMER PROFESO R ADJUNTO INTERINO UNIVERSIDAD ABIERTA INTERMERICANA (UAI) SEDE BUENOS AIRES COMISION DE INVESTIGACION Abstract El presente

Más detalles

Plantilla para las VIII Jornadas de SIG libre.

Plantilla para las VIII Jornadas de SIG libre. VIII JORNADAS DE SIG LIBRE Plantilla para las VIII Jornadas de SIG libre. M. Arias de Reyna Domínguez (1) (1) Ingeniera Informática, GeoCat bv, Bennekom, Países Bajos, maria.arias@geocat.net RESUMEN GeoCat

Más detalles

ESCUELA POLITÉCNICA DEL EJÉRCITO

ESCUELA POLITÉCNICA DEL EJÉRCITO ESCUELA POLITÉCNICA DEL EJÉRCITO VICERRECTORADO ACADÉMICO ASIGNATURA: TECNOLOGÍAS DE SOFTWARE PARA ELECTRONICA II DEPARTAMENTO: ELECTRICA Y ELECTRÓNICA NIVEL: SEXTO CRÉDITOS: 4 CÓDIGO: CARRERAS: ELECTRÓNICA

Más detalles

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web.

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web. Microsoft Office SharePoint Server 2007 es un conjunto integrado de características de servidor que puede contribuir a mejorar la eficacia organizativa al ofrecer completas funciones de administración

Más detalles

RESUMEN DE TRABAJO DE GRADO

RESUMEN DE TRABAJO DE GRADO RESUMEN DE TRABAJO DE GRADO Universidad Nueva Esparta. Facultad de Ciencias de la Informática. Escuela de Computación. Autores: Barrios M. Cesar E, Céspedes Nelson Tutor: Gabriel Méndez Titulo: Implantación

Más detalles

Service Oriented Architecture

Service Oriented Architecture Programación Concurrente y Distribuida Ingeniería en Informática Service Oriented Architecture José Carlos Cortizo Pérez josecarlos.cortizo@uem.es http://www.esp.uem.es/jccortizo D. Sistemas Informáticos

Más detalles

Introducción a Oracle Identity Management Informe Ejecutivo de Oracle Junio de 2008

Introducción a Oracle Identity Management Informe Ejecutivo de Oracle Junio de 2008 Introducción a Oracle Identity Management Informe Ejecutivo de Oracle Junio de 2008 Introducción a Oracle Identity Management INTRODUCCIÓN Oracle Identity Management, la mejor suite de soluciones para

Más detalles

HERRAMIENTA WEB PARA LA ELABORACIÓN DE TEST BAJO LA ESPECIFICACIÓN IMS-QTI

HERRAMIENTA WEB PARA LA ELABORACIÓN DE TEST BAJO LA ESPECIFICACIÓN IMS-QTI HERRAMIENTA WEB PARA LA ELABORACIÓN DE TEST BAJO LA ESPECIFICACIÓN IMS-QTI Muñoz-Bouchard J.P., y Álvarez-González L.A. jp.knap@gmail.com@gmail.com, lalvarez@inf.uach.cl Grupo de Investigación en Tecnologías

Más detalles

SOFTWARE ARCHITECTURE FOR SUPPORT SERVICES INFORMATION TECHNOLOGY BASED WEB SERVICES

SOFTWARE ARCHITECTURE FOR SUPPORT SERVICES INFORMATION TECHNOLOGY BASED WEB SERVICES Recibido: 09 de mayo de 2012 Aceptado: 20 de mayo de 2012 SOFTWARE ARCHITECTURE FOR SUPPORT SERVICES INFORMATION TECHNOLOGY BASED WEB SERVICES ARQUITECTURA DE SOFTWARE PARA EL SERVICIO DE SOPORTE DE TECNOLOGÍA

Más detalles

AUTOMATIZACION DE PROCESOS DE DESARROLLO DE SOFTWARE DEFINIDOS CON SPEM

AUTOMATIZACION DE PROCESOS DE DESARROLLO DE SOFTWARE DEFINIDOS CON SPEM AUTOMATIZACION DE PROCESOS DE DESARROLLO DE SOFTWARE DEFINIDOS CON SPEM Fabio A. Zorzan y Daniel Riesco Resumen Esta línea de investigación propone una alternativa para lograr la automatización de la gestión

Más detalles

LINEAMIENTOS GENERALES PARA LA IMPLEMENTACIÓN DE PROCESOS ELECTRÓNICOS

LINEAMIENTOS GENERALES PARA LA IMPLEMENTACIÓN DE PROCESOS ELECTRÓNICOS LINEAMIENTOS GENERALES PARA LA IMPLEMENTACIÓN DE PROCESOS LINEAMIENTOS GENERALES PARA LA IMPLEMENTACIÓN DE PROCESOS Ministerio de Tecnologías de la Información y las Comunicaciones Programa de Gobierno

Más detalles

Innovación para su Contact Center. Business Rules. Personalice al máximo la experiencia del cliente, aplicando reglas de negocio

Innovación para su Contact Center. Business Rules. Personalice al máximo la experiencia del cliente, aplicando reglas de negocio Innovación para su Contact Center Business Rules Personalice al máximo la experiencia del cliente, aplicando reglas de negocio ÍNDICE DATA SHEET 1. Introducción... 4 2. Características principales... 4

Más detalles

Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado

Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado 1. Introducción Unified Modeling Languaje Fuente: Booch- Jacobson-Rumbauch y diversos sitios Internet, entre otros:

Más detalles

Tema 5: Integración de Datos Distribuidos

Tema 5: Integración de Datos Distribuidos Tema 5: Integración de Datos Distribuidos Integración de Datos Distribuidos El problema de la integración de datos distribuidos consiste en integrar datos de fuentes distribuidas, heterogéneas y posiblemente

Más detalles

JAVA EE 5. Arquitectura, conceptos y ejemplos.

JAVA EE 5. Arquitectura, conceptos y ejemplos. JAVA EE 5. Arquitectura, conceptos y ejemplos. INTRODUCCIÓN. MODELO DE LA APLICACIÓN JEE5. El modelo de aplicación Java EE define una arquitectura para implementar servicios como lo hacen las aplicaciones

Más detalles

Mejora en la Administración de Procesos de Desarrollo de Software Tipo SPEM Automatizados Bajo Workflow

Mejora en la Administración de Procesos de Desarrollo de Software Tipo SPEM Automatizados Bajo Workflow Mejora en la Administración de Procesos de Desarrollo de Software Tipo SPEM Automatizados Bajo Workflow Fabio A. Zorzan 1 y Daniel Riesco 2 Resumen Esta línea de investigación pretende aportar a la mejora

Más detalles

GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES

GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES Revista de investigación Editada por Área de Innovación y Desarrollo, S.L. Envío: 12-07-2013 Aceptación: 4-08-2013 Publicación: 30-09-2013 GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES J2ME

Más detalles

Facilite la Gestión, Manejo y Distribución de Información en su Web Site. WBC V2 Web Content Management

Facilite la Gestión, Manejo y Distribución de Información en su Web Site. WBC V2 Web Content Management Facilite la Gestión, Manejo y Distribución de Información en su Web Site. WBC V2 Web Content Management Web Business Creator Content Management Introducción Muchas empresas basan sus estrategias de comunicación

Más detalles

Metodología de Ingeniería del Software para el desarrollo y mantenimiento de sistemas de información del Gobierno de Extremadura

Metodología de Ingeniería del Software para el desarrollo y mantenimiento de sistemas de información del Gobierno de Extremadura Metodología de Ingeniería del Software para el desarrollo y mantenimiento de sistemas de información del Gobierno de Extremadura Página 1 de 23 Índice del Documento 1.- Introducción... Página 4 2.- Propuesta

Más detalles

Evaluación Plataforma Educativa. Por. Ángela Maria Valderrama David Herney Bernal. Universidad de Antioquia. Julio - Octubre de 2004

Evaluación Plataforma Educativa. Por. Ángela Maria Valderrama David Herney Bernal. Universidad de Antioquia. Julio - Octubre de 2004 Evaluación Plataforma Educativa Por Ángela Maria Valderrama David Herney Bernal Julio - Octubre de 2004 Página 1 de 24 Introducción Somos conscientes de que parte de las exigencias de la sociedad actual

Más detalles

de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio?

de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio? RESUMEN DE LA SOLUCIÓN CA ERwin Modeling de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio? agility made possible CA ERwin Modeling ofrece un entorno de modelado

Más detalles

Acoplamiento e interoperabilidad

Acoplamiento e interoperabilidad Máster Universitario en Ingeniería Informá3ca Acoplamiento e interoperabilidad Sistemas de Información Orientados a Servicios RODRIGO SANTAMARÍA 2 Acoplamiento débil Tipos de acoplamiento Cabalgando el

Más detalles

Arquitectura de Empresa. Visión General

Arquitectura de Empresa. Visión General IX Congreso de Ingeniería de Organización Gijón, 8 y 9 de septiembre de 2005 de Empresa. Visión General Llanos Cuenca González 1, Ángel Ortiz Bas 1, Andrés Boza García 1 1 Centro de Investigación Gestión

Más detalles

Big Data y Manejo de Datos Maestros

Big Data y Manejo de Datos Maestros Objetivos 1.- El alumno identificará el contexto, la problemática y utilizará diversas herramientas de Manejo de Datos Maestros. Esto permitirá formarse un criterio sobre cómo implementar un proyecto de

Más detalles

Soluciones Embarcadero

Soluciones Embarcadero Soluciones Embarcadero para Base de Datos Danysoft Representante exclusivo en la península ibérica ADMINISTRACION DE DATOS Herramientas innovadoras de modelado de datos para la arquitectura de la información

Más detalles

desarrollo. Dentro del desarrollo de la tesis el proceso de modelado del sistema fue hecho con el

desarrollo. Dentro del desarrollo de la tesis el proceso de modelado del sistema fue hecho con el Capitulo II. Análisis de herramientas y tecnologías de desarrollo. Dentro del desarrollo de la tesis el proceso de modelado del sistema fue hecho con el lenguaje de Modelo de Objetos llamado UML (Unified

Más detalles

BOLETÍN DE NOVEDADES Barcelona, junio de 2008

BOLETÍN DE NOVEDADES Barcelona, junio de 2008 BOLETÍN DE NOVEDADES Barcelona, junio de 2008 Introducción El objeto de este documento es presentar y describir brevemente las principales actuaciones en los últimos meses de Carver en algunos de sus clientes,

Más detalles

Productos Oracle para gobierno de SOA. Oracle White Paper Mayo 2009

Productos Oracle para gobierno de SOA. Oracle White Paper Mayo 2009 Productos Oracle para gobierno de SOA Oracle White Paper Mayo 2009 Productos Oracle para gobierno de SOA RESUMEN EJECUTIVO La solución de Oracle SOA Governance es un elemento clave de la estrategia de

Más detalles

Sistema para la reservación de tiempo de máquina en los laboratorios de la Universidad de las Ciencias Informáticas

Sistema para la reservación de tiempo de máquina en los laboratorios de la Universidad de las Ciencias Informáticas Tipo de artículo: Artículo original Temática: Desarrollo de aplicaciones informáticas Recibido: 12/01/2013 Aceptado: 13/09/2013 Publicado: 10/12/2013 Sistema para la reservación de tiempo de máquina en

Más detalles

CAPÍTULO IV COMPARACIÓN DE LAS DOS PRINCIPALES HERRAMIENTAS ALM.

CAPÍTULO IV COMPARACIÓN DE LAS DOS PRINCIPALES HERRAMIENTAS ALM. CAPÍTULO IV COMPARACIÓN DE LAS DOS PRINCIPALES HERRAMIENTAS ALM. 4.1. ANÁLISIS COMPARATIVO DE LAS DOS HERRAMIENTAS ALM. Existen muchos factores que se debe tomar en cuenta al momento de elegir entre herramientas

Más detalles

INTEROPERABILIDAD ENTRE LOS MARCOS DE GESTION SNMP Y CORBA (GATEWAY)

INTEROPERABILIDAD ENTRE LOS MARCOS DE GESTION SNMP Y CORBA (GATEWAY) UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO DECANATO DE CIENCIA Y TECNOLOGIA MAESTRIA CIENCIA DE LA COMPUTACION MENCION REDES DE COMPUTADORAS INTEROPERABILIDAD ENTRE LOS MARCOS DE GESTION SNMP Y CORBA

Más detalles

1 Escuela Politécnica del Ejército, Ecuador, mauroqs@gmail.com 2 Escuela Politécnica del Ejército, Ecuador, alejosbr@hotmail.com

1 Escuela Politécnica del Ejército, Ecuador, mauroqs@gmail.com 2 Escuela Politécnica del Ejército, Ecuador, alejosbr@hotmail.com ANÁLISIS, DISEÑO E IMPLEMENTACIÓN DE UNA APLICACIÓN WEB ACADÉMICO-ADMINISTRATIVA PARA EL COLEGIO MARÍA DE NAZARET, MEDIANTE EL USO DE TECNOLOGÍAS SOFTWARE LIBRE Mauricio Quilachamín Simbaña, Alejandro

Más detalles

CUALIFICACIÓN PROGRAMACIÓN DE SISTEMAS INFORMÁTICOS PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización

CUALIFICACIÓN PROGRAMACIÓN DE SISTEMAS INFORMÁTICOS PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización Página 1 de 17 CUALIFICACIÓN PROGRAMACIÓN DE SISTEMAS INFORMÁTICOS PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC303_3 Versión 5 Situación RD 1201/2007 Actualización Competencia

Más detalles

SERVICIOS: EXPLORACIONES EN SOA y WEB.

SERVICIOS: EXPLORACIONES EN SOA y WEB. SERVICIOS: EXPLORACIONES EN SOA y WEB. López, G. 1 ; Jeder, I 1.; Echeverría, A 1.; Grossi, M.D. 2 ; Servetto, A 2.; Fierro, P. (PhD.) 3 1. Laboratorio de Informática de Gestión - Facultad de Ingeniería.

Más detalles

Programación orientada a

Programación orientada a Programación orientada a objetos con Java Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria corcuerp@unican.es Objetivos Presentar los conceptos de la programación

Más detalles

Especificación de la secuencia de mensajes que se han de intercambiar. Especificación del formato de los datos en los mensajes.

Especificación de la secuencia de mensajes que se han de intercambiar. Especificación del formato de los datos en los mensajes. SISTEMAS DISTRIBUIDOS DE REDES 2.- MODELOS ORIENTADOS A OBJETOS DISTRIBUIDOS 2.1. Tecnologías de sistemas distribuidos Para la implementación de sistemas distribuidos se requiere de tener bien identificados

Más detalles

INTEGRACION DE BASES DE DATOS EN LA WEB

INTEGRACION DE BASES DE DATOS EN LA WEB 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: INTEGRACION DE BASES DE DATOS EN LA WEB Ingeniería en Tecnologías de la Información y Comunicaciones DSD-1202 SATCA1

Más detalles

Un aporte a la sociedad del conocimiento, primeras aplicaciones de la Red Cubana de Ciencias.

Un aporte a la sociedad del conocimiento, primeras aplicaciones de la Red Cubana de Ciencias. Un aporte a la sociedad del conocimiento, primeras aplicaciones de la Red Cubana de Ciencias. MSc. Beatriz Alonso Becerra 1 Dr.C. Francisco A. Fernández Nodarse 2, 1.-CITMATEL, Ministerio de Ciencia, Tecnología

Más detalles

Implementación de Procesos Business Process Management BPM Services Oriented Architecture SOA

Implementación de Procesos Business Process Management BPM Services Oriented Architecture SOA Implementación de Procesos Business Process Management BPM Services Oriented Architecture SOA Título Área específica de la publicación 2 Implementación de Procesos Business Process Management BPM Services

Más detalles

Cuba. Pérez González, Luis Orlando Microsoft Excel: una herramienta para la investigación. MediSur, vol. 4, núm. 3, 2006, pp. 68-71.

Cuba. Pérez González, Luis Orlando Microsoft Excel: una herramienta para la investigación. MediSur, vol. 4, núm. 3, 2006, pp. 68-71. MediSur E-ISSN: 1727-897X mikhail@infomed.sld.cu Universidad de Ciencias Médicas de Cienfuegos Cuba Pérez González, Luis Orlando Microsoft Excel: una herramienta para la investigación. MediSur, vol. 4,

Más detalles

Para el desarrollo de aplicaciones Web se han generado múltiples tecnologías entre ellas se encuentran:

Para el desarrollo de aplicaciones Web se han generado múltiples tecnologías entre ellas se encuentran: Desarrollo de aplicaciones y servicios web Cinxgler Mariaca Minda Cinxgler@udistrital.edu.co Presidente Capítulo de Computadores Rama IEEE Universidad Distrital Francisco José de Caldas Resumen: Este articulo

Más detalles

La dirección integrada por proyectos (Project Management)

La dirección integrada por proyectos (Project Management) La dirección integrada por proyectos (Project Management) Apoyada por las tecnologías de la informática y las comunicaciones en el marco del perfeccionamiento empresarial. 1. Presentación 2. Uso de las

Más detalles

CERTIFICACIÓN PROYECTO SIGPRE

CERTIFICACIÓN PROYECTO SIGPRE CERTIFICACIÓN Certifico que el Señor Edwin, egresado de la carrera de Ingeniería en Sistemas Computacionales ha desarrollado en su totalidad el presente proyecto de grado Automatización del Proceso de

Más detalles

Ingeniería de Software

Ingeniería de Software Ingeniería de Software MSDN Ingeniería de Software...1 Ingeniería del Software_/_ Ingeniería y Programación...1 Análisis de Requerimientos...2 Especificación...3 Diseño...4 Desarrollo en Equipo...5 Mantenimiento...6

Más detalles

SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio

SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio Arturo Cepeda Pérez, Sergio Bravo Martín, Francisco José García Peñalvo Universidad de Salamanca, Facultad

Más detalles

Módulo Profesional 01: Bases de datos (código: 0484).

Módulo Profesional 01: Bases de datos (código: 0484). Módulo Profesional 01: Bases de datos (código: 0484). Actividades de enseñanza-aprendizaje que permiten alcanzar los objetivos del módulo. Interpretar diseños lógicos de bases de datos. Realizar el diseño

Más detalles

La Arquitectura de las Máquinas Virtuales.

La Arquitectura de las Máquinas Virtuales. La Arquitectura de las Máquinas Virtuales. La virtualización se ha convertido en una importante herramienta en el diseño de sistemas de computación, las máquinas virtuales (VMs) son usadas en varias subdiciplinas,

Más detalles

Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008

Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008 Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008 Introducción Aunque la estrategia de adquisiciones que Oracle ha seguido en los últimos años siempre ha buscado complementar y fortalecer nuestra oferta

Más detalles

Integración de Aplicaciones de Negocio ÍNDICE: Presentación Integración de Aplicaciones de Negocio 01 Infraestructura Tecnológica de Integración 02 Servicios Web 03 Tecnología de portal 04 Arquitectura

Más detalles

Prototipo de virtualización de un caso de estudio para fundamentar la virtualización en el SNEST

Prototipo de virtualización de un caso de estudio para fundamentar la virtualización en el SNEST L u n a G a r c í a F e l i p e - M a r t í n e z Z a m u d i o M a r í a d e L o u r d e s V Í N C U L O S J U L I O D E 2 0 1 3 VOLUMEN 10 NÚMERO 2 Prototipo de virtualización de un caso de estudio para

Más detalles

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL Página 1 de 21 CUALIFICACIÓN DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC154_3 Versión 5 Situación RD 1087/2005 Actualización

Más detalles

INFORME TÉCNICO ESTANDARIZACIÓN DE LOS SOFTWARES DE LA MARCA MICROSOFT. 3. Cargos : Gerente de Sistemas (e) Analista de Sistemas Gestor de Proyectos

INFORME TÉCNICO ESTANDARIZACIÓN DE LOS SOFTWARES DE LA MARCA MICROSOFT. 3. Cargos : Gerente de Sistemas (e) Analista de Sistemas Gestor de Proyectos INFORME TÉCNICO ESTANDARIZACIÓN DE LOS SOFTWARES DE LA MARCA MICROSOFT I-OS-39-2015 1. Nombre del Área : Oficina de Sistemas 2. Responsables de la Evaluación : Eduardo Vásquez Díaz Ronald Mallqui Meza

Más detalles

Universidad Autónoma Metropolitana

Universidad Autónoma Metropolitana Universidad Autónoma Metropolitana Unidad Azcapotzalco División de Ciencias Básicas e Ingeniería Licenciatura en Ingeniería en Computación Propuesta de Proyecto Terminal Composición de servicios web para

Más detalles

Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team

Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team Rafael Rodríguez-Puente 1, Eliana B. Ril-Valentin 2 1 Departamento de Técnicas de

Más detalles

Editor espacial basado en udig. El caso de la Infraestructura de Datos Espaciales de Diputación Foral de Gipuzkoa.

Editor espacial basado en udig. El caso de la Infraestructura de Datos Espaciales de Diputación Foral de Gipuzkoa. II JORNADAS DE SIG LIBRE Editor espacial basado en udig. El caso de la Infraestructura de Datos Espaciales de Diputación Foral de Gipuzkoa. J. Sánchez Ramírez [jsanchez@genasys.com] (1),Lewis Clark [lclark@genasys.com]

Más detalles

Curso 5007437. Capítulo 4: Arquitectura Orientada a Servicios. Conceptos y estándares de arquitecturas orientadas a servicios Web Curso 2006/2007

Curso 5007437. Capítulo 4: Arquitectura Orientada a Servicios. Conceptos y estándares de arquitecturas orientadas a servicios Web Curso 2006/2007 Curso 5007437 Conceptos y estándares de arquitecturas orientadas a servicios Web Curso 2006/2007 Capítulo 4: Arquitectura Orientada a Servicios Pedro Álvarez alvaper@unizar.es José Ángel Bañares banares@unizar.es

Más detalles

5 pilares de la gestión de API con CA Layer 7

5 pilares de la gestión de API con CA Layer 7 Introducción: Gestión de la nueva empresa abierta Materialización de las oportunidades de la economía de API En los sectores industriales, los límites de la empresa tradicional están desapareciendo, pues

Más detalles

ARQUITECTURAS ORIENTADAS A SERVICIOS. SOA en la Seguridad Social. 48 boletic

ARQUITECTURAS ORIENTADAS A SERVICIOS. SOA en la Seguridad Social. 48 boletic ARQUITECTURAS ORIENTADAS A SERVICIOS SOA en la Seguridad Social por Mario triguero garrido 48 boletic El deber de ofrecer al ciudadano el mejor servicio ha sido siempre la motivación por la cual la Gerencia

Más detalles

Curso de Pentaho. Business Intelligence and Data Warehousing with Pentaho

Curso de Pentaho. Business Intelligence and Data Warehousing with Pentaho Curso de Pentaho Business Intelligence and Data Warehousing with Pentaho Descripción: Pentaho proporciona inteligencia de negocios (BI) y soluciones de almacenamiento de datos (dataware house) a una fracción

Más detalles

MIGRACIÓN DE UNA ARQUITECTURA TRADICIONAL A UNA ARQUITECTURA ORIENTADA A SERVICIOS (SOA)

MIGRACIÓN DE UNA ARQUITECTURA TRADICIONAL A UNA ARQUITECTURA ORIENTADA A SERVICIOS (SOA) MIGRACIÓN DE UNA ARQUITECTURA TRADICIONAL A UNA ARQUITECTURA ORIENTADA A SERVICIOS (SOA) Nelson Beltran Galvis Grupo de Investigación de Ingeniería de Software, Universidad Francisco de Paula Santander.

Más detalles

Propuesta de proceso de evaluación de la calidad del software educativo

Propuesta de proceso de evaluación de la calidad del software educativo Propuesta de proceso de evaluación de la calidad del software educativo Osiris Perez Moya 1, Rislaidy Pérez Ramos 2 Universidad de las Ciencias Informáticas, Ciudad de la Habana (C.P. 10800) Cuba 1,2 {operez,

Más detalles

Boletín de Asesoría Gerencial SOA: enfoque técnico orientado a procesos

Boletín de Asesoría Gerencial SOA: enfoque técnico orientado a procesos Espiñeira, Sheldon y Asociados No. 4-2010 Contenido Haga click en los enlaces para navegar a través del documento Haga click en los enlaces para llegar directamente a cada sección 4 Introducción 4 Qué

Más detalles

Componente para la transformación a estándares de modelos de procesos de negocio. Modelos de la BPMS Oracle

Componente para la transformación a estándares de modelos de procesos de negocio. Modelos de la BPMS Oracle Instituto Superior Politécnico José Antonio Echeverría Facultad de Ingeniería Informática Componente para la transformación a estándares de modelos de procesos de negocio. Modelos de la BPMS Oracle Informe

Más detalles

HaD, herramienta de apoyo docente HaD, support teaching tool

HaD, herramienta de apoyo docente HaD, support teaching tool COMPUTACIÓN Y MATEMÁTICA APLICADA APLLIED COMPUTATION AND MATHEMATICS SOFTWARE HaD, herramienta de apoyo docente HaD, support teaching tool Lázaro Basiliano García Gutiérrez 1, Jorge L. López Rodríguez

Más detalles

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Programa de Capacitación y Certificación. INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Contenido PERFIL DE UN ESPECIALISTA EN BASES DE DATOS.... 3 6231. MANTENIENDO UNA BASE DE DATOS DE SQL SERVER 2008

Más detalles

Capítulo I. Marco Teórico

Capítulo I. Marco Teórico 1 Capítulo I. Marco Teórico 1. Justificación Hoy en día existe una gran diversidad de aplicaciones que corren sobre la World Wide Web (WWW o Web), y cada una orientada a un fin en particular, el cuál depende

Más detalles

BPM y BPEL como herramientas de administración de procesos de negocio

BPM y BPEL como herramientas de administración de procesos de negocio BPM y BPEL como herramientas de administración de procesos de negocio BPM and BPEL as business process management tools Alejandro León Mora* Sandra Bibiana Zárate Zárate** Resumen Este artículo trata sobre

Más detalles

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas José Antonio Peláez Ruiz Ministerio de Administraciones Públicas Alfonso Martín Murillo BG&S

Más detalles

Introducción a nivaria{ ceva Conceptos Generales. Nivaria Innova

Introducción a nivaria{ ceva Conceptos Generales. Nivaria Innova Introducción a nivaria{ ceva Conceptos Generales Innova Junio de 2009 ÍNDICE 01. Introducción a nivaria{ ceva 1 01.1. Orientado al Usuario 1 02. Módulos de la Plataforma 2 02.1. Web Content Management

Más detalles

I. E. S. Cristóbal de Monroy. DEPARTAMENTO: Informática. MATERIA: Aplicaciones Web. NIVEL: 2º Sistemas Microinformáticos y Redes

I. E. S. Cristóbal de Monroy. DEPARTAMENTO: Informática. MATERIA: Aplicaciones Web. NIVEL: 2º Sistemas Microinformáticos y Redes DEPARTAMENTO: Informática MATERIA: Aplicaciones Web NIVEL: 2º Sistemas Microinformáticos y Redes 1. Objetivos. Competencias Profesionales, Personales y Sociales 1.1 Objetivos del ciclo formativo Según

Más detalles

El valor de una infraestructura optimizada

El valor de una infraestructura optimizada El valor de una infraestructura optimizada El Estudio del Estado del CIO 2006 (CIO Research, 2006) muestra que los CIO están buscando, cada vez más, introducir, de forma proactiva, soluciones de tecnología

Más detalles

PROCESO DE ASEGURAMIENTO DE LA CALIDAD EN LOS PROYECTOS DE DESARROLLO DE APLICACIONES PARA DISPOSITIVOS MÓVILES EN LA FRG

PROCESO DE ASEGURAMIENTO DE LA CALIDAD EN LOS PROYECTOS DE DESARROLLO DE APLICACIONES PARA DISPOSITIVOS MÓVILES EN LA FRG Revista de investigación Editada por Área de Innovación y Desarrollo, S.L. Envío: 01-03-2013 Aceptación: 12-03-2013 Publicación: 28-03-2013 PROCESO DE ASEGURAMIENTO DE LA CALIDAD EN LOS PROYECTOS DE DESARROLLO

Más detalles

Centro de Ingeniería de Software I+D Universidad Autónoma de Ciudad Juárez Instituto de Ingeniería y Tecnología. luis felipe fernández mtz.

Centro de Ingeniería de Software I+D Universidad Autónoma de Ciudad Juárez Instituto de Ingeniería y Tecnología. luis felipe fernández mtz. Centro de Ingeniería de Software I+D Universidad Autónoma de Ciudad Juárez Instituto de Ingeniería y Tecnología luis felipe fernández mtz. El estado del arte de la enseñanza de la AS: A vuelo de pájaro

Más detalles

WebRatio. Otro camino para el BPM. Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8

WebRatio. Otro camino para el BPM. Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8 WebRatio Otro camino para el BPM Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8 El BPM El BPM (Business Process Management) no es solo una tecnología, además a grandes rasgos es una disciplina

Más detalles

Resumen. Palabras Claves: J2EE, AJAX, IEEE, GOLD, patrones, análisis, diseño, modelos, persistencia. Abstract

Resumen. Palabras Claves: J2EE, AJAX, IEEE, GOLD, patrones, análisis, diseño, modelos, persistencia. Abstract Implementación de un portal web para la automatización del proceso de consultorías de mentores GOLD de la Región Latinoamericana del IEEE (R9), utilizando arquitectura Java 2 Enterprise Edition - J2EE

Más detalles

www. magmasoft.com.ec

www. magmasoft.com.ec www.magmasoft.com.ec ÍNDICE ÍNDICE Empresa y Servicios Productos y servicios Enterprise Content Management (ECM) Ephesoft Alfresco BPM RedHat BPM Bonita MIDDLEWARE JBoss JBoss Fuse Service Networks JBoss

Más detalles

Características Generales de AuraPortal

Características Generales de AuraPortal 1 BPMS 2 Intranet 3 Document Management 4 Content Management 5 Online Commerce 6 Business Rules Documento descriptivo Características Generales de AuraPortal Esta publicación pertenece al Servicio de Documentación

Más detalles