XXII ESCUELA DE VERANO DE INFORMÁTICA

Tamaño: px
Comenzar la demostración a partir de la página:

Download "XXII ESCUELA DE VERANO DE INFORMÁTICA"

Transcripción

1 XXII ESCUELA DE VERANO DE INFORMÁTICA LA INVESTIGACIÓN E INNOVACIÓN EN TIC COMO MOTOR DE CASTILLA-LA MANCHA Albacete, 11 y 12 de Julio de 2012 Editores: LUIS OROZCO BARBOSA MARÍA DOLORES LOZANO PÉREZ

2

3 XXII Escuela de Verano de Informática LA INVESTIGACIÓN E INNOVACIÓN EN LAS TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN COMO MOTOR DE CASTILLA-LA MANCHA Editores: LUIS OROZCO BARBOSA MARÍA DOLORES LOZANO PÉREZ

4 Actas de la XXII Escuela de Verano de Informática Albacete, 11 y 12 de Julio de 2012 Cada autor mantiene los derechos de su trabajo ISBN-10: ISBN-13: Nº Registro: Publicado por: Organizadores EVI Universidad de Castilla-La Mancha

5 Presentación Un año más, el Departamento de Sistemas Informáticos de la Universidad de Castilla-La Mancha mantiene su participación en el programa de Cursos de Verano de la UCLM, y con ello su compromiso de mostrar a la sociedad las tendencias actuales en algunos de los temas de gran actualidad e importancia dentro del campo de la Informática poniendo especial hincapié en esta ocasión a dar cuenta de la contribución de las actividades de transferencia de resultados al sector productivo de nuestra región así como a las oportunidades de internacionalización que se les presentan a la UCLM en el campo de las TIC. El tema de esta edición La Investigación e Innovación en TIC como motor de Castilla La Mancha, de gran actualidad en el ámbito del desarrollo regional y del país, tiene como principal objetivo dar testimonio de las contribuciones de la investigación e innovación al sector productivo de Castilla La Mancha. Para ello, el Comité Organizador ha preparado un programa donde se muestran los resultados de investigación de gran relevancia en las distintas áreas de investigación e innovación que se vienen desarrollando por los diferentes grupos de investigación del Instituto de Investigación en Informática de Albacete. El programa incluye también la participación empresarial contando con quienes han confiado y colaborado estrechamente con los investigadores de la UCLM en el desarrollo de nuevas soluciones basadas en las Tecnologías de la Información y las Comunicaciones. Por último y dada la importancia de la internacionalización en todos los ámbitos y en particular, de todas las actividades que vienen desarrollándose en la UCLM en el área de las TIC, el programa aborda los retos, beneficios y oportunidades de la colaboración internacional. Para ello, el programa cuenta con la participación de ponentes con amplia experiencia en la colaboración internacional en todos los campos de actividad de la UCLM, tanto en el campo educativo como en el de la investigación e innovación. Así mismo, desde estas líneas, los miembros del comité organizador queremos dar nuestro sincero agradecimiento a D. Isidro Ramos Salavert por seguir apoyando y colaborando de forma activa desde la primera edición de esta Escuela de Verano, hasta la vigésima segunda edición que ahora celebramos. A su vez agradecer a todos los ponentes la participación y el esfuerzo realizado, uno de cuyos frutos es el libro que aquí presentamos y que recoge las ponencias realizadas. Por último, y no por ello menos importante, agradecer la continua colaboración que las instituciones locales y provinciales han venido prestando a la realización de este tipo de encuentros de formación, que, a su vez, permiten poner en contacto a los alumnos de nuestro Campus con prestigiosos investigadores de las principales Universidades y Centros de Investigación de nuestro país. En especial, agradecemos la colaboración prestada al Departamento de Sistemas Informáticos, la Escuela Superior de Ingeniería Informática y el Instituto de Investigación en Informática de Albacete. Luis Orozco Barbosa María Dolores Lozano Pérez Organizadores EVI 2012

6

7 Índice General Sistemas Interactivos en entornos ubicuos, colaborativos y sensibles al contexto... 1 Víctor M. R.Penichet Integración de Datos Jesús Damián Consuegra García-Bleda Utilizando métodos formales en la nueva era de computación José Antonio Mateo Cortés Inteligencia Artificial y Robots Sociales Luis Rodríguez Ruiz CALPE e InDiCa: dos ejemplos de investigación aplicada a tendidos eléctricos ferroviarios Jesús Montesinos Ortuño Redes Interinstitucionales: IberVirtual ampliando el alcance de la Educación a Distancia en Iberoamérica Myriam M. Resa López Nuevos paradigmas de interacción, la próxima frontera Pascual González López

8

9 La Investigación e Innovación en TIC como Motor de Castilla-La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Sistemas Interactivos en entornos ubicuos, colaborativos y sensibles al contexto Victor M. R. Penichet Grupo ISE Universidad de Castilla-La Mancha, Escuela Superior de Ingeniería Informática 02071, Albacete, España Resumen. Diseñar la interacción supone abordar la teoría, investigación y práctica del diseño de la experiencia de usuario para todo tipo de tecnologías, sistemas y productos. La interfaz de usuario es la parte visible de las aplicaciones informáticas. En la disciplina de interacción persona-ordenador (IPO), se pone de manifiesto la necesidad de conseguir una interfaz de usuario adecuada de manera que se puedan llevar a cabo las tareas para las que se ha diseñado la aplicación con facilidad. Obviamente, la interfaz debe ser estéticamente agradable, pero siempre con la máxima de facilitar la interacción del usuario con la aplicación. La tecnología actual proporciona multitud de dispositivos que enriquecen esta interacción; así, conceptos como ubicuidad, colaboración y sensibilidad al contexto ganan protagonismo en el diseño de sistemas interactivos. Como muestra de ello, se presentan en este capítulo una serie de prototipos desarrollados en estas líneas. Palabras Clave: Interacción, Colaboración, Ubicuidad, Sensibilidad al Contexto. 1 Introducción La disciplina Interacción Persona-Ordenador, IPO, hace más humano el uso del las aplicaciones informáticas. Los desafíos de la programación, los avances tecnológicos y la demanda cada vez más exigente de los usuarios, hacen de este campo de investigación un reto para el desarrollo de interfaces de usuario: que hablen por sí solas. Estamos en una época en la que se puede decir que las nuevas generaciones ya han nacido en Internet ; hacen un uso habitual, cotidiano y casi no aprendido, sino interiorizado, del software. Un software que ha evolucionado de tal manera que no se entiende sin que esté conectado a la red de redes. Un software que no se entiende sin que conecte a los usuarios entre sí. Aquí radica la importancia de ese otro campo de investigación, íntimamente relacionado con la IPO, que es el Computer-Supported Cooperative Work, CSCW. Tan íntimamente relacionados como que podría llegar a entenderse como la Interacción Persona-Ordenador-Persona. El usuario se olvida del uso de la aplicación centrándose en la colaboración y la comunicación con los miembros de su grupo. Se olvida porque la IPO proporciona los mecanismos adecuados para conseguir diseños usables que aumenten su satisfacción. Centrándose en la colaboración y la comunicación con los miembros de su grupo porque el CSCW orquesta los fundamentos del trabajo colaborativo para facilitar una interacción más allá de la interfaz de usuario, una interacción con el otro. Lejos de aquellas grandes máquinas de hace sólo unas décadas, la evolución en la Informática proporciona al usuario un sinfín de ventajas. Los dispositivos móviles, en todas sus variantes posibles, ofrecen la posibilidad de una integración en la vida diaria; un uso continuo y transparente, donde, cuando y como sea. La ubicuidad hace 1

10 de esta cuasi utopía una casi realidad. Probablemente todavía estamos lejos de una integración total, máxime habida cuenta que no conocemos estos límites. Pero lo que sí es claro, es la tendencia actual del uso de la tecnología en el día a día de este modo. En esta línea, cobra sentido y gana protagonismo la sensibilidad al contexto. El usuario en su cotidianeidad interactúa con el medio y el medio con él; no necesariamente un medio digital, sino su rutina habitual. Mucha es la información que se puede extraer y procesar de su entorno, de su contexto, para ofrecer de forma reactiva aquello que mejor se adecúa a lo que necesita. Las aplicaciones dejan de ser rígidas y estáticas piezas de código para adaptarse a las necesidades de los usuarios en cada momento en función de las condiciones de su entorno. Son muy numerosos los grupos de investigación que trabajan estas y otras líneas relacionadas a nivel internacional. Muchas revistas, asociaciones, congresos, etc. dan muestra de la importancia que actualmente tienen. El presente capítulo trata de hacer una breve exposición de algunos prototipos relacionados con Arquitecturas Dirigidas por Modelos (Model-Driven Architectures, MDA) para Entornos Ubicuos; Diseño de Sistemas Interactivos, Colaboración y Usabilidad; Nuevos Mecanismos de Interacción; Desarrollo de Interfaces de Usuario Distribuidas (Distributed User Interfaces, DUIs); Aplicaciones Móviles Colaborativas Sensibles al Contexto; Metodologías, Modelos y Lenguajes para el Diseño de Interfaces de Usuario; Diseño Dirigido por Modelos; Sistemas e-learning. En la Sección 2 se describirán algunos prototipos basados en tecnología RFID y el uso de dispositivos móviles. En la Sección 3 se mostrará cómo la colaboración y el awareness pueden contribuir a mejorar los sistemas e-learning desde el prisma de la experiencia de usuario. La Sección 4 presenta brevemente una metodología ágil para el diseño de interfaces gestuales colaborativas sensibles al contexto. La Sección 5 describe interfaces de usuario distribuidas y una propuesta para la evaluación de la calidad de uso. La Sección 6 describe la mejora de entornos Healthcare en base a la colaboración, la ubicuidad y la sensibilidad al contexto; también muestra otras aplicaciones de la interacción basada en movimiento. Finalmente se presentan unas breves conclusiones del capítulo. 2 Sistemas Interactivos basados en Tecnología RFID La evolución de la tecnología ha provocado que la computación se encuentre cada vez más presente en nuestras vidas. Gracias al creciente avance en los dispositivos móviles, aceptados y utilizados por un alto porcentaje de la población, se ha conseguido que la interacción persona-ordenador dé un cambio radical. Hace años el usuario que deseaba ejecutar una tarea debía acceder a una computadora alojada en una sala. Actualmente esa idea se va perdiendo y está siendo sustituida por escenarios con múltiples dispositivos y objetos que incorporan tecnología más o menos compleja para ofrecer servicios al usuario sin necesidad de que éste se centre en los dispositivos, sino en alcanzar el fin deseado. Algunos de estos dispositivos se basan en tecnología RFID y hacen uso de Interfaces de Usuario Distribuidas (Distributed User Interfaces, DUI) con el fin de mejorar la experiencia del usuario [1], [8]. También cabe mencionar NFC como una tecnología similar, y en ocasiones compatible, que ya incorporan algunos de los dispositivos móviles actuales al alcance de cualquiera. 2

11 2.1 Sistema colaborativo para reuniones de trabajo (Co-Interactive Table) Las reuniones de trabajo son un ejercicio de integración y comunicación muy efectivo para obtener resultados en la toma de decisiones. Co-Interactive Table es un sistema que ofrece paneles digitalizados a cada usuario para que realicen tareas colaborativas fácilmente entre ellos. Pueden compartir ficheros e información. Además de mostrar notas y presentaciones en un proyector. Debajo de cada panel, y representadas por metáforas, se encuentran integradas las tarjetas RFID que le dan funcionalidad. El usuario con su propio dispositivo móvil es capaz de interactuar con el sistema con sólo realizar un gesto natural e intuitivo como acercar el dispositivo a la etáfora deseada, tal y como se muestra en la Fig. 1. Fig. 1 Co-Interactive Table: paneles digitalizados para compartir documentos e información en una reunión Fig. 2 Juego interactivo para estimular capacidades cognitivas, está basado en un escenario multi-dispositivo que proporciona interfaces de usuario distribuidas entre ellas nos podemos encontrar: tarjetas físicas que integran tecnología RFID, interfaces móviles y la interfaz del juego. 3

12 2.2 Juegos interactivos basados en tecnología RFID para la Mejora de la Atención en Niños con TDAH y personas con discapacidad intelectual El trastorno por déficit de atención con hiperactividad, o TDAH, es un trastorno del desarrollo del autocontrol, que engloba problemas para mantener la atención, controlar los impulsos y el nivel de actividad. El objetivo de los juegos es ofrecer actividades para estimular capacidades cognitivas con el fin de mejorar la atención y concentración del usuario. Para interactuar con el sistema el usuario solo debe acercar los juguetes u objetos al dispositivo móvil. La interfaz del juego y los resultados se muestran en el proyector. Basándonos en la misma tecnología y mecanismos de interacción se han realizado juegos para mejorar y estimular capacidades cognitivas como son la memoria, el cálculo y la audición de personas que tiene discapacidad intelectual. 2.3 Sistema sensible al contexto para mejorar los ambientes culturales: GUIMUININ Los museos modernos ofrecen a los visitantes dispositivos móviles capaces de guiarlos en la visita. Estos dispositivos requieren de un nivel de atención muy alto por parte del usuario. Ese problema se puede resolver integrando tecnología RFID y convirtiendo el ambiente en un entorno sensible al contexto. GUIMUININ (Wireless Intelligent Museum Guides) es un sistema sensible al contexto enfocado en mejorar la experiencia del usuario en museos. El sistema puede conocer la localización del usuario en cualquier zona del museo y enviarle información multimedia importante de cualquier pieza que se encuentra cerca de él. Fig. 3 Funcionamiento del sistema GUIMUININ 2.4 Sistema basado en sensibilidad a la ubicación (RCAR) La localización al aire libre está actualmente resuelto por el Sistema de Posicionamiento Global (GPS). Sin embargo, esta tecnología no es suficiente en los ambientes interiores, donde la señal del satélite sufre una atenuación total, con la consecuente pérdida de exactitud y precisión. Para resolver este problema se propone el sistema RCAR. 4

13 RCAR es un sistema de seguimiento en interiores capaz de localizar y rastrear las entidades autónomas en los edificios. Para lograr este objetivo se sensibilizan las superficies (pisos, paredes, techos, mesas, etc.) con tarjetas pasivas RFID. El mecanismo utilizado para obtener información de las etiquetas es un lector RFID, que está integrado en un robotnxt. Este se conecta a través de Wi-Fi (IEEE ) a un servicio que le devuelve en cada momento dónde se encuentra situado. Fig. 4 RobotNXT que incorpora la PDA y el lector RFID, sobre una superficie sensibilizada de tarjetas pasivas RFID 3 Mejora de la Colaboración en Plataformas e-learning a través de Awareness Los entornos de aprendizaje han sufrido, sobre todo en la última década, una continua evolución hacia un modelo educativo donde se fomenta la integración y uso de las denominadas tecnologías de la información y la comunicación (TIC). Estas tecnologías se encuentran en diversos ámbitos dentro del modelo educativo. Desde los espacios físicos donde se combinan con las técnicas educativas más tradicionales, extendiéndose hasta los espacios virtuales, cuyo máximo exponente lo encontramos en las plataformas e-learning, conformando el denominado "blended learning". Esta combinación, da lugar al modelo de enseñanza semi-presencial, donde los tiempos se dividen, entre otros, en actividades donde el alumno se encuentra físicamente presente junto a otros alumnos y mentores, y actividades donde esta presencia es virtual. Esto es posible al uso de tecnologías que permiten acciones como: acceso a repositorios de información remotos, envío y recepción de documentos, centralización de recursos, realización de trabajos de forma colaborativa. Las reglas y pautas a seguir cuando se realizan, por ejemplo, actividades colaborativas presenciales, son establecidas por los mentores, los propios alumnos y el contexto social y espacial donde se realizan (p.ej. el aula). La propia naturaleza humana, junto al entorno social, dictan de forma tácita la forma de proceder y el comportamiento a seguir por los actores en estos escenarios. Cuando la actividad no es presencial, las normas y procedimientos a seguir se establecen en su mayoría de forma textual. Así se pierde gran parte de la interacción con el contexto que provee de la información necesaria para su realización. Durante la realización de las tareas, surgen conflictos que necesitan de un tratamiento particular dependiendo del contexto y de su estado. 5

14 Por lo tanto, para la realización de las tareas online se necesita de una serie de conocimientos y habilidades que pueden no haber sido adquiridas adecuadamente tanto por parte del mentor, como por los alumnos. Además, cada plataforma, mentor y alumno pueden tener sus propias pautas o modelos a seguir para la realización de las tareas, dependiendo del conocimiento tácito del que dispongan. Las plataformas utilizadas en el desarrollo de tareas online son, en gran parte, plataformas web. Durante las últimas décadas se utilizan prácticamente los mismos mecanismos para la gestión de las tareas. El envío, recepción y distribución de las tareas se sigue centralizando en un repositorio el cual necesita de una conexión permanente para su utilización. El avance en las tecnologías permite la gestión de nuevas formas de interacción, nuevos escenarios de uso que faciliten la administración de las tareas y el consumo de los recursos que la plataforma ofrece. También se ha producido un avance significativo en la gestión y distribución de contenidos en la web, el conocido como web social o web 2.0. A través de los mecanismos que ofrece, se implica al usuario en la creación y gestión de los contenidos, ofreciendo características sociales que fomentan la relación entre pares, para la formación de grupos, estableciendo nuevas vías de comunicación en la red. Para facilitar el diseño y realización de las tareas colaborativas online se vislumbra la necesidad de realizar un análisis que trate de forma eficaz con la problemática descrita, ofreciendo soluciones que permitan su correcto uso tanto a mentores como a alumnos. Además, se deberán de atacar nuevos escenarios, lidiando con problemas tales como la falta de una conectividad permanente a la plataforma de aprendizaje, dejando que la gestión de tareas y recursos se realicen de forma que no estén ligadas a acciones explícitas del usuario o al estado de la conexión a la plataforma. La necesidad de mejorar las tareas colaborativas en plataformas educativas a través del awareness ofrecido a los usuarios pasan por el análisis de las herramientas disponibles y la propuesta de técnicas que ofrezcan soluciones y mejoras a los problemas existentes, teniendo en cuenta en el proceso de desarrollo a los propios usuarios. El objetivo principal del trabajo es mejorar la colaboración en plataformas e- Learning a través de awareness [1], [2]. Es decir, se pretende diseñar o aplicar técnicas de awareness (nuevas o existentes) en plataformas e-learning, de modo que faciliten la realización de tareas colaborativas a los usuarios. Otros aspectos también podrían mejorar la experiencia de usuario en estos entornos. Concretamente el estudio de la conectividad off-line, la componente social o la adaptación a los dispositivos móviles. 3.1 Drag&Share Se ha realizado un análisis de las distintas técnicas de awareness que permiten a los usuarios saber qué está sucediendo en los espacios de trabajo compartidos con el resto de usuario con los que están colaborando. De esta forma se conocen las técnicas adecuadas según la situación para ser aplicadas correctamente en aras de facilitar su trabajo. Fruto de este estudio, se ha desarrollado un prototipo que permite a los usuarios colaborar en tiempo real en un espacio compartido de forma que pueden compartir información y archivos en tiempo real, utilizando técnicas de awareness que maximicen y proporcionen de forma adecuada la información que reciben. El prototipo, independiente de la plataforma y desarrollado haciendo uso de los últimos estándares tecnológicos como HTML5, se llama Drag&Share. 6

15 Fig. 5 Drag&Share Fig. 6 Una captura del prototipo de Drag&Share sobre Moodle en fase temprana 7

16 Otro de los pilares fundamentales en este trabajo es el conocimiento y análisis de los entornos e-learning y de cómo los usuarios los utilizan para la realización de tareas colaborativas y cómo aprenden a través de éstas. Después del estudio de éstas plataformas, y en concreto de Moodle, se ha desarrollado un prototipo que combina los conocimientos adquiridos durante la realización del anterior prototipo, Drag&Share, con los adquiridos sobre plataformas e-learning. De esta manera, se ha desarrollado para Moodle un módulo que proporciona ese espacio compartido de trabajo para realizar tareas colaborativas en Moodle, Drag&Share for Moodle. Este trabajo realizado forma parte de la propuesta que combina los distintos elementos propuestos como elementos principales: colaboración, usuarios y awareness. Los prototipos realizados conformarán un set de módulos para Moodle denominado Simple Collab for Moodle. Para llevar a cabo estos prototipos y el análisis y desarrollo de futuros prototipos que aborden los distintos objetivos definidos, se sigue un modelo de procesos que permite, de forma iterativa, desarrollarlos teniendo en cuenta los elementos anteriormente presentados. Fig. 7 Elementos fundamentales sobre el Modelo de Procesos 8

17 Fig. 8 Modelo de Procesos 4 Metodología ágil para el diseño de interfaces gestuales colaborativas sensibles al contexto En el marco del proyecto Cenit Tecnologías para Prestar Servicios en Movilidad en el Futuro Universo Inteligente (con acrónimo mio!) se definido una metodología ágil para el desarrollo de interfaces de usuario con una serie de requisitos especiales: se aplica a entornos gestuales, colaborativas y sensibles al contexto. La especial complejidad de este tipo de entornos, es la principal motivación que nos ha llevado a definir un entorno metodológico centrado en la especificación y diseño de la interfaz de usuario. La metodología propuesta, que parte de un complejo estudio previo, ha sido probada sobre un caso de estudio. Se han aplicado las etapas, tareas, actividades y artefactos de la misma a una aplicación real que es colaborativa y sensible al contexto. Concretamente se ha aplicado al desarrollo de las interfaces correspondientes al activo experimental "Aplicación para restaurantes integrando WallShare con una mesa interactiva multi-touch" que desarrollamos nosotros en la anterior anualidad del proyecto mio!. Como conclusión, podríamos decir que InGesCol la metodología propuesta es una metodología ágil, iterativa, centrada en las interfaces de usuario y orientada hacia el prototipado, y que encaja muy bien como metodología para el diseño de interfaces de aplicaciones o sistemas propios del entorno mio! 9

18 Fig. 9 Etapas y Tareas de la Metodología InGesCol. 5 Interfaces de Usuario Distribuidas y Evaluación de la Calidad de Uso Las siglas DUI vienen del inglés Distributed User Interfaces y consiste en una interfaz de usuario con la capacidad de distribuir partes o la totalidad de sus componentes entre varios monitores, dispositivos, plataformas, pantallas y/o usuarios. Por otro lado las siglas DeUI vienen del inglés Distributable User Interface y tienen las mismas características que una DUI pero a diferencia de ellas la distribución se realiza en tiempo de ejecución. 5.1 WallShare WallShare [3] es un sistema colaborativo controlado a través de dispositivos portátiles (o móviles). Permite a los usuarios colaborar mediante el uso de una zona compartida visualizada sobre una gran pantalla, para realizar actividades colaborativas, tales como compartir documentos, imágenes o vídeos en el mismo lugar y tiempo. WallShare implementa el concepto de interfaz de usuario distribuida de forma tal que la interacción realizada por el usuario, sobre su dispositivo móvil, afecta tanto a la interfaz privada de su dispositivo como a la compartida. 10

19 Fig. 10 Wallshare 5.2 ISE Surface Este prototipo es una mesa multi-táctil similar a la Microsoft Surface. Para su construcción se han utilizado materiales de bajo coste. Para la detección del contacto de los dedos sobre la superficie se hace uso de la tecnología infrarroja. La mesa multi-táctil muestra una interfaz de usuario gráfica en la superficie de la misma que puede ser controlada mediante gestos realizados con los dedos u objetos físicos colocados sobre la superficie. Esta mesa es también capaz de reconocer gestos de varios usuarios al mismo tiempo. Fig. 11 Interior de la mesa ISE Surface 11

20 5.3 Sistema del restaurante En este prototipo se realiza una integración del sistema WallShare, explicado previamente y una aplicación multi-táctil, desarrollada para la mesa ISE Surface, que permite a los clientes de un restaurante visualizar la carta de los productos que ofrece dicho restaurante así como realizar el pedido personalizado desde la propia mesa donde se encuentran dichos clientes. Los alimentos que piden los clientes son notificados al camarero a través de su dispositivo móvil. Fig. 12 Diferentes interfaces del proyecto adaptado a un restaurante Además, esta aplicación también implementa el concepto de interfaz de usuario distribuida, de modo que la interacción realizada por cada usuario sobre su dispositivo, afecta a la parte de la interfaz que es única y compartida por todos. Así, el activo experimental presenta una integración de varias aplicaciones ejecutadas en diferentes dispositivos mejorando la eficacia, productividad y satisfacción de los clientes del restaurante. 12

21 Fig. 13 Distribución de elementos e interfaces 5.4 Copy, Fly and Paste En este prototipo se presenta una nueva forma de trabajar dentro de lo que podemos denominar manipulación directa sobre multi-computadores y aporta una nueva técnica de manipulación directa basada en lo que aquí llamaremos "pegado al vuelo". Esta técnica puede ser utilizada para transferir datos entre diferentes unidades computacionales o sobre una misma. La propuesta Copy-Fly-and-Paste permite a los usuarios copiar algún tipo de recurso en un PC u otro tipo de dispositivo y pegarlo directamente en un dispositivo diferente todo ello de forma transparente al usuario. En la Figura siguiente podemos ver cómo funcionaría el sistema. En el PC de la izquierda seleccionamos un recurso y pulsamos la combinación de teclas Ctrl+Alt+C para copiar el recurso y sobre el PC de la derecha pulsamos Ctrl+Alt+V para pegarlo. Fig. 14 Copy, Fly and Paste En el caso de haber varios recursos copiados por diferentes personas, al pegar nos aparecerá una lista para seleccionar el recurso que deseamos pegar. 13

22 6 Colaboración, Ubicuidad y Sensibilidad al Contexto en Entornos Healthcare Un frente que se ha considerado esencial explotar, es la necesidad de la sociedad de colaborar unos con otros. A la hora de conseguir un objetivo suele ser necesario, cuando tiene una complejidad considerable, unificar esfuerzos. Esta unificación implicará generalmente que los objetivos se consigan a una velocidad mayor, así como con una mayor completitud y sobretodo, en condiciones normales, de un menor esfuerzo individual. Otro frente que ha adquirido mayor importancia con el tiempo gracias a la evolución de las tecnologías, es el poder hacer uso de ellas en cualquier lugar e instante: ubicuidad. Una consideración que hace que su importancia aumente de cara a los usuarios: la adaptación automática de las aplicaciones en base a las necesidades del usuario y condiciones del entorno que le rodea: sensibilidad al contexto. La tendencia actual del uso de los sistemas informáticos es una interacción natural de manera que no se tengan que centrar en el uso de la aplicación en sí, sino en la consecución de los objetivos deseados. El uso de la tecnología no debe suponer una barrera en dicha consecución. Las interacciones naturales o la interacción basada en el movimiento pueden incrementar la satisfacción del usuario. El objeto de los trabajos [3], [4], [5] presentados en esta sección busca hacer uso de tecnologías actuales en cualquier lugar, que la funcionalidad ofrecida por las aplicaciones que hacen uso de las tecnologías se adapte en todo momento a las necesidades del usuario y que permita colaborar con otros usuarios en la consecución de los objetivos: colaboración, ubicuidad y sensibilidad al contexto. Estos trabajos forman parte de un sistema único cuya finalidad es la mejora de las condiciones de trabajo de los empleados de un centro geriátrico. 6.1 Aplicación para la gestión y asignación automática de tareas, avisos y emergencias en un centro geriátrico basada en Windows Mobile El sistema diseñado tiene como finalidad mejorar la colaboración y coordinación en un centro geriátrico. Ha sido a través de entrevistas personales y por teléfono con el personal responsable del centro geriátrico como se han ido definiendo los requisitos, tipos de usuarios, objetivos, etc. del sistema a diseñar e implementar. De esta forma se ha obtenido de manera directa la información necesaria y las carencias y dificultades que los empleados habían detectado durante sus turnos de trabajo. En un centro geriátrico son muchas las tareas a realizar sobre cada uno de los residentes a lo largo de un turno y cada una de ellas tiene que ser realizada por el tipo de personal correspondiente. Además ocurre con las tareas de tipo sanitario que muchas de ellas se repiten de forma continua en el tiempo, como por ejemplo el reparto de medicinas, los cambios posturales, etc. También hay tareas más puntuales que se dejan encargadas para realizar en otros turnos, como puede ser una revisión médica detectada fuera del turno de trabajo del médico competente. A partir de todo esto se percibió para estos casos la posibilidad de mejorar el trabajo colaborativo entre los empleados del centro. Otra de las dificultades que los empleados encuentran en sus funciones diarias radica en la actuación ante casos de emergencia. Es relativamente común que los 14

23 residentes sufran incidentes como caídas, desmayos, etc. sobre los que hay que actuar de la manera más rápida posible. En muchas ocasiones, es necesaria más de una persona para solventarlas, por lo que se detectó la necesidad de facilitar el trabajo cooperativo en estas emergencias. Por estas razones se ha decidido realizar, tras la elicitación y el análisis de los requisitos, un sistema cuyo objetivo principal sea la gestión de las tareas de los usuarios, permitiendo la colaboración entre los mismos. De este modo, el sistema permitirá la creación de tareas a realizar en otro momento o turno, indicando el personal necesario para llevarla a cabo. Llegado el momento de tener que realizarse, un aviso llegará a los empleados activos capacitados para realizar la tarea, la cual podrán asignarse. Otro de los objetivos del sistema es el de dotar a los empleados de un método de comunicación con el fin, entre otros, de posibilitar la realización de las tareas de manera cooperativa. Fig. 15 Interfaz de usuario para la versión de Windows Mobile 6.2 Aplicación para la gestión y asignación automática de tareas, avisos y emergencias, así como para la comunicación síncrona y asíncrona de los empleados de en un centro geriátrico basada en Android Este sistema trata la misma problemática que el presentado con anterioridad, esta vez diseñado sobre Android y con alguna peculiaridad adicional. La tarea más importante, es la posibilidad de mandar avisos de emergencia a otros empleados, ya que es bastante frecuente que los residentes sufran caídas, mareos, etc., por lo que hay actuar de la manera más rápida posible y con la ayuda necesaria, por eso la necesidad de facilitar el trabajo cooperativo. Por tanto, el sistema permitirá enviar avisos de 15

24 emergencia a otros empleados que se encuentren cerca. Como consecuencia, la localización de los empleados en todo momento en el sistema es muy importante, por ello se va tener localizado en el sistema a cada empleado, dependiendo del punto de acceso Wi-Fi al que esté conectado. Por otro lado, el sistema permitirá crear tareas a realizar en un u otro turno, indicando el personal que la llevará a cabo. El sistema mostrará estas tareas cinco minutos antes de que se deban realizar, mediante los avisos correspondientes, a sus empleados asignados. También el sistema, permite la posibilidad de que un empleado pueda desasignarse un aviso, para poder asignárselo otro empleado por mutuo acuerdo entre los dos, o simplemente por su capacidad en cuanto a permisos (por ejemplo el encargado de planta). Fig. 16 Interfaz de usuario para la versión de Android 16

25 6.3 Aplicación de Kinect para la detección automática de caídas y desmayos en un centro geriátrico Los entornos sanitarios ofrecen múltiples posibilidades a la hora de utilizar nuevas tecnologías debido a la enorme cantidad de tareas de diversa índole que se han de realizar y los múltiples problemas a solventar. Los centros geriátricos por las características que presentan los residentes de los mismos, contienen la problemática de detectar desmayos y caídas en aquellas situaciones en las que los residentes se encuentran en zonas sin empleados que puedan visualizarlos directamente. Esto es importante tenerlo en cuenta ya que es inviable que en todo momento, todo residente esté siendo visualizado por al menos un empleado. Dada esta problemática a solventar así como la accesibilidad del autor a un centro geriátrico específico, el sistema se centra en este tipo de centros sanitarios. Considerando la problemática expuesta, se ha desarrollado un sistema ubicuo y sensible al contexto, cuyo objetivo es la detección automática de situaciones anómalas en las posiciones adoptadas por los residentes de un geriátrico. El sistema se basa en la distribución de múltiples dispositivos Kinect en localizaciones adecuadas del centro. Cada dispositivo, el cual se encuentra conectado a un ordenador, se mantiene continuamente interaccionando con las personas presentes en su campo de acción. La interacción en movimiento de la que hace uso Kinect, permite identificar diferentes puntos que conforman el esqueleto de cada persona identificada. Cuando se realiza esta identificación se activa el proceso de análisis de la postura actual detectada por parte del sistema. El resultado será crear una alerta de diverso grado para verificar el estado del residente o en caso contrario, continuar en la búsqueda de situaciones anómalas. La identificación de posturas en el sistema se realiza por medio de la utilización del kit de desarrollo que Microsoft proporciona. Este proceso es un elemento clave por lo que es importante realizar una descripción sobre cómo internamente el sistema lleva a cabo la identificación. La SDK permite obtener todos y cada uno de los puntos de articulaciones del esqueleto que Kinect es capaz de identificar, concretamente veinte. Estos puntos son proporcionados al sistema a través de una clase que representa al esqueleto y a través de la cual es posible acceder a los puntos. Una vez se ha obtenido esta clase, el siguiente paso es la obtención de aquellos puntos que sean necesarios para la identificación de las posturas a localizar, recopilando su posición de entre los parámetros que lo representan. Cada posición es almacenada en una clase específica formando una tripleta de valores que hacen referencia a la posición exacta del punto en el espacio (eje x, eje y, eje z). Una vez se han obtenido las posiciones en esta representación, se procede a la detección de la postura del residente en cuestión. Para ello es necesario definir algorítmicamente cada postura considerada como conocida, bien sea clasificada como peligrosa o no. De este modo todas aquellas posturas conocidas quedarán almacenadas algorítmicamente como si de un patrón se tratara. El siguiente paso en la identificación de posturas es comprobar que cada postura detectada se encuentra dentro de cada patrón. Para ello, cada postura debe ser analizada por el algoritmo que representa cada postura definida como patrón. Aquella que obtenga un error con respecto al patrón, que se encuentre dentro de un rango adecuado, podrá considerarse como postura relativa a ese patrón y quedará identificada. La Fig. 17 muestra algunos ejemplos de posturas correctamente identificadas. 17

26 Fig. 17 Algunas de las posturas identificadas Para el correcto funcionamiento del sistema, el despliegue realizado a lo largo del centro geriátrico objetivo, está compuesto por cuatro elementos principales: área de vigilancia, ordenadores personales, Servidor Web y base de datos. El primero de ellos se centra en el área de vigilancia, que hace referencia a cualquier zona del geriátrico en la que se pueden dar situaciones de caídas o desmayos y que a su vez exista la posibilidad de que un empleado no se encuentre presente. Ejemplos de este tipo de áreas pueden ser salones comunes en los que los residentes interactúan unos con otros, pasillos (cuyo número puede ser importante), ascensores, etc. En estas zonas el sistema contiene una cámara Kinect la cual interactúa con los residentes con el fin de detectar sus posturas. El siguiente elemento necesario para el despliegue son los ordenadores a los que cada cámara Kinect ha de estar conectada. Estos ordenadores contienen una parte importante del sistema, concretamente, la parte encargada de hacer uso de la SDK de Microsoft para. Su función principal es identificar la postura actual de cada residente o empleado detectado. A continuación, el sistema hace uso del Servidor Web el cual permite la comunicación con empleados del mismo, la creación de alertas y por supuesto, la localización de los empleados requeridos en base a ciertas condiciones. El servidor accede al cuarto componente, la base de datos, la cual contiene el estado actual del sistema. Este estado permite al sistema ser calificado como sensible al contexto ya que permite saber qué hace y sobretodo, saber dónde está cada empleado, básicamente su contexto actual. Dicha información le da la capacidad al sistema de conocer en todo momento a quién avisar ante un desmayo o caída. Cada vez que se detecta una de estas situaciones, el ordenador relativo a la detección solicita al servidor un listado de las personas que se encuentren en mejores condiciones para solventar el problema. Para ello, el servidor conociendo la localización del dispositivo Kinect asociado y la de todos y cada uno de los empleados, así como su tarea actual, será capaz de seleccionar los empleados más adecuados. 18

27 Fig. 18 Workflow seguido para el desarrollo del proyecto Un aspecto adicional del sistema en base a su comportamiento sensible al contexto, es la recopilación del contexto que rodea a cada usuario. Para ello, el sistema recopila por medio de los dispositivos que cada empleado utiliza, la información que requiere. Las tareas que realizan se obtienen por medio de sus solicitudes al sistema por medio del propio servidor (quien le indica la siguiente tarea a realizar) y las localizaciones gracias a la red de interconexión establecida. Esta red está compuesta por un conjunto de puntos de acceso, asociados a una zona del centro concreta. De este modo, cada 19

28 vez que un usuario se conecta a un nuevo punto de acceso, localizando mayor señal Wi-Fi, el dispositivo lo comunica al servidor quien lo refleja en la base de datos. Teniendo en cuenta esta red de interconexión, queda claro que el sistema ofrece ubicuidad gracias a la misma, ya que mantiene a todo usuario conectado, permitiéndole en todo momento y bajo cualquier circunstancia, hacer uso del sistema. 6.4 Aplicación de Kinect para el desarrollo de juegos interactivos por medio de movimientos naturales: Simon Says Kinect Por último y dejando ya los entornos healthcare, se describe en esta sección un prototipo que toma como base el funcionamiento del juego Simon. Se trata de un prototipo plenamente funcional que permite el estudio de la interacción basada en movimientos para su posterior aplicación a entornos como el anterior. El software desarrollado consiste en la generación de una serie de posturas que el usuario debe repetir en el orden adecuado, es decir, se han sustituido los colores y los sonidos del juego electrónico Simon, por una serie de imágenes que mostrarán la silueta de un individuo que aparecerá realizando una postura en concreto. El sistema muestra al usuario estas imágenes una detrás de otra dentro de una serie que comienza con una sola imagen, aumentando en posteriores turnos del sistema, progresivamente de una en una. Mientras se produce esto, el usuario debe ir memorizando cada una de estas posturas y el orden en que son mostradas, con la intención de posteriormente, una vez acabe el sistema de mostrarlas, comience a imitarlas una a una. Este juego está implementado para ejecutarse en ordenadores convencionales, haciendo uso del dispositivo Kinect para la captación de las posturas del usuario. Fig. 19 Imágenes de la interfaz del prototipo en fase temprana 7 Conclusiones Vivimos un dulce momento desde el punto de vista de la IPO y el CSCW: redes sociales, la nube, excepcionales aplicaciones para multitud de dispositivos móviles, infinitos nuevos medios de interacción, etc. Los avances en materia de los sistemas interactivos permiten proporcionar a los usuarios con unos mecanismos de interacción 20

29 mucho más ricos y naturales que en ocasiones facilitan dicha interacción de manera transparente. En este capítulo se ha mostrado un conjunto de prototipos que demuestran cómo pueden llegar a explotarse. Sistemas basados en RFID para proporcionar mecanismos de colaboración en reuniones o juegos que además podrían ser útiles en la localización en interiores (espacios relativamente reducidos). Sistemas para aumentar la satisfacción del usuario en plataformas e-learning a partir del estudio de los mecanismos de colaboración, awareness, conectividad off-line, etc. Metodologías específicas para el diseño de interfaces de usuario gestuales colaborativas sensibles al contexto. Prototipos para distribuir las interfaces y proporcionar medios de evaluación de la calidad de uso. Colaboración, ubicuidad y sensibilidad al contexto, junto con mecanismos para la interacción basada en movimiento, para conseguir aumentar la calidad del servicio y la calidad de vida en entornos geriátricos. Se trata pues de un sinfín de posibilidades interactivas muy estimulantes para los investigadores y que prometen llegar muy lejos. Sistemas interactivos que hacen del uso de las aplicaciones algo más intuitivo. Sistemas que nos rodean allá donde estemos y que nos ayudan en el día a día. Referencias 1 Félix Albertos Marco, Víctor M.R. Penichet and José A. Gallud (2012): Collaboration within Moodle: sharing documents in real-time with Drag&Share. Interaction Design in Educational Environments (IDEE 2012), ICEIS 2 Félix Albertos Marco, Victor M. R. Penichet and José A. Gallud (2011): Drag&Share: A Shared Workspace for Synchronous Collaboration. Proc. of 1st Workshop on Distributed User Interfaces in conjunction with CHI ISBN , pp Juan Enrique Garrido, Victor M. R. Penichet and María D. Lozano (2012): An Architecture Proposal for Residential Care Home Environments. International Chapter Book Handbook of Research on ICTs for Healthcare and Social Services. 4 Juan Enrique Garrido Navarro, Víctor M. R. Penichet, María D. Lozano (2012): Integration of Collaborative Features in Ubiquitous and Context-aware Systems. 2nd Workshop on Distributed User Interfaces in conjunction with CHI Juan Enrique Garrido Navarro, Víctor M. R. Penichet, María D. Lozano (2012): UBI4HEALTH: Ubiquitous System to Improve the Management of Healthcare Activities. Pervasive Springer Verlag, Lecture Notes in Computer Science. 6 Pedro González Villanueva, José A. Gallud, Ricardo Tesoriero (2010): WallShare: a multi-pointer system for portable devices. International Conference on Advanced Visual Interfaces, AVI ACM Press, ISBN doi.acm.org/ / Elena de la Guía, Víctor R. Penichet, Juan E. Garrido, Félix Albertos (2012): Design and Evaluation of a Collaborative System that Support Distributed User Interfaces. International Journal on Human-Computer Interaction. ISSN R. Penichet (2011): Applying RFID Technology to Improve User Interaction in Novel Environments. International Chapter Book. Deploying RFID - Challenges, Solutions, and Open Issues. ISBN Ed.: InTech 21

30 22

31 La Investigación e Innovación en TIC como Motor de Castilla-La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Integración de Datos es Jesús García-Consuegra,1, 1 Dpto. Sistemas Informáticos, Escuela Superior de Ingeniería Informática. Universidad de Castilla-La Mancha, Avda. de España, s/n, Albacete, España Resumen. Este trabajo hace un recorrido por las capacidades y tecnologías relacionadas con la integración de datos. El objetivo se centra en mostrar las posibilidades de negocio y laborales que esta área puede ofrecer. Para ello, se han recopilado algunos artículos generalistas que recogen tendencias y retos que han resuelto las distintas propuestas. El trabajo finaliza con la presentación del reto de procesar y analizar grandes cantidades de datos, en lo que se denomina Big Data. Palabras Clave: Federación, data warehouse, integración, base de datos, ETL, Big Datas. 1 Introducción La integración de datos ha sido tradicionalmente un problema latente desde el mismo instante en el que los sistemas informáticos empezaron a aparecer en las empresas. Básicamente, consiste en proporcionar un acceso homogéneo y único a todos los datos de la organización, ofreciendo una visión integrada y coherente de datos que pueden estar almacenados en múltiples fuentes de información. En muchos casos, estas fuentes son heterogéneas de datos estructurados y no-estructurados ( s, posts de redes sociales, imágenes, vídeos, textos, etc.). Genéricamente, cuando las técnicas de integración se aplican a la capa de negocio se habla de Integración de Aplicaciones (Enterprise Application Integration - EAI). Sin embargo, cuando se desarrollan a nivel de persistencia, se habla de Integración de Información (Enterprise Information Integration - EII). A pesar de los esfuerzos y avances en integración de aplicaciones, su implantación requiere un gran esfuerzo, estando todavía limitada a aplicaciones o componentes desarrollados por el mismo fabricante (por ejemplo un ERP) o en sectores industriales con fuertes estándares (Sistemas de Información Geográfica). Lamentablemente, en una empresa las necesidades TI pueden llevarle a adquirir soluciones de diversos fabricantes o acceder a aplicaciones/información gestionada 1 Por favor notar que todos los autores figuran con Nombre y Apellidos Completos 23

32 por terceros (por ejemplo en la Web). En estos casos, las necesidades de acceso integrado a los datos y a la capacidad de análisis requiere el uso de soluciones EII. Inicialmente, la integración se realizó en el contexto del diseño de bases de datos. La orientación de las soluciones pasaba por lo que se denominó la integración de los esquemas de bases de datos. Esfuerzos más recientes (EII) se están orientando a la integración de los esquemas teniendo en cuenta los datos actuales en el proceso de integración. Este trabajo muestra las ventajas e inconvenientes de las dos técnicas más implantadas en materia de integración de datos: data warehouse y EII (federación de datos). La diferencia fundamental radica en que en data warehouse los datos son cargados e integrados en una gran base de datos. Mientras que en EII, los datos residen en sus fuentes de origen. EII gestiona cómo acceder a ellos e integrarlos para dar esa visión homogénea al usuario. El trabajo finaliza mostrando que las soluciones mixtas, donde se integran en la misma arquitectura data warehouse y EII, proveen mejores soluciones que por separado. Además, se dedica un apartado al reto inmediato de la gestión y consulta de grandes cantidades de datos. 2 El problema El objetivo de todo este esfuerzo tecnológico reside en ofrecer a los usuarios una visión única de su información. Conforme las tecnologías de la información evolucionan y las políticas se hacen más abiertas (Opendata, entornos colaborativos, redes sociales, etc.), aumenta la cantidad de información y los retos tecnológicos para seguir cubriendo este requisito. Así, mientras inicialmente los problemas a resolver se concretaban en proporcionar un modelo unificado y global de datos junto con una semántica unificada, de datos alojados en diversas fuentes, ahora surgen retos como el volumen de la información, tiempo de respuesta, rendimiento, capacidad de procesamiento, etc. Tradicionalmente, los sistemas de información se han estado desarrollando sin grandes concesiones a la integración. En los últimos años, esta tendencia se ha invertido. Los ERP [3] integran sus módulos y proporcionan los mecanismos de integración de desarrollos de terceros, se recurre a arquitecturas SOA (Sofware Oriented Architecture) basadas en servicios, se delega en middlewares o brokers de mensajes ESB (Enterprise Service Bus), o Web-oriented architecture (WOA) la versión SOA para aplicaciones Web. Aun así, la necesidad de incorporar información externa o desarrollada bajo otros paradigmas sigue requiriendo la integración de la información. Para dar una medida del impacto de este proceso de integración, sirva como ejemplo la estimación de que el 80% de los costes, en un proyecto de Business Intelligence (BI), suelen recaer en el diseño del data warehouse. 24

33 Con la ayuda de la Figura 1, en [1], se ilustra una arquitectura software por capas. En la capa superior, los usuarios acceden a los datos y servicios a través de las diversas interfaces de usuario. Las aplicaciones pueden usar un middleware (procesadores de transacción, middleware orientados a mensaje MOM, SQL-middleware, etc) para acceder a los datos vía una capa de acceso a datos. Los datos son manejados por un sistema de almacenamiento. Los sistemas de gestión de bases de datos (DataBase Management Systems - DBMS) suelen proporcionar ambas capas de almacenamiento y acceso a datos. Fig. 1. Aproximaciones propuestas a la integración en las diferentes capas de la arquitectura [1]. Cuando se habla de integración, los esfuerzos de los investigadores se han orientado a cada una de estas capas de la arquitectura. Los planteamientos generales son: Integración manual: los usuarios interaccionan directamente con todos los sistemas de información y manualmente integran los datos seleccionados. Esto significa que el usuario debe trabajar con cada interfaz, para extraer los datos que necesita, exportarlos a un formato manejable, para luego cruzarlos e interpretarlos en otra herramienta (por ejemplo, una hoja de excel). Esto fuerza a que el usuario tenga un buen conocimiento de dónde se encuentra cada información, la representación lógica de los datos y su semántica. Interfaz de usuario común: el sistema ofrece al usuario una interfaz única (por ejemplo, un navegador web, Microsoft Sharepoint, ERP, Contents Management Systems CMS, etc.). Los datos de las distintas aplicaciones son presentados con el mismo estilo (Look and Feel). Sin embargo, la integración de los datos requiere del mismo proceso al usuario. Integración de aplicaciones: los resultados de integrar las aplicaciones se muestran al usuario. Este enfoque es válido con un número pequeño de 25

34 componentes. Esto se debe a que el esfuerzo de desarrollo y mantenimiento de múltiples interfaces y de homogeneización de formatos de dato crece con las aplicaciones. Integración por Middleware. El objetivo del Middleware es proporcionar funcionalidad con un formato conocido para su reutilización, favoreciendo cualquier iniciativa de integración (por ejemplo SQL-Middleware como JDBC, ODBC, OLE DB, etc.). Aunque SQL-Middleware facilita un punto de acceso uniforme para ejecutar consultas SQL contra bases de datos heterogéneas, no ofrece un proceso de integración de datos. Es decir, no ofrece la capacidad para ejecutar una consulta contra datos distribuidos en heterogéneas bases de datos y devolver un resultado integrado. Acceso uniforme a datos: se ofrece una integración lógica de datos al nivel de acceso de datos. Para ello, aplicaciones globales proporcionan una vista global de datos físicamente distribuida. Esta integración es virtual no física, con lo que surge el problema de que una provisión global de datos integrados físicamente puede tener un rendimiento bajo debido a que el acceso, homogenización e integración se hace en tiempo de ejecución. Almacenamiento común de datos: la integración física de los datos se realiza transfiriendo los datos a un nuevo almacén. Al estar los datos físicamente integrados se proporciona un acceso más rápido. El problema recae ahora en la actualización de los datos. Si las aplicaciones que accedían a las bases de datos no pueden acceder a esta nueva base de datos, entonces se debe mantener las bases de datos originales. Con ello, se produce una pérdida de validez de los datos, lo que conlleva técnicas de sincronización. En la práctica, las soluciones de integración se suelen basar en una combinación de varios de los métodos presentados. Algunos ejemplos son: Sistemas mediadores de consultas (Mediated query systems): propuesta para proporcionar una solución uniforme de acceso a datos a través de un único punto para accesos de consulta de sólo lectura a varias fuentes de datos. La idea es que un mediador [4] que contiene un procesador de consulta global divide la consulta en las subconsultas adecuadas para extraer los datos de sus fuentes. Los resultados obtenidos son recombinados según la consulta original para devolver el conjunto de resultados adecuado. Portales que proporcionan un acceso uniforme a Internet o Intranet donde se proporciona a cada usuario con aquella información que mejor se adecua a su perfil. La forma de averiguar el perfil del usuario y qué información encaja es mediante técnicas de minería web aplicadas al análisis de su navegación. Es decir, cada vez que visualiza algo contribuye a definir su perfil de interés. Data warehouse constituyen un almacenamiento común de datos integrados de diversas fuentes. Gracias al concurso de soluciones para la extracción, transformación y carga (Extract, Transform and Load - ETL), los datos son integrados en una única base de datos. Estos datos posteriormente son usados para su análisis: minería de datos, reporting, online analytical processing OLAP, etc. 26

35 Almacenes operacionales de datos (Operational data stores - ODS) son otro ejemplo de almacenamiento común de datos. Diseñados para realizar un procesamiento de datos integrados, cuyos resultados alimentarán a las bases de datos operativas, a data warehouses o herramientas de análisis. Estos se diferencian de los data warehouses en la actualización de los datos (mucha menor frecuencia en data warehouses) y que en los almacenes operacionales de datos no manejan grandes cantidades de información, estando más orientados a datos atómicos o de bajo nivel (transacciones, precios, etc.) con una limitada historia. Sistemas de bases de datos federadas (Federated database systems - FDBMS), proporcionan una acceso uniforme a datos, integrando lógicamente datos desde Sistemas Gestores de Bases de Datos (DBMS) locales. Los sistemas de bases de datos federadas son completos DBMS. Esto significa que implementan su propio modelo de datos, soportan consultas globales, transacciones globales y control de acceso global. Workflow management systems (WFMS) permiten implementar procesos de negocio, donde cada paso puede ser ejecutado por una aplicación diferente o por un usuario. En general, los WFMS suponen una integración de aplicaciones, soportando el modelado, ejecución y mantenimiento de los procesos. Integración por servicios web realiza la integración de componentes software (en este caso servicios web). Dependiendo de su funcionalidad, los servicios web representan un acceso uniforme a datos o una interfaz común de acceso a datos para una integración posterior. Con el apogeo de las aplicaciones web y su modelo de explotación SaaS (Software As A Service), los servicios REST están erigiéndose como una fuerte alternativa a los servicios web. La integración Peer-to-Peer (P2P) es una aproximación descentralizada a la integración entre iguales autónomos y distribuidos, donde los datos pueden ser mutuamente intercambiados e integrados. La integración P2P constituye, dependiendo de la funcionalidad de integración proporcionada, un acceso uniforme a datos o una interfaz de acceso a datos para su procesamiento posterior. 3 Data warehouse Como suele ocurrir en informática no existe una definición única para data warehouse. Para Inmon [1], considerado el padre del data warehouse, el data warehouse es un conjunto de datos integrados, orientados a un tema que varían con el tiempo y no transitorios, los cuales soportan el proceso de toma de decisiones de una entidad. Para otros [7], un data warehouse se puede ver como una colección de tecnologías de soporte a la decisión, orientado a posibilitar mejores y más rápidas decisiones. En la Fig 2, se puede ver cómo el data warehouse es una gran base de datos ajena a las bases de datos operativas. El motivo es que las bases de datos operativas están orientadas a soportar aplicaciones transaccionales mientras que los data warehouse están orientados a la toma de decisión. Esto implica a veces la consolidación, 27

36 resumen, evolución de los mismos datos. Esto puede hacer que las data warehouse alcancen dimensiones de giga o terabytes. Lo que supone un reto importante para su rendimiento en consultas. Por otro lado, los datos se modelan multidimensionalmente. Conceptualmente, estos datos se pueden mostrar como si fuera un cubo, donde cada una de sus dimensiones representa un detalle de interés sobre ese dato (hecho). Por ejemplo, una tabla muestra dos dimensiones sobre un mismo hecho. La flexibilidad del data warehouse permite trabajar con cada dimensión como una jerarquía. Así, un periodo de ventas puede organizarse en una jerarquía de días, meses, cuatrimestre y años. Para optimizar el funcionamiento de las herramientas de análisis contra tal ingente cantidad de datos, algunos sistemas proponen la implementación de los denominados data marts. Un data mart es una base de datos cuyo contenido y estructura de los datos está fuertemente condicionada por la herramienta que lo va a usar así como del tema que se pretende analizar (por ejemplo, el departamento financiero). Fig. 2. Muestra los elementos más importantes en la implantación de un data warehouse. Imagen sacada de El data warehouse contiene un repositorio de metadatos en el cual se almacena toda la información relativa a su configuración así como a la definición del contexto en el que se encuentra: descripciones de las fuentes de datos, definiciones del esquema, datos derivados, etc. El otro elemento clave son los procesos que permiten poblar y mantener los datos del data warehouse. Se han definido tres etapas en la construcción de un data warehouse: Extraer: El proceso por el cual los datos se extraen de la fuente de datos 28

37 Transformar. La transformación de los datos de origen en un formato pertinente a la solución. Cargar: almacenamiento de datos en el data warehouse. El orden en que estos procesos se ejecuten tiene un impacto importante en los resultados obtenidos. Así, el orden más habitual se denomina ETL (Extract, Transform and Load). Los datos se extraen de sus fuentes de datos usando una herramienta de acceso a datos a través de cualquier conectividad de datos disponible, almancenándolos temporalmente (en lo que se denomina staging area). A continuación, los datos son transformados aplicándoles procedimientos predeterminados. En este proceso, se debe realizar la transformación de formato, la verificación de su calidad e integridad, tomar medidas correctoras, etc.. Una vez los datos han sido procesados y se encuentran en el formato adecuado en el staging area, son cargados en el data warehouse. Se debe recordar que en el diseño del proceso de transformación al formato adecuado, se debe tener en cuenta las dimensiones de los hechos y sus jerarquías/agregaciones. Alternativamente, algunos autores apuntan a una ordenación del tipo ELT. En este caso, una vez que se dispone de los datos extraídos en el staging area, se realizan transformaciones relativas a la verificación de las reglas de negocio y de la integridad de los datos, postergando la adecuación al formato de salida para cuando los datos se encuentren cargados en el data warehouse. Esta ordenación permite romper la dependencia entre las etapas de transformación y carga. Así, modificaciones en los datos originales y los formatos de salida tendrá un impacto menor en el mantenimiento de los proceso. Es más, al insertar los datos verificados en el data warehouse, previo a su transformación, permite tener datos buenos que podrán usarse en un futuro. Lo que contribuye en general a reducir los costes de mantenimiento del data warehouse. 4 Integración de datos En [5], se puede encontrar una enumeración de algunos de los factores sobre las capacidades y retos que supone el Enterprise Information Integration (EII). El objetivo de este enfoque es proporcionar soluciones que permitan la integración de datos desde múltiples fuentes sin tener que cargarlos primero en un data warehouse. Un escenario de integración de datos comienza con la identificación de las fuentes de datos, para luego definir el esquema virtual, que será el usado en las consultas. El cómo son ejecutadas estas consultas ya se adelantó al hablar sobre los Mediated query systems. Básicamente, las consultas serán reformuladas en consultas a las fuentes de datos. Los datos devueltos serán integrados de acuerdo a la consulta original para ser devueltos. Uno de los retos que debe afrontar este enfoque es la forma eficiente en la que se deben descomponer la consulta, de acuerdo con los planes de ejecución calculados, y distribuirlos contemplando las limitaciones y capacidades de las fuentes. 29

38 Las ventajas más importantes que aporta EII frente a data warehouse son la actualidad del dato y la reducción de costes. Se debe recordar que uno de los problemas que tiene la copia múltiple de datos es la obsolescencia e integridad de los datos: cómo de actualizados son?. Por otro lado, algunos de los retos que debe superar esta tecnología para hacerse un hueco en el mercado están: Escalado y rendimiento. La pregunta clave es cómo un procesador de consultas que accede a las fuentes en tiempo real puede proporcionar un rendimiento adecuado y predicible?. Las soluciones de EII compiten por los recursos de las fuentes de datos para atender sus consultas. De ahí que su rendimiento dependa del entorno de ejecución. Por ejemplo, el entorno de implantación de un EII puede tener sistemas cuyo rendimiento es muy crítico y no se permite la consulta por sistemas externos. Por otro lado, algunas soluciones actuales de data warehouse muestran capacidades de acceso a datos en tiempo real. Sistemas verticales frente a horizontales. Otro elemento que diferencia ambas soluciones es su propia naturaleza. Mientras que el desarrollo de una solución de data warehouse está íntimamente relacionado con la temática que se pretende analizar, los sistemas EII son soluciones horizontales genéricas. La controversia se centra en determinar qué es más interesante una solución ad-hoc frente a una solución genérica que se debe integrar en la arquitectura del sistema. La integración con soluciones EAI (Enterprise Application Integration) y otros middleware. Las soluciones de EII pueden ser de utilidad cuando se tiene una infraestructura de EAI, ya que permite facilitar el acceso a datos que pueden requerir las aplicaciones. Por otro lado, existen otras soluciones (herramientas de limpieza de datos, herramientas de análisis y elaboración de informes) cuya integración con la EII y EAI supondría una mejora significativa. Sin embargo, en este punto, los data warehouse podrían dar una solución equivalente para el análisis y limitada cuando se trata de manipular los datos originales. La gestión de metadatos y la heterogeneidad semántica. La integración de datos fuerza a localizar y comprender los datos que se integran. En algunos casos, la situación se complica debido a que los datos que se precisan no se encuentran disponibles en ninguna fuente, siendo necesario obtenerlos mediante procesamiento. En otros casos, se requiere un esfuerzo significativo para comprender las relaciones semánticas entre las fuentes, para transmitir los resultados buscados. En este punto, muchos podrían pensar en la web semántica para resolver este problema de integración. Aunque, la web semántica no ha terminado de implantarse en Internet, parece que empieza a despertar un interés general (no solo académico) el uso de este tipo de soluciones para describir los metadatos, a la vez que se da una solución genérica al problema de la evolución de los esquemas. 30

39 5 Soluciones mixtas La realidad es que se suelen plantear soluciones mixtas EII y data warehouse. El motivo es intentar obtener lo mejor de ambos enfoques. En [8], se proponen y justifican varias arquitecturas que pueden extender una solución basada en los data warehouse. Así, en la parte izquierda de la Fig. 3, se muestra una arquitectura típica de data warehouse. En este caso, se han introducido las soluciones de ODS (Operational data stores) ya presentados en este trabajo. El ODS se ha introducido para proporcionar varias soluciones: Reducir el tiempo de latencia desde que se modifica un dato y se tiene disponible en los data mart para su análisis. Ofrecer capacidades para actualizar esos datos y que se expandan a las fuentes de datos así como a los data mart. Arquitectónicamente, los ODS pueden ubicarse: Como una capa intermedia entre el data warehouse (DBW), forzando que los procesos de extracción y transformación se realicen contra el ODS y posteriormente se aplique la carga contra el DBW. Como una forma de saltarse el DBW, como muestra la Fig 3. La gran desventaja de usar ODS para modificar datos estriba en el proceso de consolidación en todos los lugares y capas donde se encuentra ese dato. 31

40 Fig. 3. Acceso federado a datos en tiempo real. ODS e EII. Imagen sacada de [8]. A la necesidad cada vez mayor de disponer de datos en tiempo real, hay que añadir el interés por combinar datos estructurados con no-estructurados (por ejemplo, s). Aun siendo el 85% de la información digitalizada, los datos no estructurados se han mantenido fuera de los data warehouse. En la actualidad, las soluciones comerciales están proporcionando más capacidades para almacenar y tratar estos datos no estructurados, permitiendo que los data warehouse puedan gestionarlos como cualquier otro dato. Alternativamente, surgen propuestas para combinar soluciones data warehouse y EII. EII aporta al data warehouse el acceso a datos raramente accedidos, o con un alto coste en almacenamiento. Así, por ejemplo, EII aporta una solución más elegante al problema de proporcionar datos actualizados a un data mart mediante un ODS. De esta forma, cuando la consulta del usuario final se ejecute, se lanzaría una consulta simple a la base de datos operativa, y sus resultados integrados para su presentación. Como ventaja todo el esfuerzo necesario por mantener el ODS se reduce. Para evitar el problema del rendimiento y el acceso a las bases de datos operativas, se hace una fuerte recomendación de que las consultas sean simples, que los datos devueltos no sean excesivos y que las consultas puedan realizarse eficientemente con las capacidades que poseen los DBMS de las fuentes. Las promesas de un data warehouse con los datos completamente federados o virtuales lamentablemente todavía no son viables. Los motivos principales son su rendimiento, inconsistencia y autonomía. 32

41 Fig. 4. Acceso federado a datos no estructurados. DBW e EII. Imagen sacada de [8]. En la Fig. 4, se muestra otra ventaja de extender las data warehouses con soluciones EII, cuando se trata de acceso a datos no estructurados, para su incorporación a algún tipo de informe. El proceso habitual de incorporar estos datos al data warehouse para su posterior recuperación mediante consulta puede no ser el método idóneo. Los datos no estructurados suelen ser de gran tamaño. Además, puede darse el caso de que estos datos sean gestionados por soluciones externas a la organización (CRM, redes sociales, redes corporativas, ), que sean datos volátiles, o incluso que sea difícil determinar cuándo han cambiado y sea necesario actualizarlos. En estos casos, EII aporta la ventaja de acceder a este tipo de datos únicamente cuando se requieren. 6 Big data El desarrollo que se está produciendo en las TIC está favoreciendo la capacidad para manejar mayores cantidades de datos. Algunas cifras establecen la generación de 2,5 quintillones de bytes de datos diarios. Estos datos provienen de múltiples sitios: sensores, posts de redes sociales, imágenes, vídeos, GPS, etc.. Al final, se disponen de terabytes o petabytes de información (lo que se denomina Big Data) disponibles, los cuales se desean consultar y, cada vez más, analizar. Los retos que se plantean es cómo hacer viable este tratamiento en unos promedios razonables. Por ejemplo, la velocidad de procesamiento puede ser crítica. El buscador de Google lanza los criterios de una búsqueda y permite ver los resultados en un tiempo de espera más que 33

42 razonable. Identificar el fraude en transacciones bancarias. Mashup de información diversa puede revertir en obtener nueva información cuando se analiza conjuntamente, por ejemplo google, facebook, etc. A esto se debe añadir que la información está altamente distribuida, de fuentes diversas y la mayoría de forma no estructurada, con una carencia importante de su significado semántico. En [9], se presenta la contribución del análisis de Big Data frente al análisis tradicional como la incorporación de los datos no estructurados al análisis basado exclusivamente en datos estructurados. Cuando se está hablando de BI, data mining, etc buscar tendencias con un análisis tradicional está más limitado básicamente por: carecer de información casi real y no considerar la información no estructurada relacionada. Fig. 5. Elementos de la arquitectura de Big Data. Fuente Talend (open integration solucions). En la Fig. 5, se muestra la interacción entre los tres elementos principales de la arquitectura para el tratamiento de Big Data: Los productores de Big Data. Son los generadores de datos como bases de datos relacionales y no-relacionales, social media y web analytics, ficheros de log, datos de sensores, aplicaciones como ERP, CRM, SCM, etc. La alta frecuencia de generación de datos los ha convertido en generadores de Big Data. Gestión de Big Data. Esto implica su gestión, procesamiento y filtrado. Entre las tecnología a emplear se encuentran: NoSQL, MapReduce, Hadoop, Big Data Integration y Big Data Quality. 34

43 Consumidores de Big Data. Se trata de las herramientas de análisis con capacidad para gestionar Big Data: minería de datos, motores de búsqueda, etc. Hadoop es una de las soluciones con mayor aceptación en el mercado y viene de la mano de Apache. Se trata de una implementación de MapReduce que, junto con las aplicaciones Hadoop, permite el procesamiento de conjuntos masivos de datos y dar soporte a servicios Big Data. La Fig. 6 muestra la evolución que ha sufrido los procesos de generación de data warehouse hasta llegar al procesamiento de Big Data con Hadoop. Fig. 5. Elementos de la arquitectura de Big Data. Fuente Talend (open integration solucions). 7 Conclusión Con este trabajo se ha querido mostrar las oportunidades y posibilidades que ofrece la tecnología de integración de datos de cara a los negocios, sus departamentos de TI, o como especialización para acceder al mercado laboral. Esta área lejos de ser algo puntual y pasajero, con un crecimiento y una fuerte dependencia con otras áreas (por ejemplo BI, gestión de datos, calidad del dato, etc.) que asegura su continuidad y presencia en ofertas laborales. Sirva como referente los innumerables portales que están apareciendo dedicados al mashup. 35

44 Referencias 1. Patrick Ziegler and Klaus R. Dittrich: Three decades of data integration -- all problems solved? In René Jacquart, editor, IFIP Congress Topical Sessions, pages Kluwer, (2004). 2. Public Sector Information - Raw Data for New Services and Products, European Commision, Information Society, 3. Planificación de recursos empresariales, Wikipedia, es.wikipedia.org/wiki/planificación_de_recursos_empresariales 4. Wiederhold, Gio: Mediators in the Architecture of Future Information Systems. IEEE Computer, 25(3):38 49 (1992) 5. A. Y. Halevy, N. Ashish, D. Bitton, M. Carey, D. Draper, J. Pollock, A. Rosenthal, and V. Sikka: Enterprise information integration: Successes, challenges and controversies. In Proceedings of the ACM SIGMOD Conference (2005). 6. Inmon, W.H.: Building the Data Warehouse. QED technical publishing Group (1992). 7. Surajit Chaudhuri, Umeshwar Dayal, An overview of data warehousing and OLAP technology, ACM SIGMOD Record, v.26 n.1, p.65-74, (1997) 8. Barry Devlin. Information Integration-Extending the Data Warehouse. IBM Press, USA (2003). 9. Powell, J.E.: Big Data: Benefits, Challenges, and Best Practices, TDWI -The Data Warehousing Institute. Business Agility (2012) 36

45 La Investigación e Innovación en TIC como Motor de Castilla-La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Utilizando métodos formales en la nueva era de computación José Antonio Mateo Cortés Instituto de Investigación en Informática de Albacete, Campus Universitario s/n Albacete, España. Resumen Este trabajo ha sido preparado para el XXII Curso de Verano de Informática que lleva por título La Investigación e Innovación en TIC como Motor de Castilla-La Mancha. Por tanto, el objetivo del mismo es mostrar con cierto nivel de detalle el trabajo de los diferentes grupos de investigación del Instituto de Investigación en Informática de Albacete (I3A). Concretamente, en este documento se presenta parte del trabajo realizado por el grupo de Sistemas Concurrentes y Tiempo Real (ReTiCS), que se centra en la utilización de técnicas formales para el diseño y análisis de cualquier tipo de sistema. Por tanto, se realiza una breve introducción a los métodos formales y su aplicación en las nuevas tecnologías como servicios web compuestos, Grid Computing y Cloud Computing. Además, se muestra las diferentes fases que componen la metodología Correct Web Services que permite especificar sistemas web mediante diagramas UML, y su posterior validación y verificación mediante el uso de la técnica conocida como model checking. El objetivo no es mostrar toda la teoría subyacente para verificar formalmente un sistema, sino que el lector conozca algunas de las diferentes técnicas existentes en la actualidad, así como su utilización práctica en casos de estudio reales. Palabras clave: Métodos Formales ; Model Checking ; Servicios Web. 1. Introducción A lo largo de la historia de la computación, los ingenieros han usado diferentes técnicas formales para mejorar la calidad del hardware y software. Estos sistemas con el incesante avance tecnológico en técnicas de integración y metodologías de programación crecerán inevitablemente en escalabilidad y complejidad. Debido a esta complejidad, la probabilidad de error es mayor y, además, alguno de estos errores pueden ocasionar incalculables pérdidas económicas, de tiempo o, incluso, la pérdida de vidas humanas. Por tanto, el principal objetivo de los ingenieros debe ser facilitar a los desarrolladores la tarea de construir sistemas que tengan un ínfimo ratio de errores y que se adecuen a los márgenes comerciales de las empresas. Sin embargo, este tarea no es trivial porque necesitamos asegurar la corrección de las especificaciones y proporcionar técnicas que ayuden 37

46 a la detección de errores y a la verificación de los modelos desarrollados. Una de las vías que los ingenieros han venido utilizando para conseguir este objetivo, como se ha comentado anteriormente, es la utilización de técnicas formales, que pueden definirse como el conjunto de procedimientos y herramientas basados en lenguajes matemáticos que aseguran prácticamente la corrección de un sistema [4] porque aumentan el nivel de conocimiento de un sistema, revelando inconsistencias y ambigüedades que no podrían detectarse con otras técnicas, es decir, los métodos formales ofrecen un mayor grado de refinamiento del modelo que otros métodos. Figura 1. Ejemplos de sistemas donde se usa la formalización. En el pasado, el uso de técnicas formales en la práctica parecía no tener esperanzas, debido a que las notaciones utilizadas eran demasiado complicadas para los no iniciados en la materia, las técnicas no permitían que el sistema fuese escalable y las herramientas existentes eran demasiado difíciles de manejar. Incluso, podía darse el caso de que no existiesen herramientas que modelasen una determinada técnica o formalismo. Además, los casos de estudio no convencían a los desarrolladores sobre la utilidad de la formalización. Sin embargo, a principios de los años 90, se empezó a vislumbrar un nuevo camino en este área. Para la especificación de software, la industria empezó a utilizar el lenguaje Z [10] para obtener especificaciones más rigurosas. Para la verificación del hardware, las principales empresas del sector como Intel o AMD utilizan técnicas como el model checking o theorem proving como complemento a las pruebas realizadas en los simuladores. En ambas áreas, tanto investigadores como desarrolladores están describiendo casos de estudio de mayor tamaño, lo que está beneficiando a 38

47 que otros desarrolladores estén planteándose la posibilidad de implantar el uso de técnicas formales en sus procesos de desarrollo. En la Figura 1 podemos ver distintos sistemas donde se utilizan actualmente estas técnicas para asegurar el correcto funcionamiento de los mismos. Por ejemplo, las compañías que fabrican aviones utilizan lenguajes formales para especificar los requisitos de los mismos y las compañías automovilísticas verifican los sistemas más críticos, en cuanto a seguridad se refiere, utilizando model checking. Las principales ventajas de utilizar técnicas formales son: El uso de las matemáticas como base dota a este enfoque de cierto rigor. Identifica la ambigüedad y las inconsistencias. Facilita la construcción de sistemas consistentes y libres de deadlocks. Otorga confianza al cliente del sistema. Existen multitud de herramientas que dan soporte a las distintas técnicas. Encuentra fallos en etapas tempranas que ahorran mucho dinero. Las principales desventajas (o creencias) que ralentizan el avance de este área son: Se cree que el uso de formalismos ralentiza el desarrollo. Muchos desarrolladores piensan que es difícil trabajar con especificaciones formales. No garantiza la corrección del código implementado (sólo la del modelo en que se basa). El aumento de la complejidad del sistema provoca un aumento exponencial de la complejidad de la verificación. Una de las partes más importante en el desarrollo de un sistema es la especificación de requisitos. En el área de la ingeniería, una especificación puede verse como un documento técnico donde se describen las características y servicios necesarios para construir un producto, aunque también puede incluir información sobre etapas posteriores como la verificación, validación, etc., por tanto, si queremos desarrollar sistemas correctos y de calidad debemos dedicar el tiempo necesario a la especificación. De todos modos, realizar correctamente la especificación no garantiza la ausencia de errores porque la presencia de fallos es una característica intrínseca de los sistemas. En este sentido, el simple hecho de escribir el documento ayuda a los ingenieros a encontrar errores en fases tempranas del desarrollo, ahorrando mucho dinero y tiempo al proyecto como puede verse en la Figura 2. Otra fase del desarrollo donde se utilizan formalismos es en la etapa de Verificación. Se puede definir Verificación como la etapa donde se comprueba que el producto fabricado es correcto, es decir, en el caso de la informática, que nuestro sistema cumple las propiedades que se describen en la especificación. El objetivo de esta tarea puede resumirse en una de las frases más celebres de uno de los padres de los métodos formales: 39

48 La verificación de un programa sólo muestra la presencia de errores, pero nunca garantiza la ausencia de los mismos Edsger Wybe Dijkstra En el ciclo de vida clásico, las fases de verificación y validación se realizan después de la fase de implementación, pero, como hemos visto en la Figura 2, es necesario detectar los errores en las fases más tempranas del desarrollo. Como es de esperar, es prácticamente imposible verificar un sistema completo, por lo que el objetivo de los métodos formales y de nuestro trabajo es comprobar si se cumplen ciertas propiedades en el modelo. Las propiedades de interés que es necesario verificar estarán relacionadas con los problemas clásicos de concurrencia (deadlock, exclusión mutua,...), así como algunos aspectos relacionados directamente con el sistema que se está construyendo, como puede ser comprobar si se cumplen ciertas restricciones temporales. Por ejemplo, en un sistema bancario es necesario verificar si las transacciones cumplen los tiempos estipulados para su realización, ya que si exceden estas restricciones podrían ocasionarse problemas de seguridad en el sistema, lo que haría perder mucho dinero al banco en cuestión. Otro ejemplo podría ser el sistema de reservas de una aerolínea, ya que no podemos permitir que un usuario reserve un asiento durante un largo período de tiempo porque podría no comprarlo finalmente y evitar que otro lo pudiera adquirir, con el consiguiente perjuicio para la compañía. Figura 2. Evolución del coste de reparación de un fallo. Centrándonos en la fase de verificación, se pueden seguir dos vías para realizar la verificación de un sistema: Human-directed proof o Automated proof. El primer caso se utiliza cuando se quiere afianzar el conocimiento sobre el sistema en lugar de asegurar completamente la corrección del mismo, por lo que es una persona la que realiza de forma manual la verificación. En la segunda aproximación (automated proof) tenemos dos variantes: automated theorem proving y model checking. El automated theorem proving consiste en que un programa 40

49 trata de producir una prueba formal de un sistema desde el principio, dando una descripción del mismo, un conjunto de axiomas lógicos y una serie de reglas de inferencia. Por otro lado, el model checking [7] es una técnica automática para verificar sistemas reactivos de estados finitos. En esta aproximación, la especificación está expresada en lógica proposicional temporal, normalmente LTL [15] o CTL [17] o algunas de sus variantes, y el sistema se representa como un grafo de transiciones entre estados conocido en la mayoría de ocasiones como autómata. En esta técnica debe utilizarse un eficiente método de búsqueda para determinar si el autómata satisface la especificación. El model checking tiene numerosas ventajas sobre automated theorem proving, pero la más importante es que el proceso tiene más partes que se pueden automatizar, por lo que la fase de prueba (testing) dentro del ciclo de vida del sistema es más rápida. Normalmente, el cliente sólo pone a disposición del ingeniero una representación a alto nivel del sistema (generalmente, en lenguaje natural) y la especificación del mismo, también en lenguaje natural. Así, cualquier model checker (Spin [9], UPPAAL [12], etc.) termina el proceso con una respuesta afirmativa si el modelo propuesto satisface la especificación o proporciona un contraejemplo para localizar dónde se ha producido el error. En las siguientes secciones nos centraremos en presentar brevemente en qué consiste el model checking, presentar alguna de las herramientas que nos permiten automatizar esta tarea, y se mostrará una metodología que permite comprobar la corrección de un sistema. 2. Model Checking para Sistemas de Tiempo Real En este trabajo para el curso de verano nos centraremos en describir más en profundidad la técnica conocida como model checking y, concretamente, su aplicación en sistemas de tiempo real. Los sistemas donde el tiempo juega un papel crucial para su funcionamiento y evolución son conocidos como Sistemas de Tiempo Real (Real-Time Systems). Este tipo de sistemas son el núcleo que controla la mayoría de sistemas industriales, financieros y gubernamentales, donde el tiempo de respuesta determina el grado de corrección, la eficiencia, la satisfacción del usuario y otras variables de calidad, por lo que su correcto funcionamiento es vital para evitar errores que pueden ocasionar grandes pérdidas. Sin embargo, dentro de estos sistemas existe otro tipo, donde las restricciones temporales juegan un papel realmente crucial, conocidos como strong time restrictions systems. En este entorno es necesario verificar completamente que el sistema tiene un ratio de error ínfimo porque un simple fallo podría ocasionar que el sistema dejara de funcionar. Otra información útil para los ingenieros de este tipo de sistemas es la probabilidad de que ocurra un fallo, cuando éste no se puede eliminar. Esta medida sirve para dar confianza a los clientes, ya que un sistema con baja probabilidad de error aumenta el grado de satisfacción y confianza en el mismo. Asímismo, permite medir la necesidad de rediseñar el sistema o de mantenerlo en funcionamiento. A veces, el fallo se debe a un factor externo que el sistema no puede 41

50 manejar, como, por ejemplo, el tiempo, las leyes físicas o desastres naturales. Todos estos factores tienen en común que su aparición es incontrolable, pero es posible predecir su aparición con una razonable probabilidad. Así, existen sistemas donde la combinación de ambas características, tiempo y probabilidad, determinan las características principales del mismo, por lo que las técnicas de verificación no sólo tienen que tener en cuenta las restricciones temporales sino que deben considerar la probabilidad de que ocurran sucesos inesperados. A continuación, se describen dos herramientas que, entre otros cosas, permiten realizar model checking de un sistema UPPAAL - Una herramienta para la verificación automática de Sistemas de Tiempo Real UPPAAL es una herramienta para la verificación automática de dos propiedades cruciales en los sistemas informáticos: safety y liveness, es decir, debemos asegurar que nuestro sistema es consistente (seguro) ante posible ataques o fallos y que permanecerá funcionando ante estos contratiempos [2]. El motor de UP- PAAL transforma una clase de sistemas lineales híbridos en redes de autómatas temporizados e implementa técnicas basadas en la resolución de restricciones. UPPAAL también ofrece valiosa información de diagnóstico en el caso de que la verificación falle. A pesar de que fue desarrollada en 1995, actualmente cuenta con muchas características (probabilidades, costes, energía, etc.), gracias a la labor de investigación realizada durante estos años. Debido a este alto grado de madurez y a la facilidad para conseguir información por las colaboraciones del grupo Re- TiCS con la universidad de Aalborg, nuestro grupo de investigación ha realizado múltiples trabajos básandose en ella CPNTools: Una herramienta para modelar, editar y analizar redes de Petri coloreadas Las redes de Petri coloreadas (CPNs) [11] son un lenguaje para el modelado y la validación de sistemas, en los cuales la concurrencia, la comunicación y la sincronización entre procesos son una parte muy importante. Las redes de Petri coloreadas son un lenguaje de modelado de eventos discretos que combina las redes de Petri clásicas con lenguajes funcionales de programación, como puede ser el Standard ML (SML). Por un lado, las redes de Petri proporcionan la notación gráfica y las primitivas básicas para modelar concurrencia, comunicación y paralelismo, mientras que el lenguaje SML proporciona las primitivas para la definición de los tipos básicos, describe la manipulación de datos y proporciona mecanismos para la generación de modelos compactos y parametrizados. Un modelo CPN de un sistema es un modelo ejecutable que representa los estados del mismo y los eventos (transiciones) que causan que el sistema cambie de estado. Además, este modelo permite organizar el diseño de un sistema como un conjunto de módulos. 42

51 En este sentido, la herramienta considerada como estándar de facto para la definición y análisis de redes coloreadas es CPNTools. Mediante el uso de esta herramienta es posible validar y verificar un sistema mediante dos técnicas: Simulación y verificación formal. Por un lado, el sistema bajo estudio puede ser válidado con cierto nivel de precisión mediante simulación, es decir, se introduce una cantidad suficiente de casos de prueba y se comprueba si los resultados obtenidos son los esperados en la especificación. Por otro lado, CPNTools permite realizar la verificación formal de un sistema. Esta técnica consiste en construir un árbol con todos los posibles caminos que pueden recorrerse al ejecutar el sistema. Su principal ventaja es que permite verificar propiedades como la ausencia de bloqueos. Sin embargo, su principal inconveniente es la explosión de estados, es decir, si el sistema en estudio es demasiado complejo podemos encontrarnos con que la construcción de dicho árbol no se puede abordar en una computadora actual. El lector interesado en la herramienta y el formalismo subyacente puede acudir a [11]. 3. Services Oriented Computing (SOC) Por otro lado, nuestro grupo ha focalizado su esfuerzo en los últimos años en el análisis de servicios web compuestos y, últimamente, en el análisis de sistemas distribuidos de última generación (Grid Computing). Aunque la Web fue inicialmente concebida para el uso exclusivo del ser humano, muchos expertos consideran que tiene que evolucionar (probablemente a través del diseño y construcción de servicios modulares) para soportar mejor la automatización de muchas tareas. El concepto de servicio proporciona un mayor nivel de abstracción para organizar las aplicaciones a gran escala y construir entornos más abiertos, ayudando a desarrollar aplicaciones con mejor productividad y calidad que las que podríamos fabricar con otros enfoques. Puesto que los servicios son sólo un medio para la construcción de aplicaciones distribuidas, no podemos hablar de ellos sin hablar de las aplicaciones basadas en servicios, en concreto, cómo se construyen y cómo los servicios deben funcionar conjuntamente dentro de ellas. La Figura 3 muestra un ejemplo de arquitectura basada en servicios, donde como puede observarse hay tres partes principales: un proveedor, un consumidor y un registro. Después de esta breve introducción a la arquitectura en la que se basa la mayoría de sistemas web, se presenta detalladamente uno de los trabajos realizado dentro de las líneas de investigación del grupo ReTiCS, donde se ha definido una metodología para el modelado y análisis de servicios web compuestos usando técnicas formales. 4. Metodología para la creación de Servicios Web correctos (Correct-WS) Como se ha comentado anteriormente, los servicios web constituyen un interesante campo de aplicación para los métodos formales. Así, en la Figura 4 se 43

52 Figura 3. Arquitectura cliente-servidor para servicios web. muestra la relación entre el lenguaje para describir coreografías, WS-CDL [18], entendiendo coreografía como el conjunto de pasos que tienen que dar conjuntamente los servicios web para realizar una tarea común, y la capa de orquestación, WS-BPEL [16], entendiendo orquestación como el conjunto de pasos individuales que deben dar cada servicio web. Para hacer un símil musical (Figura 4), la coreografía sería la partitura del director de orquesta y la orquestación sería la partitura particular de cada músico, es decir, la coreografía define el comportamiento global del conjunto de servicios y la orquestación el particular de cada uno de los mismos. La parte más importante de esta relación, en cuanto a temporización se refiere, es la coreografía porque marca el tiempo exacto donde cada integrante entra en escena, aunque ambas partes son importantes. En esta fase, como en otros procesos de desarrollo, un requisito importante es la corrección ( correctness ). Este concepto no sólo cubre la ausencia de errores, ya que la existencia de fallos es una característica inherente de los sistemas informáticos, sino que también incluye la adaptación del producto desarrollado a la especificación del mismo. Asimismo, el objetivo más importante en las etapas de validación y verificación es probar la corrección del sistema construido, por lo que el proceso de verificación debe jugar un papel importante en el desarrollo de los mismos (área que cubre principalmente la investigación del grupo Re- TiCS). Sin embargo, hay que resaltar que debido al amplio abanico de sistemas que utilizan servicios web como arquitectura subyacente es necesario focalizar la investigación en una parte de este entorno y, como se comentó en la introducción, uno de los aspectos vitales son las restricciones temporales. Así, resulta importante asegurar la corrección de la arquitectura sin olvidar las restricciones temporales de la misma. Un ejemplo de ésto podrían ser las transferencias bancarias, ya que no solo es importante que se realicen correctamente sino que también es necesario realizarlo a tiempo. 44

53 Choreography Layer WS-CDL Orchestration Layer WS-BPEL ORCHESTRA PERCUSSION WS-BPEL DOC WIND WS-BPEL DOC STRINGS WS-BPEL DOC DIRECTOR WS-CDL DOC Figura 4. Relación entre WS-CDL y WS-BPEL. 5. Metodología Correct-Web Services A lo largo de esta sección, se describe la metodología que puede usarse en el diseño e implementación de servicios web con restricciones temporales. Esta metodología se llama Correct-WS methodology, y los primeros pasos en la definición de la misma pueden encontrase en [6]. Esta metodología esta siendo desarrollada y revisada durante los últimos años. Si el lector desea más información de la misma puede acudir a [14]. Por otro lado, antes de entrar en detalles sobre la metodología, es necesario realizar ciertas definiciones para que el lector comprenda el concepto de servicio web correcto. Así, la primera parte de la sección se dedica a describir esta cuestión, mientras que la segunda muestra las diferentes fases de la propuesta Qué es un servicio web correcto? El concepto de corrección en el ámbito de los servicios web puede ser entendido como: Se define como servicio web correcto aquel que cumple las propiedades especificadas en los requisitos. Los errores que pueden cometerse en el diseño de composiciones de servicios web pueden clasificarse en dos tipos: 45

54 1. Específicos: Errores que surgen debido a la aplicación actual del servicio. Como podría ser el uso de un recurso inexistente o propenso a fallos. 2. Generales: Errores relacionados con las características generales del sistema, como pueden ser concurrencia, calidad de servicio, tiempo de respuesta, seguridad, etc. En este caso, al componer diversos servicios, el fallo más común aparece cuando surgen incompatibilidades en la integración, pudiendo ser éstas de tipo temporal, carreras en el paralelismo, errores de acceso no autorizado, etc Cómo podemos generar servicios web correctos? En la generación de servicios web [8], como en el desarrollo de cualquier software, es necesario aplicar una metodología que cubra todas las fases (o la mayor parte) del ciclo de vida del producto. Las fases más importantes de este proceso, en el campo de los métodos formales, son: Análisis, Diseño, Implementación, Verificación, Validación, y finalmente, Implantación y Mantenimiento. La metodología desarrollada contempla de momento las primeras de estas fases aunque se están estudiando nuevas ampliaciones. En la Figura 5 puede verse un diagrama que muestra los diferentes componentes de este enfoque. Las flechas blancas significan que debe volverse a la fase anterior porque se han encontrado fallos en esa fase. Figura 5. Esquema de la metodología Correct-WS. 46

55 Correct-WS methodology tiene la siguientes fases: 1. Fase de Análisis: En esta fase, se utiliza una aproximación basada en objetivos. En concreto, una extensión de la metodología KAOS, para capturar los requisitos que queremos cumplir. 2. Fase de Diseño: Aquí, para capturar el modelo del sistema se utiliza el lenguaje Unified Modeling Language (UML) 2.0, y en particular, la extensión para sistemas con restricciones temporales, Profile for Schedulability, Performance, and Time (RT-UML). 3. Verificación de la fase de Diseño: Suponiendo que hay una fase intermedia que realiza la traducción entre servicios web con restricciones temporales, la fase de verificación consiste en comprobar que se cumplen las propiedades extraídas del modelo en la fase de Análisis. Así, si detectamos fallos en esta fase debemos volver al principio para realizar los cambios necesarios en el modelo. 4. Fase de Implementación de la coreografía: En la metodología propuesta y con la herramienta, WST, desarrollada en el grupo, se consigue la traducción automática del diagrama RT-UML, verificado en la fase anterior, en un documento WS-CDL (documento tipo XML). El mismo proceso se está desarrollando para traducir directamente de RT-UML a orquestación WS-BPEL. 5. Verificación de la Implementación de la Coreografía: El documento WS-CDL generado se traduce automáticamente a autómata temporizado, ya que durante la fase de interpretación pueden aparecer nuevos fallos. Entonces, usamos UPPAAL para comprobar si el autómata temporizado cumple las propiedades y, en caso contrario, se vuelve a la fase de Diseño. En este sentido, se seleccionó WS-CDL como estándar para modelar coreografías porque está siendo utilizado por un amplio número de investigadores dentro del estudio de problemas concurrentes. En recientes trabajos, se han añadido nuevos lenguajes a la metodología. Por ejemplo, el trabajo en el que se centra mi tesis doctoral se basa en la definición de servicios web compuestos con recursos distribuidos. En este sentido, el estándar WSRF proporciona un enriquecimiento particular a los servicios web, ya que permite guardar el estado de un servicios sin necesidad de acceder a una base de datos. En las siguientes secciones se realizará una explicación más detallada de cada fase. 6. Análisis del Sistema El objetivo principal de esta fase es recoger los requisitos o propiedades que el sistema debe cumplir, por lo que para una mejor comprensión de los mismos es necesario expresarlo de una manera estandarizada. En este sentido, existen multitud de lenguajes, diagramas, etc. para llevar a cabo esta tarea, pero en el caso de la metodología anteriormente descrita es necesario utilizar una aproximación que permita capturar las restricciones temporales del sistema. Así, se utiliza un enfoque orientado a objetivos que permite capturar restricciones temporales. 47

56 La principal actividad de un enfoque orientado a objetivos es la construcción de un modelo de objetivos, donde representar los objetivos principales del sistema y dividirlos en subobjetivos cuyo cumplimiento lleve a la consecución del objetivo principal, es decir, el diagrama de objetivos se formula desde los objetivos a alto nivel hasta los objetivos a bajo nivel. Este modelo se representa, normalmente, por un grafo AND-OR. La aproximación utilizada también permite a los analistas capturar y explorar refinamientos alternativos para un determinado objetivo. El framework utilizado es una extensión de la metodología orientada a objetivos KAOS [1,5,13,3] que utiliza un lenguaje de dos niveles: 1. Una capa externa semiformal para la captura de requisitos, conceptos, estructuración y representación de los mismos. 2. Una capa interna formal para dar una definición precisa de los mismos y para razonar sobre ellos. Unobjetivo esundeseoespecíficosobreunsistemaquerequieredelacooperación entre diferentes partes conocidas como agentes. Los agentes son componentes reactivos que juegan un determinado rol en el sistema. Los objetivos pueden referirse a servicios que se prestarán (Objetivos funcionales) o a QoS (Objetivos no funcionales). Para construir modelos de objetivos, los mismos se organizan en jerarquías AND/OR, donde los objetivos de las capas superiores suelen ser estratégicos, de grano grueso e involucran a múltiples agentes, mientras que los de las capas inferiores son, generalmente, técnicos, de grano fino e involucran a pocos agentes. En estas estructuras, los refinamientos AND unen conjuntos de subobjetivos (llamados refinamientos) para cumplir uno más general, lo que significa que es necesario satisfacer todos los subobjetivos para satisfacer el general. En las estructuras OR, el cumplimiento de uno de los subobjetivos implica el cumplimiento del general. Un requisito es un objetivo terminal bajo responsabilidad de un agente en el software a desarrollar. La función de los objetivos es modelar el comportamiento del sistema y, opcionalmente, pueden definirse utilizando el formalismo utilizado en UPPAAL. Los diferentes tipos de objetivos según su comportamiento temporal son: Achieve (reachability), Avoid (not safety), Maintain (safety), Possibly Always, Inevitably y Unbounded Response La Tabla 1 muestra la representación en KAOS de los mismos. Los tipos de propiedades mostrados en la Tabla 1 se definen como: Maintain: Este tipo se utiliza para representar que la propiedad ϕ debe cumplirse en todos los caminos y estados del autómata. Achieve: La propiedad ϕ se cumple en algún camino y al menos un estado del mismo. Possibly Always: La propiedad ϕ se cumplen en algún camino, pero en todos los estados del mismo. Inevitably: La propiedad ϕ se cumple en todos los caminos y en al menos uno de los estados de dichos caminos. Unbounded Response: Si se cumple la propiedad ϕ en un futuro debe cumplirse la propiedad ψ. 48

57 Temporal Behavior Goal Model Representation Maintain (Safety) A[ ] ϕ Achieve (Reachability) E <> ϕ Possibly Always E[ ] ϕ Inevitably A <> ϕ Unbounded Response ϕ > ψ Tabla 1. Tipos de requisitos en KAOS. 7. Diseño y Verificación de Sistemas El objetivo de la fase de diseño de un sistema es capturar el comportamiento detallado de cada componente del mismo para que la posterior implementación sea una representación correcta del sistema. En el campo de la Ingeniería del Software se utilizan los diagramas UML para modelar los diseños, aunque muchos investigadores defienden que no es necesario un estándar o estándar de facto para representar el diseño de un sistema, ya que el lenguaje natural es suficiente para esta tarea. Sin embargo, el objetivo del grupo ReTiCS es realizar una metodología lo más general y entendible posible, por lo que se eligió utilizar UML en la fase de diseño y, más concretamente, se seleccionaron los diagramas de secuencia como mecanismo para modelar el comportamiento de los servicios web. UML proporciona dos tipos de mensajes para modelar el comportamiento o comunicaciones entre agentes: 1. Los Diagramas de Secuencia modelan la secuencia lógica de las interacciones, es decir, el orden cronológico de los mensajes intercambiados entre los componentes del sistema. Los Diagramas de Secuencia modelan de manera visual el flujo lógico del sistema, permitiendo al diseñador documentar y validar dicha lógica. Así, estos diagramas se usan para capturar el comportamiento dinámico del sistema, aunque suelen ir acompañados de otros modelos, como los diagramas de actividad, diagramas temporales, etc.. Por otro lado, los Diagramas de Actividad se definen como: 49

58 2. Los Diagramas de Actividad se utilizan para representar a alto nivel procesos negocio, incluyendo el flujo de datos, o se usan para modelar la lógica que existe dentro de un sistema. Este tipo de representación es utilizada para capturar la lógica subyacente en procesos de negocio, para modelar un caso de uso o una regla de negocio compleja. Se puede considerar que los Diagramas de Actividad y Secuencia son equivalentes. Como se explicó en capítulos anteriores, el principal interés de la metodología se centra en modelar el comportamiento y las interacciones de los servicios porque ésto facilita la tarea de modelar las características del sistema y, además, es más simple la traducción a WS-CDL o WS-BPEL. Por este motivo, se estudiaron las dos posibilidades que ofrece UML para representar el flujo de mensajes (diagramas de secuencia) y el comportamiento de ciertos procesos (diagramas de actividad). Al final, se eligió los diagramas de secuencia porque se adaptan mejor al comportamiento de los servicios web, ya que éstos funcionan mediante intercambios de mensajes y porque se puede interpretar más fácilmente las restricciones temporales en un diagrama de secuencia que en uno de actividad. Para la fase de verificación se utiliza la herramienta UPPAAL, cuya descripción ya fue comentada anteriormente. 8. Conclusiones En este trabajo se ha presentado al lector las ventajas y desventajas del uso de técnicas formales para el modelado y análisis de sistemas. En primer lugar, se presentó alguno de los múltiples enfoques existentes para llevar a cabo esta labor, así como algunas herramientas que facilitan la automatización de la misma. Después, se presentó la metodología Correct Web services, que ha sido desarrollado en los últimos años por el grupo de investigación ReTiCS de la Universidad de Castilla-La Mancha. Esta metodología permite especificar y validar/verificar cualquier tipo de sistema, aunque su enfoque principal ha sido las arquitecturas orientadas a servicios. Referencias 1. A.van Lamsweerde A. Dardenne and S. Fickas. Goal-directed requirements acquisition. Science of Computer Programming, 20(1-2):3 50, R. Alur and D. Dill. A theory of timed automata. Theoretical Computer Science, 126: , A. Rifaut J. Molderez A. van Lamsweerde C. Ponsard, P. Massonet and H. Tran Van. Early Verification and Validation of Mission Critical Systems. Electr. Notes Theor. Comput. Sci., 133: , E. Clarke and J. Wing. Formal methods: State of the art and future directions. ACM Computing Surveys, R. Darimont and A. van Lamsweerde. Formal refinement patterns for goal-driven requirements elaboration. In Foundations of Software Engineering, pages ,

59 6. G. Díaz. Applying and Developing Formal Techniques in the Design of E-Commerce Oriented Web Services with Strong Time Constraints. PhD. Thesis, University of Castilla-La Mancha, O. Grumberg E. Clarke and D. Peled. Model Checking. MITPress, Cambridge, MA, T. Erl. Service-Oriented Architecture: A Field Guide to Integrating XML and Web Services. Prentice Hall PTR, G. J. Holzmann. The SPIN Model Checker: Primer and Reference Manual. Addison-Wesley, S. Schuman J. R. Abrial and B. Meyer. A Specification Language, in On the Construction of Programs. Cambridge University Press, eds. A. M. Macnaghten and R. M. McKeag, Kurt Jensen, Lars Michael Kristensen, and Lisa Wells. Coloured petri nets and cpn tools for modelling and validation of concurrent systems. STTT, 9(3-4): , P. Pettersson K.G. Larsen and W. Yi. UPPAAL in a nutshell. International Journal on Software Tools for Technology Transfer (STTT), A.van Lamsweerde. Requirements engineering in the year 00: a research perspective. In International Conference on Software Engineering, pages 5 19, G. Díaz M. E. Cambronero, J. J. Pardo and V. Valero. Using rt-uml for modelling web services. In SAC, pages , A. Pnueli. The temporal logic of programs. Proc. 18th IEEE Symp. on Foundations of Computer Science, H. Dolakia J. Goland J. Klein F. Leymann K. Liu D. Roller D. Smith S. Thatte I. Trickovic T. Andrews, F. Curbera and S. Weeravarana. Business Process Execution Language for Web Services (version 1.1) J. Sifakis T. Henzinger, X. Nicollin and S. Yovine. Symbolic model checking for real-time systems. Information and Computation, 111(2): , W3C. Web Services Choreography Description Language Version

60 52

61 La Investigación e Innovación en TIC como motor de Castilla La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Inteligencia Artificial y Robots Sociales Luis Rodríguez Ruiz Departamento de Sistemas Informáticos. Universidad de Castilla La Mancha Resumen En las últimas décadas, los robots han pasado de realizar su trabajo dentro de entornos muy localizados (cadenas de producción, naves industriales, etc.) a ocupar lugares donde conviven e interactúan con seres humanos (hogares, hospitales, museos, etc.). Para hacer esto posible, ha sido necesario dotar a estos robots de una serie de capacidades que les permitan desenvolverse por estos nuevos entornos de forma adecuada. En este trabajo, se intentan abordar algunos de los problemas que dichos robots deben resolver desde el punto de vista de la disciplina de la Inteligencia Artificial, así como describir algunas de las soluciones alcanzadas dentro de la investigación en este campo. 1. Introducción En los últimos años, el campo de la robótica ha experimentado una evolución que ha llevado a dejar de considerar a los robots como simples artefactos aplicables a tareas muy específicas y poseedores de una autonomía considerablemente limitada. La tradicional asociación de la palabra robot con mecanismos manipuladores en entornos industriales o con vehículos semi-autónomos trabajando en entornos hostiles ha dado paso a una visión mucho más amplia. En la actualidad, los robots son sistemas móviles, dotados de autonomía, capaces de obtener información de su entorno y tomar decisiones dentro de ambientes dinámicos. Como consecuencia de esto, los sistemas robóticos han pasado de trabajar en espacios muy específicos (cadenas de montaje, almacenes industriales, etc.) a lugares frecuentados por seres humanos, de forma que éstos se han convertido en parte del entorno en el que el robot se desenvuelve y, por tanto, en actores con los que interactuar de uno u otro modo. Cuando todo esto se traduce en alguna forma de comunicación entre estos agentes, puede decirse que estamos ante lo que se denomina un robot social. Este proceso de interacción es una parte central dentro de las tareas desempeñadas por el robot y por tanto constituye un punto clave dentro de su diseño. En el presente trabajo, se pretende analizar parte de la problemática asociada al diseño de los aspectos cognitivos de los robots desde el punto de vista de la Inteligencia Artificial. Los características mecánicas o electrónicas (hardware) de dichos robots no se discutirán aquí, ni tampoco las arquitecturas software que permiten implementar los diferentes comportamientos del robot. 53

62 2. Historia y evolución de los robots sociales Antes de desarrollar lo expuesto anteriormente, es interesante describir algunos de los hitos alcanzados durante la evolución histórica de la robótica como disciplina general, con el objeto de identificar los logros que han hecho posible el propio concepto de robot social Breve historia de la robótica Los primeros autómatas mecánicos fueron concebidos hace más de dos mil años. La primera mención conocida se encuentra en el antiguo texto chino Lie Zi, donde se relata la historia de un autómata construido en torno al siglo X a.c. por Yan Shi, capaz de diversas proezas como cantar, realizar gestos y dotado de órganos internos artificiales. En cuanto a los primeros artefactos de los que se tiene constancia real, los relojes de agua inventados por Ctesibio (matemático griego del siglo III a.c.) se consideran a menudo como los precursores de los autómatas junto con los trabajos de Hero de Alexandría (siglo I a.d.c) quien diseño máquinas dispensadoras de agua que funcionaban con monedas y artefactos para servir vino en comidas. En cuanto al primer autómata humanoide, éste fue diseñado por Leonardo Da Vinci en Basado en un conjunto de poleas y cables, el diseño permitía al robot levantarse, sentarse y mover sus brazos de forma independiente. A partir de aquí y hasta el siglo XX, se construyeron diferentes dispostivos mecánicos capaces de realizar tareas simples como el Canard Digérateur, un pato mecánico, capaz de digerir granos de trigo o artefactos destinados a mejorar la producción en la industria textil como el Flying Suttle de John Kay (1733), el Spinning Jenny de James Hargreaves (1764) o el Water Frame de Richard Arkwright (1769). Sin embargo, hay que esperar al siglo XX para asistir al verdadero desarrollo de la robótica. Poco antes, en 1898, Nicola Tesla diseño el primer sistema capaz de ser manejado por control remoto; un barco controlado por ondas de radio y, en 1921, se hace mención por primera vez a la palabra robot en la obra de teatro Rossum s Universal Robots, del escritor checo Karel Capek. Continuando con la presencia de robots en la literatura, en 1942, Isaac Asimov formula las 3 leyes de la robótica en su relato Runaround. La década de los cincuenta está marcada por el nacimiento de la Inteligencia Artificial como disciplina. En 1950, Alang Turing publica su trabajo su trabajo Computing Machinery and Intelligence [21] donde plantea, entre otras cuestiones, la posibilidad de construir máquinas capaces de pensar y propone el Test de Turing como una forma de evaluar si una máquina puede considerarse como inteligente. En 1956, John Mc- Carthy acuña el término Inteligencia Artificial (IA) y dos años más tarde funda, junto con Marvin Minskym el laboratorio de IA en el Instituto Tecnológico de Massachussets (MIT), referente en la investigación en este campo. En 1974, cuatro años después de diseñarse el primer brazo robótico funcional, en la Universidad de Waseda (Japón) se construye el primer robot 54

63 Figura 1. Wabot-I. Universidad de Waseda humanoide a escala natural, el Wabot-I [24] dotado de sistemas de visión y conversacionales. En 1986 la compañía japonesa Honda comienza el desarrollo de una serie de robots bípedos, denominados EO que desembocará en el año 2000 en la aparición de ASIMO [5] (una segunda versión, mejorada, fue presentada en el año 2005), un robot humanoide de 1,3 m. y 54 kg. de peso que, junto con los perros robóticos AIBO, presentados también por Honda un año antes, son ejemplos de plataformas destinadas a la construcción de robots sociales funcionales. 3. Robots Sociales Un robot social se diferencia de otro tipo de robots principalmente en el tipo de comunicación que lleva a cabo con su entorno. En el caso de los robots industriales, p.e, esta comunicación está bien definida. El robot recibe por un conjunto de sensores la información que necesita para llevar a cabo su tarea (por ejemplo, la posición actual de la pieza a ensamblar en una cadena de montaje o la temperatura de un determinado componente) y reacciona por medio de una serie de actuadores (motores, soldadores, etc.). En el caso de un robot social, sin embargo, la interacción con el entorno no es tan específica. Por un lado, la información que llega al robot es de muy distinta naturaleza: visual, auditiva, táctil, etc. Por otro, la separación entre fuentes de información relevantes y aquellas que no lo son no es en absoluto trivial. Podemos ilustrar este punto con un ejemplo. Supongamos el caso de un robot cuya misión es actuar como guía 55

64 Figura 2. Asimo. Honda dentro de las instalaciones de un museo. Dicho robot se encontraría expuesto a una gran cantidad de estímulos. Por una parte, la información visual generada por los propios elementos del museo (cuadros, esculturas, paredes, ventanas, etc.) con los que el robot en principio no tiene que interactuar. Por otra parte, los visitantes a los que debe atender también producen un flujo visual que se superpone con lo anterior. Separar ambos tipos de estímulos no es suficiente sino que, en el caso de los visitantes, es necesario además diferenciar entre aquellos que están requiriendo la atención del robot de aquellos que simplemente están paseando por el museo o contemplando las obras expuestas. La complejidad de la tarea se ve incrementada por el hecho de que existen otros canales de información a los que atender. Un visitante puede reclamar la atención del robot hablándole y, en ese caso, éste debe diferenciar entre un sonido cualquiera (p.e. una puerta que se abre) y la voz humana. La tarea es incluso más compleja, ya que el robot debe ser capaz de distinguir entre una persona que habla para requerir su atención y una conversación entre dos personas en la que no se ve involucrado. Todo lo comentado en el párrafo anterior se refiere únicamente a la distinción entre información relevante e información no relevante. La decodificación de aquella información del entorno que debe ser procesada por el robot es un proceso que presenta incluso más dificultad. Una interacción con un robot social es típicamente multi-modal y, por tanto, se necesita disponer de sistemas de visión artificial, reconocimiento del habla, reconocimiento de gestos, comprensión del lenguaje, etc. Junto con lo descrito anteriormente, un robot social debe solventar a su vez la problemática asociada a cualquier tipo de robot móvil. Esto es, debe ser capaz de auto-localizarse, navegar evitando obstáculos e identificar 56

65 los elementos característicos de su entorno. En las siguientes secciones se abordarán algunas de estas cuestiones, haciendo hincapié en aquellas referidas a actividades que involucran algún tipo de interacción con seres humanos. 4. Inteligencia artificial y robots sociales Algunos aspectos dentro del diseño de un robot social pueden abordarse utilizando técnicas de ingeniería clásicas. En la actualidad, la construcción de los elementos físicos, eléctricos y electrónicos que forman la parte Software del robot puede llevarse a cabo utilizando dispositivos disponibles comercialmente para dotar al robot de la capacidad de cómputo, y de los sensores y actuadores necesarios para llevar a cabo su cometido. En cuanto a la parte software, por un lado se debe disponer de una arquitectura que permita acceder a los elementos físicos, gestionar los diferentes procesos que se ejecutan concurrentemente en la cpu y programar componentes software que implementarán las funciones de las que se pretende dotar al robot. Estas tareas requieren el uso de técnicas provenientes del campo de los sistemas operativos, los sistemas en tiempo real o la ingeniería del software. Por encima de esta arquitectura, se encuentran los sistemas que definen el comportamiento del robot. Para construir componentes que permitan al robot relacionarse con su entorno de forma adecuada y ser capaz de tomar decisiones complejas asociadas a su comportamiento de tipo social, es necesario aplicar técnicas provenientes del campo de la Inteligencia Artificial. La Inteligencia Artificial (IA) puede definirse, según John Mc- Carthy, quien acuñó el término en 1955, como la ciencia e ingeniería relativa a la construcción de sistemas inteligentes [12]. Es evidente que para profundizar en esta definición es necesario definir el término inteligente. Diferentes autores han propuesto varias definiciones de inteligencia [19], abarcando diferentes aspectos o cualidades. Aquí, simplemente definiremos la inteligencia como la capacidad de resolver problemas y adaptarse a un entorno cambiante. De acuerdo con esta definición, la inteligencia no puede establecerse como una cualidad absoluta, sino como algo que se presenta en diferentes grados. De esta forma, en el problema que nos atañe, hablaremos de robots sociales que presenten un cierto grado de inteligencia. En los inicios de la IA, el objetivo era desarrollar un paradigma capaz de construir sistemas que exhibiesen una inteligencia comparable a la inteligencia humana. Con los años, este objetivo tan ambicioso se fue abandonando en favor de objetivos más específicos y modestos, hasta llegar a la situación actual, donde la IA se encuentra considerablemente compartimentada. De esta manera, la investigación en este campo se centra desde hace unos años en resolver problemas específicos, con paradigmas muy diferentes y en campos de aplicación muy diversos. Podemos citar, de entre otros, los siguientes como aplicables dentro de la robótica social: Planificación: Hace referencia al conjunto de acciones que se deben seguir para lograr un determinado objetivo. La planificación dentro 57

66 de la robótica aborda tareas como: determinar cuál es la mejor trayectoria a seguir para alcanzar una posición concreta partiendo de la posición actual (navegación), encontrar una secuencia de acciones que permitan mover un objeto, etc. Razonamiento y toma de decisiones: Ante un conjunto de datos de entrada, el robot debe ser capaz de obtener una conclusión que puede llevar asociada la consecución de un determinado objetivo (que típicamente será llevado a cabo utilizando algún tipo de técnica de planificación). Percepción: Un robot autónomo debe estar equipado con un sistema que le permita, a partir de un conjunto de sensores (cámaras, infrarrojos, micrófonos, etc.) obtener una representación adecuada del estado actual del entorno en el que se mueve. Tareas como detección de obstáculos, reconocimiento de objetos y personas se engloban dentro de esta área. La auto-localización es otra de las tareas que presenta un componente perceptivo bastante considerable. Procesamiento del Lenguaje Natural: Una tarea fundamental de los robot sociales es la interacción con seres humanos, los cuales se comunican principalmente mediante lenguaje natural. El reconocimiento y síntesis del habla o la comprensión del lenguaje son tareas que deben abordarse a la hora de diseñar un sistema de interacción para un robot de este tipo. En las siguientes secciones se describirá la aplicación de estas áreas de la IA a la robótica social. 5. Planificación, autolocalización y navegación Las técnicas de planificación son uno de los bloques fundamentales dentro de un sistema de IA. En el caso de un robot móvil, alcanzar un determinado destino es una tarea que puede llegar a ser enormemente compleja por diversos factores. El primer problema a resolver es del la auto-localización. Antes de desplazarse hacia el destino a alcanzar, el robot debe conocer su posición exacta. Cuando se habla de posición, puede hacerse referencia a una posición absoluta, esto es, al punto exacto en el que se encuentra el robot dentro del entorno en que se mueve o bien a una posición relativa. Es decir, su distancia respecto a algún elemento de interés (un obstáculo, una persona con la que interactuar, un objeto que alcanzar, etc.). Este problema podría resolverse mediante el empleo de un dispositivo GPS de suficiente precisión. Sin embargo, el rango de error de los sistemas actuales es demasiado alto para obtener una localización precisa. Además, el uso del GPS no es válido para obtener una posición relativa. Por todo ello, es necesario utilizar un conjunto de técnicas que permitan al robot conocer su posición en todo momento. Los métodos de localización se basan principalmente en realizar una estimación sobre la posición actual del robot de acuerdo a una posición determinada anteriormente y a una serie de parámetros de movimiento. Dentro de este tipo de métodos, denominados dead reckoning se encuentra la odometría, que utiliza la información proporcionada por sensores 58

67 que miden algunos parámetros de los sistemas de locomoción del robot. Por ejemplo, en un robot dotado de ruedas puede medirse el desplazamiento lineal de éstas, el cual se corresponderá con el desplazamiento realizado por el robot. Estos sensores, no obstante, son fuentes de error de diverso tipo. Como resultado de esto, aunque la odometría proporciona resultados relativamente precisos para estimaciones a corto plazo, el hecho de que la posición del robot se calcule mediante la integración sobre el tiempo de la velocidad de los actuadores que generan el movimiento, puede provocar que los errores anteriormente mencionados se acumulen, aumentando considerablemente la incertidumbre acerca de la estimación de la posición conforme avanza el tiempo. La información odométrica suele combinarse con datos provenientes de otro tipo de sensores. Los acelerómetros miden la velocidad del robot de forma independiente, por lo que complementan la información de los sensores odométricos. Los giróscopos se utilizan para compensar uno de los mayores problemas de la odometría, los errores en la orientación causados por desplazamientos laterales de las ruedas (u otro tipo de mecanismos de locomoción). Por otra parte, para que un robot sea capaz de navegar dentro de un entorno determinado, debe disponer de una representación adecuada de éste. En este sentido, puede distinguirse entre una representación cualitativa (qualitative or route) [14], basada en mantener un conjunto de puntos de referencia y las rutas que existen entre ellos. Por ejemplo, una planificación de este tipo vendría dada por acciones como: Desplazarse recto hasta llegar a la columna azul, después girar a la derecha y avanzar hasta llegar a la puerta. A continuación, desplazarse por el pasillo hasta llegar a la segunda puerta a la izquierda y atravesarla. Los puntos de referencia deben cumplir una serie de condiciones, como poseer características que los hagan fácilmente identificables desde cualquier punto de vista. Como contraposición a este enfoque tenemos la representación métrica (metric or layout) [14], basada en mantener un mapa del entorno. Es necesario tener en cuenta que este mapa se corresponde con una vista aérea, por lo que debe existir algún mecanismo que permita al robot conocer en que punto del mapa se encuentra en función de lo que observa en ese momento. Los problemas relativos a la construcción de un mapa del entorno y auto-localización suelen abordarse de forma conjunta utilizando la aproximación conocida como SLAM, Simultaneous Localization and Mapping [4]. Cuando el robot no posee información sobre el mapa ni sobre su propia pose (posición y orientación), el objetivo de las técnicas de SLAM es que el robot trace por sí mismo un mapa del entorno mientras se autolocaliza dentro de él. Las técnicas de SLAM también pueden utilizarse para actualizar un mapa previamente obtenido por cualquier otro medio. Las técnicas de SLAM suelen basarse en aproximaciones probabilísticas [20]. Desde este punto de vista, se parte de un conjunto de medidas obtenidas por los sensores del robot y 1:t, de las acciones que éste puede realizar u 1:t y se pretende obtener la pose actual x t y el mapa del entorno m. A esto es a lo que se conoce como online SLAM: 59

68 p(x t, m y 1:t, u 1:t) =... p(x 1:t, m z 1:t, u 1:t)dx 1dx 2... dx t 1 (1) Por contra, en la aproximación full SLAM se intenta obtener la posición sobre el camino completo recorrido hasta el instante de tiempo actual. p(x 1:t, m y 1:t, u 1:t) (2) 6. Razonamiento y toma de decisiones Esta tarea se corresponde con el análisis de un conjunto de datos de entrada (estos datos de entrada pueden consistir en una representación abstracta del estado actual del mundo en el que se mueve el robot), para alcanzar una conclusión en función de dichos datos y decidir cuál es la mejor acción a realizar. Existen diferentes aproximaciones a la hora de construir sistemas capaces de tomar una decisión en función de un conjunto de entradas. Como aproximación simple e intuitiva, podemos citar a los autómatas de estados finitos como un formalismo que permite modelar las decisiones que toma el robot en función de un estado interno y una serie de observaciones. Un autómata de este tipo consta básicamente de un conjunto de estados, cada uno representando una configuración posible del robot y un conjunto de aristas. Una arista especifica el cambio de la configuración del robot en función de una observación. Este aproximación, además de poder implementarse de manera muy eficiente, tiene la ventaja de ser bastante simple, permitiendo programar a mano el comportamiento del robot. Sin embargo, no es adecuada cuando se requiere modelar un comportamiento complejo debido, entre otras cosas, al tamaño del autómata resultante. En general, la toma de decisiones se lleva a cabo utilizando sistemas basados en conocimiento, donde se utiliza algún tipo de paradigma para capturar el conocimiento humano de forma que pueda ser procesado automáticamente. Algunas de las técnicas empleadas son los sistemas basados en reglas, los árboles de decisión, o las Redes Bayesianas. 7. Percepción e Interacción Cualquier robot móvil debe disponer de una serie de mecanismos que le permitan conocer el estado actual del entorno en el que se mueven (p.e, si existe un obstáculo en su camino, si está ante una puerta cerrada, etc.). En el caso de un robot social, éste debe además percibir entidades con las que comunicarse (personas u otros robots) y además ser capaz de entender las formas de comunicación empleadas por éstas. También será necesario que el robot pueda emitir información de forma que los agentes con los que interactúa sean capaces de entender el mensaje. A continuación, se describirán algunas de las tareas a abordar por un robot que deba interactuar con personas. 60

69 7.1. Detección y seguimiento de personas. Reconocimiento de caras Para un robot social es fundamental ser capaz de detectar la presencia de humanos en las proximidades de su posición actual. Normalmente, esto se lleva a cabo utilizando técnicas de visión artificial, que procesan la información obtenida por las cámaras del robot, identificando patrones correspondientes a la presencia de personas. Una aproximación sencilla se basa en la detección de lo que se conoce como blobs. Un blob es una región en una imagen que presenta una serie de propiedades de brillo y/o color especiales. La extracción de estas zonas no es sencilla y se ve influenciada por diferentes factores. Elementos como cambios en las condiciones de iluminación, oclusiones del objeto a detectar por otros objetos o el movimiento asociado a la cámara del robot introducen ruido en las imágenes adquiridas. Por ello, cuando se necesita cierta robustez en el proceso de detección suelen utilizarse técnicas más complejas. Por otro lado, la tarea de la detección y reconocimiento de caras es en muchas ocasiones necesaria para un robot social, ya que la cara es un elemento característico que permite establecer diferencias respecto a otro tipo de actores. Por ello, esta aproximación puede utilizarse para refinar los procesos de detección descritos en el párrafo anterior, de forma que el robot se asegure que el objeto seguido es realmente una persona. Además, puede ser necesario distinguir la presencia de alguien en concreto. Por ejemplo, un robot que preste asistencia a una persona dependiente debe ser capaz de reconocer su rostro entre los diferentes seres humanos presentes en la escena o un robot guía en un museo tendrá que diferenciar entre los empleados y los visitantes. Como consecuencia de esto, podemos distinguir entre dos tareas diferentes. Por un lado, la detección de caras dentro de una imagen, que permitiría identificar un elemento estático o en movimiento como una persona y, por otro, la identificación de una persona mediante el reconocimiento de su cara [28] Reconocimiento Automático del Habla El habla es el medio de comunicación directo más natural y más utilizado por los seres humanos. Un robot destinado a interactuar con humanos debería ser capaz de comprender en mayor o menor grado el habla humana. La tarea de obtener la secuencia de palabras pronunciada por un locutor constituye el núcleo dentro de los problemas relacionados con la percepción del habla por parte de un robot. Sin embargo, existen otros problemas que deben ser también considerados. Por una parte, tenemos la identificación del locutor, problema análogo al reconocimiento de caras pero utilizando la voz como elemento de identificación. Por otro, la separación de múltiples fuentes de audio para poder distinguir la voz de la persona que se encuentra interactuando con el robot de otro tipo de señales acústicas presentes en el entorno (ruido, voces de otras personas, etc.). Este problema se conoce como separación ciega de fuentes (Blind Signal Separation) [1]. 61

70 7.3. Reconocimiento de gestos Además del habla, los gestos constituyen un mecanismo de comunicación habitualmente utilizado por los seres humanos. Los gestos se utilizan en ocasiones para economizar el proceso de comunicación (asentimientos con la cabeza, señalizaciones con el dedo,...), para enfatizar el discurso hablado, añadiendo información complementaria o, en el caso de algunas personas discapacitadas, como medio de comunicación principal. Puesto que, en cualquier caso, los gestos son inherentes a la comunicación humana, conviene que los robots sociales estén dotados de mecanismos que permitan reconocer esta forma de comunicación. Dentro del reconocimiento de gestos, es importante distinguir entre reconocimiento estático y dinámico. En el primer caso, se trata de reconocer una configuración fija dentro de una imagen (p.e. una mano señalando). Para llevar a cabo una aproximación de este tipo, suelen utilizarse técnicas basadas en plantillas (templates), donde cada imagen de entrada se compara con un conjunto de muestras o plantillas de gestos [13]. En el reconocimiento dinámico, el gesto viene determinado por un movimiento que hay que detectar (p.e un asentimiento con la cabeza), por lo que se debe trabajar con flujos de imágenes y no con imágenes estáticas como en el caso anterior. Por ello, este tipo de procesos variables en el tiempo suelen abordarse con técnicas estocásticas algunas de las cuales se describirán más adelante. 8. Ejemplos de técnicas de IA aplicables al campo de la robótica social Una vez descritas algunas de las principales tareas que un robot social debe llevar a cabo y discutida la problemática asociada, a continuación se estudiarán algunas técnicas provenientes de la IA que permiten abordar dichas tareas. No se pretende dar un conjunto exhaustivo de todas las técnicas existentes ni describirlas con un nivel alto de detalle, sino simplemente presentar algunos ejemplos de aproximaciones adecuadas de ser aplicadas dentro de la robótica social Árboles de decisión Un arbol de decisión [16] es un modelo gráfico que permite codificar un algoritmo. Un árbol de decisión puede ser visto como un clasificador, de forma que contiene un conjunto de nodos hoja que representan las clases (en este ámbito una clase se correspodería con una decisión a tomar o con una conclusión alcanzada) y el resto de los nodos representan atributos internos que en función de su valor llevarán al robot a tomar una u otra decisión. Estos árboles pueden diseñarse de forma manual o construirse automáticamente a partir de un conjunto de datos de entrada utilizando diferentes algoritmos (ID3, C4.5). 62

71 Persona detectada? sí no ME MIRA? NO ACTUAR sí no HABLA? NO ACTUAR sí no ACTUAR NO ACTUAR Figura 3. Ejemplo simplificado de un árbol de decisión para modelar la acción de interactuar o no con una persona por parte de un robot social 8.2. Redes Bayesianas Uno de los problemas clásicos en IA viene dado por el manejo de la incertidumbre. El mundo real no es determinista y por tanto las observaciones que se realizan contienen, con bastante frecuencia, cierto grado de incertidumbre asociada. Por ello, es necesario disponer de modelos que incluyan en su formulación esta cualidad. Una Red Bayesiana [8] es un formalismo para representar y estructurar conocimiento (típicamente incierto) utilizando un modelo probabilístico y representado por un grafo dirigido acíclico utilizado para modelar un conjunto de variables aleatorias y sus dependencias. Las variables representadas en los nodos pueden ser variables observables, latentes (no observables directamente pero inferidas a partir de las observables) o hipótesis. Las dependencias de las Redes Bayesianas cumplen la propiedad local de Markov; esto es, cada variable es condicionalmente independiente de sus no descendientes dados sus padres. A partir de esta asunción, puede calcularse la probabilidad conjunta sobre las variables de la red como: P (X 1 = x 1, X 2 = x 2,..., X n = x n) n P (X i = x i padres(x i)) (3) La inferencia en Redes Bayesianas suele consistir en determinar la probabilidad de un resultado (variable) en función de varias observaciones, es decir, P (X i = x i X j = x j, X k = x k ), donde la variable X i suele representar una conclusión alcanzada en función del estado del resto de las variables del modelo. Las Redes Bayesianas son aplicables a diferentes aspectos dentro de la robótica. Por ejemplo, en planificación (donde un conjunto reducido de i=1 63

72 P1 P2 O1 X O2 H1 H2 Figura 4. Condición de independencia de Markov. Dados sus padres (P 1 y P 2), el nodo X es independiente de sus no-descendientes (O1 y O2) variables puede expresar la acción a realizar y el resto la información acerca del estado del mundo en forma de lecturas de sensores [11]). Este tipo de formalismo también se ha aplicado a tareas relacionadas con percepción. Como ejemplo, podemos citar la detección de personas hablando dentro de una imagen [18] utilizando una estructura similar a la mostrada en la Figura 5. LOCUTOR VISIBLE FRONTAL PIEL TEXTURA RN BOCA Figura 5. Ejemplo de Red Bayesiana para detectar locutores dentro de una imagen. Los nodos hoja representan reconocedores de elementos presentes en la imagen como el color y la textura de la piel humana, la forma de la boca o una red neuronal capaz de reconocer caras (RN). A partir de la información de estos elementos podemos obtener la probabilidad de la variable locutor, que representa la presencia en una zona de la imagen de una persona hablando 64

73 8.3. Clasificadores Gran parte de las tareas a resolver dentro del ámbito de la robótica social pueden plantearse como problemas de clasificación. En particular, los problemas relacionados con la percepción son típicamente susceptibles de ser abordados de este modo. Con el objeto de presentar el problema de una forma más intuitiva y sencilla, utilizaremos la tarea del reconocimiento y detección de caras, descrito en la Sección 7.1 para ilustrar esta aproximación Comenzaremos describiendo la tarea de reconocimiento, donde debemos identificar a una persona a partir de una imagen de su cara. Este problema puede plantearse como un problema de clasificación, donde se dispone de un conjunto de clases C = C 1,..., C n correspondientes a cada una de las personas que el sistema es capaz de reconocer. Cuando se diseña un clasificador para reconocer un objeto obtenido a partir de un sensor (micrófono, cámara, etc.) el primer paso consiste en realizar un tarea de preproceso y extracción de características. En nuestro ejemplo esto consiste en, dada la imagen capturada por la cámara, representarla como un vector de características x = x 1,..., x m, que contiene la información estrictamente necesaria para realizar la clasificación, eliminando aquellas partes no significativas o redundantes. Una vez llevado a cabo este paso, el proceso de clasificación propiamente dicho consiste en asignar a este vector de características una etiqueta que indique la clase a la que pertenece (en este caso la persona reconocida). Una forma de representar un clasificador de este tipo es mediante un conjunto de funciones discriminantes [3]. Una función discriminante es una función que representa a una clase específica, de forma que asigna una puntuación al objeto a clasificar que refleja el grado de similitud entre la clase a la que representa y el objeto. De esta manera, pueden definirse tantas funciones discriminantes como clases existan en el clasificador (personas a identificar en nuestro ejemplo) de forma que se asigna el objeto de entrada a aquella clase cuya función discriminante proporcione una puntuación más alta a dicho objeto. En el caso del problema de detección de caras dentro de una imagen, puede plantearse un clasificador binario que asigne a cada imagen (o zona de la imagen) una la etiqueta (clase) cara o no cara. Podemos entonces definir dos funciones discriminantes para cada una de las clases g cara(x) y g no cara(x), y agruparlas en una sola: g(x) = g cara(x) g no cara(x) (4) De forma que el clasificador asigna la clase cara a la zona representada por el vector x si g(x) > 0 y asigna la clase no cara en caso contrario. Existen diferentes formas de obtener el vector x a partir de la imagen tomada por la cámara del robot. Tradicionalmente se han utilizado características obtenidas de forma manual sobre imágenes de referencia los sujetos a clasificar (pro ejemplo, empleando parámetros relativos a tamaños y distancias entre elementos distintivos como ojos, nariz y boca). Existen métodos para extraer estas características de forma automática, a costa de disminuir la tasa de acierto del clasificador. 65

74 x1 G1(x) x2 x3 G2(x) argmax clase x4 G3(x) Figura 6. Proceso de clasificación representado como un conjunto de funciones discriminantes. En el ejemplo mostrado en la figura, se tiene una entrada x representada como un vector de características de dimensión 4 que debe asignarse a una de las tres clases definidas en el sistema. Para ello el vector de entrada se aplica sobre cada una de las tres funciones discriminantes G asociadas a cada una de las clases y se clasifica en función de aquella que devuelva un valor más alto Otras técnicas están basadas en, a partir de la imagen completa (es decir una matriz de m m píxels), aplicar alguna técnica de reducción de la dimensionalidad, que permita representar la imagen como un vector de m valores en lugar de la matriz original. Entre estas técnicas podemos citar la conocida como Principal Component Analysis (PCA) [9] que da lugar a la clasificación basada en EigenFaces [22]. En cuanto a la forma de implementar las funciones discriminantes, existen varias aproximaciones. Por un lado tenemos los métodos no paramétricos, entre los que puede citarse la técnica de clasificación por el vecino más cercano (nearest neighbor). Este tipo de clasificador se basa en modelar cada clase como un conjunto de vectores de características extraídos de una serie de imágenes de referencia de los individuos a reconocer. Cuando el robot tiene que identificar la cara que está viendo se comparan, utilizando una métrica bien definida, las características obtenidas de la imagen capturada por la cámara con las características de las caras de referencia. Aquella clase más cercana la imagen de entrada, es la que se devuelve como resultado del reconocimiento. Esta técnica puede extenderse considerando no sólo el vecino más cercano sino una lista de los k (siendo k una constante definida en función del problema) vecinos mas cercanos, de forma que la clase que aparezca más veces dentro de la lista de k vecinos es devuelta como resultado. Uno de los problemas de esta técnica es el alto coste computacional que puede estar asociado al proceso de clasificación dado que es necesario comparar la imagen de entrada con todas las imágenes de la base de datos. Como alternativa, pueden agruparse las imágenes de la base de datos utilizando alguna técnica de clustering [6], de forma que cada clase esté representada por un (o unos pocos) prototipo(s) que resuma las características del conjunto de imágenes pertenecientes a dicha clase. De esta forma, para cada imagen de entrada, sólo es necesario comparar con una (o unas pocas) imagen (el prototipo obtenido) por clase, lo que se 66

75 traduce en una mejora considerable en la eficiencia del sistema (la técnica EigenFaces constituye un ejemplo. Figura 7. Clasificación de caras utilizando Eigenfaces. Cada persona es representada mediante un conjunto de prototipos extraídos combinando las imágenes de referencia de forma que sólo aquellas características distintivas de dichas imágenes son utilizadas como prototipos Otras técnicas de clasificación utilizadas para aproximar este tipo de problemas se basan en el uso de Redes Neuronales, Máquinas de Soporte Vectorial (SVNs) o Modelos Ocultos de Markov Modelado de sistemas dinámicos Un robot social debe estar continuamente tratando con sistemas dinámicos, esto es, sistemas que modifican su estado conforme avanza el tiempo. La navegación, por ejemplo, describe la posición del robot en función del tiempo. El seguimiento de objetos, también es un proceso que presenta variabilidad temporal. Por ello, el estudio de este tipo de sistemas es fundamental dentro de este campo. Un sistema dinámico puede modelarse de la siguiente forma. En primer lugar, se tiene un conjunto de estados x = x 1... x k que definen la evolución del sistema a lo largo del tiempo. El sistema cambia de un estado a otro según una función de transición, que puede definirse de la siguiente forma. El estado en el tiempo t se obtiene como: x t = f(x t 1, y t 1, v t 1) (5) donde x t 1 es el estado en el que se encontraba el sistema en el instante anterior, y t 1 es la observación (entrada) en el instante t 1 y v t 1 es un factor de ruido que afecta a la determinación del estado actual. Como puede observarse, el estado actual x t se condiciona al anterior x t 1 independientemente de la secuencia de estados seguida para alcanzar 67

76 x t 1. A este tipo de procesos se les denomina procesos markovianos de primer orden. Por otro lado, la observación realizada en dicho estado se genera de la siguiente forma: y t = g(x t, u t, w t) (6) donde u t es la observación real producida en el instante t y w t es una función de ruido que perturba dicha observación de forma que el sistema observa realmente y t. En las siguientes secciones, describiremos algunas aproximaciones específicas siguiendo este enfoque Modelos Ocultos de Markov Un modelo Oculto de Markov (Hidden Markov Model, HMM) [17] se define realizando las siguientes simplificaciones del modelo general definido en las Ecuaciones 5 y 6. x t = f(x t 1) (7) y t = g(x t) (8) Es decir, el estado actual sólo depende del anterior y la observación en el instante actual sólo depende del estado actual. Un modelo de Markov se define mediante los siguientes elementos: Un conjunto de estados X = x 0,..., x n Una matriz de probabilidades de transición a ij = p(x t = j x t 1 = i) Una distribución de probabilidad de observaciones definida sobre los estados: b j(v k ) = p(y t = v k x t = j). A partir de aquí, puede obtenerse la probabilidad de observar una secuencia y = y 1,..., y t como: p(y) = p(y x)p(x) (9) x donde x representa cualquier secuencia de estados del modelo. Es decir que la probabilidad de la observación viene dada por la suma de todas las formas de observar la secuencia que existen en el modelo. En algunos casos, y por motivos de eficiencia, la suma se reemplaza por el máximo, de forma que la probabilidad de la secuencia de entrada viene dada por la mejor forma (secuencia de estados) de observar dicha entrada dentro del modelo. La probabilidad en la Ecuación 9 puede obtenerse de forma eficiente utilizando algoritmos basados en programación dinámica, como el algoritmo Forward, que utiliza la aproximación descrita en la Ecuación 9. Este tipo de modelos pueden obtenerse de forma automática a partir de ejemplos utilizando algoritmos que generan las probabilidades de transición y observación en función de un conjunto de muestras de entrenamiento. Una vez aprendido el modelo, existen algoritmos eficientes 68

77 (Viterbi [23]) que permiten obtener la probabilidad de una observación de manera eficiente. Dentro de la robótica social, los Modelos Ocultos de Markov se utilizan en aplicaciones como el reconocimiento del habla o el reconocimiento de gestos. Reconocimiento Automático del habla Los sistemas de reconocimiento automático del habla se basan en una aproximación estadística donde, dada una señal de entrada y, conteniendo un fragmento de habla, se intenta encontrar la secuencia de óptima de palabras ŷ como: ŵ = argmax w P r(w y) = argmax P r(y w) P r(w) (10) w La transformación mostrada en la Ecuación 10 introduce dos distribuciones de probabilidad para modelar dos aspectos diferentes. Por un lado, el término P (y w) relaciona la señal de audio de entrada con los elementos constituyentes del habla (fonemas o secuencias de fonemas). Este término se denomina modelo acústico y es aproximado mediante el uso de HMMs [7], donde cada fonema del lenguaje se modela a partir de un HMM con 3 estados donde cada uno contiene una transición hacia si mismo y hacia el siguiente estado. Los modelos capturan la variabilidad temporal que se produce en la longitud de la pronunciación de los fonemas por diferentes locutores. En cada estado, las observaciones se modelan mediante mixturas de Gausianas. Para obtener la secuencia de fonemas presentes en la observación (señal de entrada), se crea una red que conecta el estado final de cada HMM (fonema) con el estado inicial del resto. A continuación, se aplica el algoritmo de Viterbi [23] que permite obtener la secuencia de estados dentro de esta red integrada que optimiza la probabilidad de la observación (la secuencia de estados y modelos contiene implícitamente el conjunto de fonemas reconocidos). Durante el proceso de reconocimiento, se utiliza además un modelo de lenguaje, que se corresponde con el segundo término en la Ecuación 10 y que modela la probabilidad de que la secuencia de palabras decodificada sea una frase correcta en el lenguaje sobre el que se realiza el reconocimiento. Reconocimiento de gestos Al igual que en el caso del habla, la realización de un gesto es un proceso temporal sujeto a variabilidad (no siempre se realiza el gesto con la misma velocidad, con la misma amplitud, etc.). Por ello los HMMs son un formalismo adecuado para atacar este problema [27]. En este caso, cada modelo de Markov puede modelar un gesto completo y, por tanto, se utilizan tantos HMMs como gestos a reconocer. Las observaciones de cada modelo vienen definidas por parámetros relativos a los elementos (manos, cabeza, etc.) que configuran el gesto dentro del flujo de imágenes. Dada la secuencia de observaciones, se calcula la probabilidad de observar dicha secuencia (aplicando nuevamente el algoritmo de Viterbi) por cada uno de los modelos, de forma que cada HMM actúa como una función discriminante, devolviendo como gesto reconocido el asociado al modelo que maximice dicha probabilidad. 69

78 Gesto 1 Gesto 2... Gesto n Figura 8. Ejemplo de red de HMMs para reconocimiento de gestos. Cada HMM modela uno de los posibles gestos a reconocer. De acuerdo con la topología de la red definida, la secuencia de observaciones atraviesa todos los modelos, de forma que el gesto representado por aquel que asigne una mayor probabilidad a dicha secuencia se devolverá como resultado. Las aristas que parten del estado inicial de la red hacia cada uno de los modelos pueden contener la probabilidad a priori de cada gesto Filtros de Kalman Otro formalismo útil para modelar sistemas dinámicos es el proporcionado por los Filtros de Kalman [10]. Un Filtro de Kalman es un estimador de una medida (p.e. la posición actual del robot) capaz de minimizar el error en dicha medida cuando se cumplen ciertas condiciones [25], básicamente cuando el ruido asociado a la medida es de tipo Gaussiano. Este tipo de filtros utilizan una aproximación predictiva-correctiva, es decir, intentan determinar el estado del sistema en el tiempo actual basándose en el estado en el instante anterior y en la medida obtenida, aplicando posteriormente un factor de corrección sobre esta predicción. La denominación de filtro viene dada por el hecho de que este tipo de aproximación elimina el ruido asociado a la medida. Formalmente, la Ecuación 5 se representa en el caso de un Filtro de Kalman como: x t = F tx t 1 + G tu t 1 + w t (11) donde se asume que las funciones F y G se representan mediante matrices, de ahí la diferencia en la notación de la Ecuación 11 con respecto a la Ecuación 5. F t es una matriz que especifica cómo se alcanza el estado x t desde el estado x t 1, u t 1 es una entrada al sistema, G t es una matriz aplicada a la entrada y w t es el modelo de ruido en forma de una distribución Gaussiana de media 0 y matriz de covarianza Q (p(w) N(0, Q)). Este modelo de error da cuenta de posibles cambios entre el estado t y t+1 que no están reflejados en la función de transición F. La observación (medida) asociada a dicho estado viene dada por: y t = H tx t + v t (12) Donde H t es una matriz que relaciona la medida y t con el estado x t y v t es un modelo de ruido para la observación. Al igual que en el caso del modelo de error w, tenemos que p(v) N(0, R) siendo R la matriz 70

79 de covarianza. En un filtro de Kalman, intentamos estimar el estado del sistema en función de la medida y, utilizando las siguientes ecuaciones: K t = F P th T (HP th T + S v) 1 (13) ˆx t+1 = (F ˆx t + Gu t) + K t(y t+1 H ˆx t) (14) P t+1 = F P tf T + S w F P th T S 1 v HP tf T (15) donde K t se conoce como Kalman Gain y representa una función de la imprecisión de la medida (si el valor de K es pequeño, entonces la incertidumbre asociada a y es alta). P t+1 representa la covarianza del error de estimación y es una indicación de la precisión con la que se ha estimado el nuevo estado del sistema. S w y S v son las covarianzas de los modelos de error w y v (es decir la cantidad de ruido asociado a al estado x y a la medida y). Una de las aplicaciones típicas de los filtros de Kalman en robótica es la auto-localización. Aquí, el estado x viene definido por la pose del robot y las medidas y son las proporcionadas por la odometría y otro tipo de sensores del robot. Cuando es posible obtener un número alto de estas medidas y la posición inicial es conocida, los filtros de Kalman proporcionan una eficiente y eficaz aproximación a este problema [15]. Los filtros de Kalman se aplican a otros problemas relacionados con los robots sociales. Por ejemplo, en el seguimiento de objetos [26,2], el estado del sistema x viene definido por las coordenadas x, y del objeto y, dependiendo de la aplicación específica, por magnitudes como la velocidad o la aceleración de éste. 9. Investigación en robótica social en el SIMD El grupo de investigación SIMD (Sistemas Inteligentes y Minería de Datos) centra su trabajo en diferentes áreas relacionadas con la Inteligencia Artificial. Dentro de los aspectos discutidos en este trabajo, se encuentran las siguientes líneas de investigación. Redes Bayesianas Clasificadores Procesamiento del Lenguaje Natural Autolocalización Visión artificial En cuanto a las plataformas robóticas con las que trabaja el grupo, por un lado se dispone de un conjunto de robots AIBOs y de un robot humanoide NAO. Por otra parte, en colaboración con la Universidad de Extremadura, se está finalizando la construcción del robot Loki, un humanoide de tamaño natural pensado como una plataforma capaz de desarrollar diferentes tareas dentro del campo de la robótica social. 71

80 Figura 9. Robot AIBO (izquierda) y NAO (derecha). Figura 10. Robot Loki. Referencias 1. J.-F. Cardoso. Blind signal separation: statistical principles. Proceedings of the IEEE, 86(10): , oct Erik Cuevas, Daniel Zaldivar, and Raul Rojas. Kalman filter for vision tracking. Measurement, 33(August):1 18, Richard O. Duda, Peter E. Hart, and David G. Stork. Pattern Classification (2nd Edition). Wiley-Interscience, 2 edition, November 72

81 Hugh Durrant-Whyte and Tim Bailey. Simultaneous localisation and mapping (slam): Part i the essential algorithms. IEEE ROBOTICS AND AUTOMATION MAGAZINE, 2:2006, Honda. History of asimo robot. 6. Anil K. Jain. Data clustering: 50 years beyond k-means. Technical Report MSU-CSE-09-11, Department of Computer Science, Michigan State University, East Lansing, Michigan, March F. Jelinek. Statistical Methods for Speech Recognition. The MIT Press, Cambridge, Massachusetts, USA, Finn V. Jensen. Bayesian Networks and Decision Graphs. Information Science and Statistics. Springer, corrected edition, July I. T. Jolliffe. Principal Component Analysis. Springer, second edition, October Kalman, Rudolph, and Emil. A new approach to linear filtering and prediction problems. Transactions of the ASME Journal of Basic Engineering, 82(Series D):35 45, E. Lazkano, B. Sierra, A. Astigarraga, and J.M. Martínez-Otzeta. On the use of bayesian networks to develop behaviours for mobile robots. Robotics and Autonomous Systems, 55(3): , John McCarthy. What is artificial intelligence? 13. Sushmita Mitra and Tinku Acharya. Gesture recognition: A survey. IEEE TRANSACTIONS ON SYSTEMS, MAN AND CYBERNE- TICS - PART C, 37(3): , Robin R. Murphy. An Introduction to AI Robotics (Intelligent Robotics and Autonomous Agents). The MIT Press, November Rudy R. Negenborn. Kalman filters and robot localization, J. R. Quinlan. Induction of decision trees. Mach. Learn., 1(1):81 106, March L. Rabiner and B. Juang. An introduction to hidden markov models. ASSP Magazine, IEEE, 3(1):4 16, April James M. Rehg, Kevin P. Murphy, and Paul W. Fieguth. Visionbased speaker detection using bayesian networks. In In Workshop on Perceptual User-Interfaces, pages , Stuart J. Russell and Peter Norvig. Artificial Intelligence: A Modern Approach. Pearson Education, Sebastian Thrun, Wolfram Burgard, Dieter Fox, Henry Hexmoor, and Maja Mataric. A probabilistic approach to concurrent mapping and localization for mobile robots. In Machine Learning, pages 29 53, A. M. Turing. Computing machinery and intelligence, One of the most influential papers in the history of the cognitive sciences: 22. M. Turk and A. Pentland. Eigenfaces for recognition. Journal of Cognitive Neuroscience, 3(1):71 86, A. Viterbi. Error bounds for convolutional codes and an asymtotically optimal decoding algorithm. IEEE Transactions on Information Theory, 13: ,

82 24. Waseda. Development of waseda robot. 2.html. 25. Greg Welch and Gary Bishop. An introduction to the kalman filter. Technical report, Chapel Hill, NC, USA, Shiuh-Ku Weng, Chung-Ming Kuo, and Shu-Kang Tu. Video object tracking using adaptive kalman filter. Journal of Visual Communication and Image Representation, 17(6): , Andrew D. Wilson and Aaron F. Bobick. Parametric hidden markov models for gesture recognition. IEEE Trans. Pattern Anal. Mach. Intell., 21(9): , September W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld. Face recognition: A literature survey,

83 CALPE e InDiCa: dos ejemplos de investigación aplicada a tendidos eléctricos ferroviarios Jesús Montesinos 1, Nuria Cuartero 2, Alejandro Jiménez 2, Enrique Arias 3, Fernando Cuartero 3, Tomás Rojo 3, Pedro Tendero 3, Jesús Benet 4 Resumen. España es, en la actualidad, uno de los líderes mundiales en Ferrocarriles de Alta Velocidad, disponiendo de la red más extensa de Europa y la segunda del mundo. Varios países están interesados en la tecnología desarrollada por el Administrador de Infraestructuras Ferroviarias(ADIF), la empresa pública encargada de la gestión de la misma. En este artículo se describe el trabajo llevado a cabo durante más de quince años entre el grupo CALPE, un equipo de investigación multidisciplinar de ingenieros civiles e informáticos de la Universidad de Castilla- La Mancha y ADIF. Como resultado de esta intensiva colaboración se han obtenido dos herramientas que permiten que ADIF sea más competitiva, con una reducción de costos en sus instalaciones debido, principalmente, a un menor coste de mantenimiento, y a la mejora de la eficiencia en las líneas eléctricas diseñadas por medio de estas herramientas, denominadas CALPE e InDiCa. Se presentarán ambas herramientas en una forma histórica, comenzando desde el principio del la colaboración, y hasta las versiones más recientes: la historia, diseño, funcionalidades, las cuestiones de computación, etc. Palabras clave: Cálculo de péndolas, interacción dinámica pantógrafo/catenaria, sistema de electrificación ferroviaria, herramientas de altas prestaciones. 1 INTRODUCCIÓN La evolución en el mercado del transporte, resultante de un vasto cúmulo de elementos, tales como la globalización de la economía, la desregulación creciente de los mercados, el aumento de la competitividad en el marco de la mejora de los servicios al cliente, la creciente preocupación por el medio ambiente, así como la necesidad de garantizar a largo plazo una rentabilidad operativa consistente con el desarrollo económico de los paises, está conduciendo a un cambio radical (tanto estructural como cultural) en el sector ferroviario, centrado en enfoques innovadores para los negocios y los servicios, que conduce a que las diferentes empresas en el mismo cambien sus modus operandi en una estrategia mundial globalizada orientada al mercado. 1 Administrador de Infraestruturas Ferroviarias (ADIF), 2 Instituto de Investigación en Informática de Albacete, 3 Departamento de Sistemas Informáticos, 4 Departamento de Mecánica Aplicada. Departamento de Mecánica Aplicada. Universidad de Castilla-La Mancha, Avda. España s/n,02071-albacete, España, para Número de Teléfono: Ext: {2497}, Fax:

84 La supervivencia en el mercado del transporte, en constante evolución y altamente competitivo, implica una continua búsqueda de la excelencia en los servicios, que permita a los operadores ferroviarios y a las industrias suministradoras lograr un perfil global de primer nivel. Dicha búsqueda de la excelencia tiene que cubrir toda la gama de actividades comerciales, a partir de la demanda del mercado y finalizando con la satisfacción del cliente. Se requiere, pues, un desarrollo integrado y la implementación oportuna de unas adecuadas infraestructuras organizativas, tecnológicas y de capacidades. Por tanto, el cumplimiento de esta estrategia necesita de una nueva construcción conceptual, y entre otras cuestiones, el desarrollo de un más eficiente acoplado entre el pantógrafo y la catenaria, así como la utilización intensiva de una amplia gama de nuevas tecnologías. Por otra parte, la multitud de sistemas de electrificación que en la actualidad se utilizan en toda Europa y, posteriormente, así como la inversión masiva de capitales que serían necesarios para poner en práctica cualquier tipo de solución armonizada válida en toda Europa, son razones para suponer que no es previsible un cambio importante en este campo en un futuro cercano. Un estudio detallado de los sistemas de electrificación y la tecnología de la interacción pantógrafo/catenaria, teniendo en cuenta los diferentes aspectos económicos involucrados se puede encontrar en [1]. Durante los años recientes, el transporte de pasajeros por ferrocarril ha experimentado un considerable aumento en algunos países europeos (Alemania, Francia, España, etc.). Por esa razón, el alcanzar velocidades cada vez más altas en los ferrocarriles se ha convertido en un objetivo muy importante. En ese escenario, el sistema pantógrafo/catenaria, con su comportamiento dinámico, se convierte en un componente crucial (véase [2 4]), ya que a una velocidad alta es muy difícil garantizar el contacto permanente de la cabeza del pantógrafo y el hilo de contacto que suministra la energía, y todavía más sin un consiguiente aumento de los niveles de ruido y desgaste de las infraestructuras. Con el fin de obtener un comportamiento adecuado en el sistema pantógrafo/catenaria, es necesaria la existencia de unas condiciones adecuadas en la línea suministradora, y esto requiere, entre otros aspectos, un cálculo mecánico muy preciso. En este sentido, las mejores condiciones en las que el pantógrafo obtendría la energía eléctrica a partir de la línea sería cuando el hilo de contacto fuese completamente paralelo al suelo y por ello, un problema importante es el de determinar la longitud exacta de las péndolas que sostienen dicho hilo de contacto, con el fin de permitir al mismo la adquisición de la forma más correcta. Este problema lo denominamos del cálculo estático. Además, recientes investigaciones sobre el sistema global se han centrado en el comportamiento dinámico del mismo, por medio de simulaciones dinámicas a fin de permitir un mejor estudio y un mejor conocimiento del fenómeno de la interacción entre el pantógrafo y la catenaria [4,5]. Por otra parte España ejerce, en la actualidad, un importante liderazgo mundial en los ferrocarriles de alta velocidad, con más de kilómetros instalados. Dicha red es la más extensa de Europa y la segunda en el mundo, sólo 76

85 después de China. Otros países [6], como Noruega [7] y los EE.UU. [8 11], entre otros, han puesto su atención en España, y en la tecnología desarrollada por la compañía, de carácter público, que ejerce como administradora de los ferrocarriles públicos (ADIF) [12]. Este liderazgo ha permitido a dicha empresa ADIF haber sido seleccionada, entre otras, para la construcción del corredor de Alta Velocidad que unirá a Medina con La Meca [13] en Arabia Saudí. En este trabajo, presentaremos dos herramientas exitosas desarrolladas por el equipo CALPE, un grupo multidisciplinar formado por ingenieros civiles y de la computación, del personal investigador de la Universidad de Castilla-La Mancha (UCLM)[14], en colaboración con ingenieros de la empresa ADIF. Estas herramientas se denominan CALPE (solución del problema estático) e InDiCa (solución del problema dinámico). Según un informe elaborado por los ingenieros de Adif [15], con el uso adecuado de estas herramientas el coste operativo puede ser reducido drásticamente, y de hecho, ADIF cuantifica dicho ahorro, aproximadamente, en un millón de euros por cada 100 kilometros de vía instalada. Esta impresionante reducción de costes se debe, principalmente, a un coste de mantenimiento de las infraestructuras más bajo, y a la mejora de la eficiencia en la utilización de energía en las líneas de electrificación, si las mismas han sido diseñadas de manera adecuada, lo que puede lograrse mediante el uso de estas herramientas. Los resultados de CALPE e InDiCa, no sólo han sido reconocidos por ADIF, sino también han sido presentados en congresos y revistas internacionales de interés en el área [16 18]. Además, dichas herramientas de software están sujetas a patentes nacionales con una propiedad compartida entre la UCLM y ADIF. Este artículo está estructurado de la siguiente manera. En primer lugar, presentamos la historia y evolución de CALPE e InDiCa así como un estado de la técnica, e indicando las funcionalidades en cada momento histórico. Después, presentamos el estado actual de la herramienta InDiCa. Finalmente, exponemos las conclusiones y posibles trabajos futuros a desarrollar. 2 CALPE e INDICA: REVISIÓN HISTÓRICA. La colaboración entre el equipo Calpe y la empresa ADIF se inició en octubre de 1995, y ya en diciembre de 1996 se realizó la primera versión de la herramienta CALPE. Ésta era una herramienta que permitía calcular la longitud de las péndolas en la catenaria de un tendido eléctrico ferroviario (de ahí el acrónimo CÁLculo de PEndolas de Catenarias), y sirvió como un punto de partida para posteriormente estudiar el comportamiento estático del sistema completo pantógrafo-catenaria. En esta versión preliminar de CALPE se estudian tramos de transición, con diferente número de hilos de contacto, diferentes tipos de péndolas y un vano que denominamos normal, propio de las líneas convencionales. Dicho vano debía estudiarse de manera aislada, y no fomando parte de un sistema, debido a ser los primeros pasos. La aplicación, aún en estos primeros tiempos, ya proporcionaba un informe exhaustivo de los resultados en formato 77

86 Fig.1. FIGURA DE UNA MÉNSULA ALMACENADA EN LA BASE DE DATOS DE CALPE. pdf, ajustado a los estándares existentes, y con los mismos validados por los ingenieros de ADIF. Seguidamente, a finales de 1997, se lanzó una nueva versión de CALPE (CALPE vers. 3.15), que amplía la base de cálculo a un conjunto de vanos, que en la nomenclatura de la industria recibe el nombre de Cantón, donde además pueden existir un diferente número de péndolas en cada uno de los vanos componentes. Asimismo, se amplía el tipo de modelo de catenaria incluyendo, además del convencional (vano normal) el denominado vano en Y, que en el caso español es el usado en los tendidos de alta velocidad (AVE). Enlasiguienteampliación,quetienelugarenelaño1999,selanzalaversión4 de CALPE. En esta versión se incluye el estudio de diversas nuevas componentes del modelo, entre ellas, la ménsula (ver Fig. 1). En el año 2004 tiene lugar una importante revisión del proyecto Calpe, que da lugar a la versión 5 de la herramienta. Además de una importante revisión de todo el funcionamiento, incluyendo mejoras importantes en la usabilidad de la herramienta, adaptada a una amplísima variedad de posibles casuísticas, se incluye un aumento de funcionalidades. En este momento, el número de parámetros que maneja la aplicación es elevado, y entre ellos destacan: Número de péndolas que unen el conductor y el hilo de contacto, n a Posición de dichas péndolas, de acuerdo al sistema de referencia {x i a, i = 1...n a } Número de péndolas en el falso sustentador n b, para el caso de la catenaria en Y Posición de dichas péndolas, {x i b, i = 1...n b } Longitud de los vanos L (Desde A 1 hasta A 2 ) 78

87 Distancia desde las uniones B 1 hasta el soporte A 1 : L b Altura de la catenaria en el soporte (distancia entre el sustentador y el hilo de contacto): H c1,h c2,..., Peso por unidad de longitud del sustentador, p a el principal, y p b el falso sustentador Peso por unidad de longitud del hilo de contacto q Peso Específico del material de la péndola (normalmente cobre), y Área de la sección de la misma S Peso fijo de diversas componentes adicionales de la péndola: P g Tensión en la polea de compensación ( en el soporte izquierdo) T 1 Tensión en el centro del falso sustentador B x Tensión en el hilo de contacto T c Desviación en el hilo de contacto (flecha permitida) f c Número de hilos de contacto n c Peso de la unión P e Peso del falso sustentadorp c La codificación de la aplicación CALPE, en esta versión, se realizó sobre una arquitectura software de una base de datos orientada a objetos, más una interfaz visual bajo Windows 98, posteriormente adaptado a Windows XP. La interfaz se programó en el entorno Visual FoxPro ( c Microsoft). La mencionada interfaz de la aplicación estaba, al igual que las posteriores, en español (ver Fig. 2), y consistía en un menú con una serie de opciones. Entre ellas, el mantenimiento de la base de datos, diseñada mediante tablas de una base relacional siguiendo un esquema entidad-relación. Dichas tablas implementan las diferentes componentes de los dos modelos de catenaria considerados, el normal, de líneas convencionales, y el de forma de Y, de las vías de AVE. Entre dichos componentes figuran los diversos tipos de hilos, postes, etc. Durante el año 2005, y ya avanzado el proyecto CALPE en su parte estática, el equipo pasó a considerar el problema dinámico, desarrollando la primera fase de la herramienta que fue denominada InDiCa (Interacción Dinámica pantógrafo Catenaria). Los trabajos existentes en la literatura en relación a este problema son los siguientes: PANDA. Herramienta para el diseño y prueba de pantógrafos, presentada en [20]. En la misma podemos encontrar cuatro clases de estructuras para el pantógrafo, que pueden ser usadas en la simulación. No obstante, el modelo de catenaria considerado es bastante más sencillo que el realizado por el equipo autor de este trabajo. Drugge et al. presentan en su trabajo [21] algunas ideas para simular la interacción del pantógrafo y la catenaria. Presentan un estado del arte bien definido y describen los principales conceptos, de una manera fácil de seguir para ingenieros y expertos en simulación. No obstante, no tenemos constancia de que dichas ideas hayan sido implementadas en una herramienta por los autores. 79

88 Fig.2. MENÚ PARA LA CONFIGURACIÓN DE UN VANO. Arnold y Simeón ([4, 22]) han hecho un esfuerzo considerable en su trabajo para la solución delproblema de interacción dinámica pantógrafo-catenaria. Parte del mismo ha sido tenida en cuenta en nuestro trabajo, si bien la solución propuesta se limita al modelo matemático, sin tener en cuenta consideraciones sobre la cantidad de tiempo y el espacio requeridos para resolver el problema en la manera propuesta. Además, dicha solución no se presenta en forma de algoritmo para ser implementado en una herramienta adecuada para su uso práctico por ingenieros del ámbito empresarial. Una vez desarrollada la herramienta InDiCa como solución para el problema dinámico, en la misma queda integrada también CALPE, puesto que, precisamente, la solución estática es necesaria como un paso previo para calcular la solución del problema dinámico. Y esto es porque se parte de dicho problema para fijar algunos elementos de la configuración inicial. Por ello, también In- DiCa ha sido implementado usando una interfaz visual análoga, también bajo Windows XP y Visual FoxPro ( c Microsoft). InDiCa en su versión inicial, podía realizar simulaciones con los modelos de catenaria normal y en Y, con uno o con dos hilos de contactos, pendolado continuo o alternativo, hasta cuatro pantógrafos, etc. En la interfaz InDiCa, implementada en español, existe una ventana principal, y un menú donde pueden elegirse las siguientes opciones: Seleccionar utilidades habituales: cortar, pegar, salir, etc. Ejecutar el proceso principal, que permite al usuario definir los datos y realizar la ejecución del análisis de la interacción. El mantenimiento de la Base de Datos, diseñada con varios sistemas de ficheros en forma de tablas de un sistema relacional, definido en un esquema 80

89 Fig.3. ENTRADA DE DATOS entidad-relación, al igual que en el caso de CALPE. En dichas tablas se definen todos los componentes usados por los usuarios: Cables, péndolas, pantógrafos, postes, etc. Obtener diferentes informes relativos a las bases de datos auxiliares. Algunas utilidades de carácter técnico para el funcionamiento operativo de la aplicación. El procedimiento principal de la herramienta, presentada como opción Proceso en el menú, ha sido definida sobre una ventana emergente. En la misma se permite la introducción de los diferentes tipos de datos, seleccionados a partir de diversos componentes introducidos previamente en los sistemas de bases de datos predefinidos, junto a otros nuevos. En la Figura 3, podemos ver un ejemplo de la introducción de datos sobre dicha ventana. Para localizar un cálculo, además de su codificación el usuario deberá indicar una descripción de la misma, a los efectos de su identificación. Una vez almacenados en la base de datos, todos los elementos podrán ser modificados a conveniencia cada vez que el usuario desee realizar un cálculo. Por otra parte, el diseño de las diferentes ventanas mediante pestañas tabuladas, permite el usuario poder gestionar la información de una manera intuitiva y cómoda. Una vez que el usuario ha suministrado todos los datos necesarios, es posible ejecutar el programa. Este proceso es bastante corto y, dependiendo de la complejidad del problema, se puede tener disponible en unos segundos, por lo general en menos de un minuto; tras lo cual el usuario podrá ver en una nueva ventana, también tabulada en pestañas, los diferentes resultados obtenidos. La Figura 4 nos muestra un ejemplo de dicha ventana de resultados obtenidos. En este caso esta ventana nos muestra el caso del resultado para el análisis de 81

90 Fig.4. PRESENTACIÓN DE RESULTADOS (CASO DE ESFUERZOS) los esfuerzos, y aparece una imagen del mismo, y debajo algunos de los datos del resultado, los más relevantes para que el ingeniero usuario pueda hacerse una idea cabal del resultado obtenido. No obstante, puede obtenerse un informe más exhaustivo de manera impresa, o bien exportado a fichero pdf o excel. El total de los resultados obtenidos se presenta en cinco posibilidades diferenciadas: Diagrama de esfuerzos (mostrado en la Fig. 4), diagrama de elevación, diagrama de distribución de fuerzas, diagrama conjunto de relaciones entre esfuerzos y elevación, y diagrama de posición/tiempo. Además del mencionado anteriormente, pueden verse los resultados de los demás en la Figura 5. Por otra parte, la herramienta InDiCa también nos proporciona la posibilidad de generación de un vídeo interactivo que visualiza las posiciones donde el pantógrafo se separa del hilo de contacto, produciendo un despegue (ver Figura 6). En la última revisión, InDiCa fue modificado, pasando a la versión 2 de la misma, en la que se extendió la funcionalidad considerando también los vanos de transición, cuando finaliza el tendido de un cable y entra el siguiente; así como con la adición de nuevos cálculos en función de la velocidad, un nuevo y mejorado sistema para gestionar los posibles errores, etc. En la Figura 7 se muestran los resultados teniendo en cuenta el vano de transición, mientras que la Figura 8 muestra el vídeo resultante, cuando se tienen en consideción dichos vanos. 82

91 3 SITUACIÓN ACTUAL DE LA HERRAMIENTA INDICA: INDICA-3D En el año 2011, el Ministerio de Ciencia e Innovación del Gobierno de España aprobó la financiación de proyecto de investigación en el marco de la convocatoria INNPACTO [19] del Plan Nacional de I+D+i. Bajo los auspicios de dicha convocatoria, el equipo de Calpe y ADIF continúan su colaboración, que ya va por más de 15 años, en el desarrollo de la herramienta que se denominará InDiCa-3D. Como su propio nombre indica, este proyecto pretende extender el modelo dinámico de la herramienta InDiCa teniendo en cuenta, además, el efecto del viento en el sistema de la catenaria. Esto implica, por tanto, hacer frente a una tercera dimensión, y de ahí el origen del nombre. Por el momento, en una primera fase, se está considerando el caso más sencillo del modelo, que consta de una catenaria de tipo normal, un único hilo de contacto, y un único pantógrafo. Como se ha venido haciendo hasta ahora, el resto de posibles componentes del modelo se irán añadiendo en etapas sucesivas. Además, también la interfaz de usuario será actualizada, en una manera más moderna y atractiva, sin perder de vista la utilidad, la situación actual puede verse en la Figura 9. 4 CONCLUSIONES Y POSIBLES TRABAJOS FUTUROS En el presente artículo hemos presentado la evolución histórica de dos herramientas de éxito, resultado de una fructífera colaboración entre una empresa en donde la tecnología representa un aspecto importante de la misma, y una institución académica española. Estas herramientas informáticas han sido denominadas, respectivamente, CALPE e InDiCa. También se ha presentado la historia de un grupo multidisciplinar, el grupo CALPE de la Universidad de Castilla-La Mancha. Desde un punto de vista académico, un resumen de los resultados obtenidos por el mismo es el siguiente: Varios artículos describiendo diferentes aspectos de estas herramientas han sido publicados en revistas internacionales y conferencias relevantes. Las investigaciones desarrolladas han sido financiadas mediante varios varios proyectos de I+D obtenidos, bien en competencia competitiva procedentes de instituciones gubernamentales de ámbito regional y nacional, o bien mediante contratos ex-profeso encargados por la propia ADIF para su desarrollo. Una tesis doctoral ha sido presentada en el marco de estas investigaciones, y dos más están en estos momentos en desarrollo. Dos patentes de ámbito nacional para la explotación de las dos herramientas han sido inscritas en el correspondiente registro español. Ambas han sido inscritas figurando tanto la Universidad como la empresa Adif como cotitulares de los derechos, habiendo sido transferidos en su integridad a la empresa, que los explota, por tanto, en solitario. 83

92 Además, desde el punto de vista del sector industrial, en cuanto al avance en el know how obtenido, también podemos destacar los siguientes resultados relevantes: Se pueden evitar una parte importante de las pérdidas de contacto entre el pantógrafo y la catenaria, lo cual permite reducir de manera muy significativa los costes de mantenimiento de la infraestructura, debido a la mayor duración de los cables del tendido. También se consigue optimizar el consumo eléctrico, tanto al ofrecer una conexión de manera más constante y con menos interrupciones como al reducir las pérdidas por arcos eléctricos, algunas de suficiente importancia, que llegan a fundir importantes candidades de cobre de los hilos de contacto. Asimismo, el evitar las pérdidas de contacto permite a los trenes alcanzar la cima de la velocidad durante mayores períodos, obteniendo una mayor velocidad media. Más aún, cada pérdida de contacto produce una breve parada en el convoy por la falta de suministro eléctrico, y por tanto, un pequeño, aunque molesto, efecto de choque sobre los pasajeros, comparables a los producidos por un bache. Por ello, evitarlos también redunda en la comodidad de los pasajeros y en la calidad del servicio ofrecido. Estas mejoras de calidad de servicio que proporcionan una mayor satisfacción de los clientes también ayudan al sector a competir por nuevos mercados y, por ejemplo, conseguir un traspaso de clientes procedentes del sector aeronáutico al ferroviario. Por todo lo indicado, teniendo en cuenta que esta herramienta facilita la instalación de la línea aerea, y que el mantenimiento es menos costoso, se tiene que ADIF ahorra una cantidad que puede ser cuantificada, aproximadamente, en un millón de euros por cada 100 km. de vía instalada. Este resultado tan importante cobra una especial relevancia en estos momentos de crisis económica, tanto mundial como española. Para finalizar, indicaremos que algunos de los próximos objetivos marcados para el equipo CALPE, una vez finalizada la fase actual, lo que está previsto para mediados del próximo año, pueden ser los siguientes: Hacer frente al estudio de la catenaria rígida, habitualmente utilizada en túneles. Implementar un banco de pruebas distribuido, con el objetivo de obtener de una forma completamente automática la configuración óptima de los parámetros buscados, mediante el cálculo en paralelo de combinaciones por medio del uso de una infraestructura computacional grid, en lugar del método actual de alcanzar una solución sub-óptima de acuerdo a la experiencia del ingeniero usuario. Asimismo, y debido al hecho de que la complejidad de los cálculos está continuamente aumentando, estudiar la viabilidad de utilizar métodos e infraestructuras de computación de altas prestaciones. Y, por supuesto, resolver nuevos desafíos que los ingenieros de ADIF necesitan en sus tareas cotidianas. 84

93 5 AGRADECIMIENTOS El presente trabajo ha sido parcialmente financiado por el Ministerio de Economía y Competitividad del Gobierno de España, en el marco del Plan Nacional de I+D+i, a través del Programa INNPACTO, mediante el proyecto INTER- ACCIÓNDINÁMICAPANTÓGRAFO/CATENARIA:DESARROLLODEAL- GORITMOSEIMPLEMENTACIÓNENUNAHERRAMIENTAINFORMÁTICA DEL CÁLCULO EN 3D Y LA CATENARIA RÍGIDA (Ref: IPT ). Bibliografía 1. Garfinkle, M. Tracking pantograph for branchline electrification. Technical Report -, School of Textiles and Materials Technology. University of Philadelphia, Poetsch G., J. Evans, R. Meisinger, W. Kortum, M. Baldauf, A. Veitl, & J. Wallaschek. Pantograph/catenary dynamics and control. Vehicle System Dynamics, 28: , Poetsch, G. & Wallaschek, J. Symulating the dynamic behaviour of electrical lines for high-speed trains on parallel computers. International Symposium on Cable Dynamics, LiÚge, Simeon, B. & Arnold, M. The simulation of pantograph and catenary: a PDAE approach. Technical Report 1990, Fachbereich Mathematik. Technische Universitat Darmstadt, Carsten, N. J. Nonlinear systems with discrete and continuous elements. PhD thesis, University of, Spanish Institute for Foreign Trade html n html. 12. Spanish Administrator in charge of the Railways Infrastructure /Ten. 14. University of Castilla-La Mancha J. Benet, F. Cuartero, T. Rojo and Enrique Arias, Advanced Algorithm to Calculate Mechanical Forces on a Catenary, ISBN: , Computers in Railways IX, pp ,ó Angelines Alberto, Jesús Benet, Enrique Arias, Tomás Rojo, Fernando Cuartero, A high performance tool for the simulation of the dynamic pantograph catenary interaction, ISSN: ,Mathematics and Computers in Simulation, vol. 79(3), pp ,

94 18. Nuria Cuartero, Enrique Arias, Fernando Cuartero, Tomás Rojo. An efficient implementation of the dynamic pantograph-catenary interaction considering a set of transition spans, The Thirteenth International Conference on Civil, Structural and Environmental Engineering Computing (CC2011), Gobierno de España. Ministerio de Economía y Competitividad. Programa IN- NPACTO A. Balestrino, O. Bruno, A. Landi, L. Sani, Panda: a friendly cad tool for pantograph design and testing, in: Sixth International Conference on Computer in Railways, COMPRAIL-VI, L. Drugge, T. Larsson, A. Stensson, Modelling and simulation ofcatenarypantograph interaction, Vehicle System Dynamics 33 (2000) B. Simeon, M. Arnold, Coupling daes and pdes for simulating the interaction of pantograph and catenary, Mathematical and Computer Modelling of Dynamical Systems 2 (2000)

95 Fig.5. PRESENTACIÓN DE RESULTADOS COMPLETA 87

96 Fig. 6. VIDEO INTERACTIVO CON LOS DESPEGUES. Fig.7. GRÁFICO DE ESFUERZOS EN UN VANO DE TRANSICIÓN. 88

97 Fig.8. VIDEO INTERACTIVO DE DESPEGUES EN TRANSICIÓN. Fig. 9. INTERFAZ DE INDICA-3D. 89

98 90

99 La Investigación e Innovación en TIC como Motor de Castilla-La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Redes Interinstitucionales y Regionales: CSEV e IberVirtual ampliando el alcance de la Educación a Distancia en Iberoamérica Myriam Resa López Directora de Gestión y Ejecución de Proyectos. Fundación Centro Superior para la Enseñanza Virtual. Avda. Esparta s/n. Edificio UNED Las Rozas de Madrid, España. Resumen. La formación virtual como herramienta educativa promueve la inclusión social de colectivos en riesgo; su promoción en Iberoamérica, en colaboración con las entidades más relevantes en este ámbito, es uno de los objetivos del Centro Superior para la Enseñanza Virtual. (CSEV) El reto para un fomento efectivo de una Educación a Distancia de calidad es buscar sinergias entre los diferentes actores involucrados en la consecución de esta meta común, para producir resultados superiores a los conseguidos de forma aislada e individual. El trabajo en red y la creación de ecosistemas laborales permite, apoyados en las Tecnologías de Información y Comunicación, mejorar considerablemente la eficiencia y generar un conocimiento diferencial capaz de transformar la creatividad en innovación. Palabras Clave: tecnología, innovación, ecosistema, red, colaboración, cooperación, Iberoamérica 1 Introducción La aplicación de las Tecnologías de Información y Comunicación al mundo de la educación se perfila como uno de los principales factores que contribuyen en la construcción de un nuevo paradigma social y económico en cuya base se encuentra la búsqueda del crecimiento sostenible y la competitividad. Por su parte, Internet ha revolucionado el mundo de la formación: el papel que desempeñaban los estudiantes, por ejemplo, en el proceso de enseñanza-aprendizaje, ha cambiado radicalmente: de ser un receptor, un ente pasivo a ser el actor principal a cuyo servicio deben de estar, entre otros, los materiales de aprendizaje y los medios tecnológicos. La apertura y descubrimiento de nuevas e innumerables experiencias educativas genera multitud de retos que es necesario afrontar: la disparidad entre plataformas y herramientas, los costes en el diseño de nuevas ofertas formativas y de integración de los sistemas son algunos de ellos. El Centro Superior para la Enseñanza Virtual (CSEV) aspira a ser referencia internacional en cuanto a innovación, transferencia y desarrollo aplicado a la educación virtual, promoviendo, en todas sus formas, la colaboración entre los principales actores en éste ámbito: universidades, instituciones, expertos y empresas 91

100 líderes de forma tal que se convierta en un instrumento para la generación de riqueza social y cultural, con especial foco en Iberoamérica. En este ámbito educativo que se esfuerza por mejorar la calidad del e-learning en Iberoamérica, se perfilan grandes oportunidades de futuro para las universidades españolas y en particular para la Universidad de Castilla La Mancha, en tanto que la cooperación interuniversitaria puede facilitar que esta región se beneficie de experiencias exitosas en investigación e innovación en TIC, llevadas a cabo por países iberoamericanos con situaciones socio económicas similares y, por otro lado, que la UCLM comparta los conocimientos y saberes de su institución con el objetivo de dar respuesta a problemas de otras comunidades educativas. 2 CSEV: un ecosistema de trabajo. Al amparo de la LOU, en diciembre del año 2010 el Centro Superior para la Enseñanza Virtual (CSEV) se constituye como una fundación privada, con una amplia representación en su patronato de instituciones públicas y privadas (UNED, Telefónica, Banco Santander, Hispasat, Ministerio de Educación, Cultura y Deporte, Ministerio de Asuntos Exteriores y Cooperación y Ministerio de Industria, Energía y Turismo), con la misión de usar la tecnología para cambiar la forma de enseñar y aprender en el mundo. Desde CSEV creemos firmemente que el establecimiento de modelos de desarrollo sostenibles, generadores de riqueza, socialmente equilibrados y justos y que impulsen la mejora de las condiciones de vida de toda la población, incluidas las generaciones futuras, está fuertemente vinculado a una mejor formación y capacitación de las personas. Es por ello, que CSEV se ha comprometido en el fomento y el impulso de la formación virtual, como herramienta que promueve la inclusión educativa, eliminando barreras físicas, sociales y geográficas y que facilita un acceso más equitativo lo que redunda en un mayor impacto social. Llevar la enseñanza más allá de las aulas, permitiendo al estudiante aprender en cualquier momento y lugar y por ende, haciendo que sean los protagonistas del proceso y los gestores de su propio desarrollo formativo, está ya siendo uno de los factores clave en los profundos cambios que se están produciendo en todos los subsistemas educativos, y muy especialmente en el de educación superior. Una formación ubicua, duradera, continua y flexible, que se adapte a los requerimientos, preferencias y necesidades del individuo es un desafío mundial que exige respuestas globales y coordinadas. CSEV, alineado con esta premisa, trabaja para fomentar las relaciones con y entre los actores clave del e-learning en el ámbito mundial: universidades, expertos, instituciones y empresas líderes que estén dispuestos a trabajar bajo un modelo de Ecosistema, en el que la construcción de cada iniciativa se enriquece y mejora con el aporte de todos y cada uno de sus miembros. Esta estrategia de colaboración traslada el centro de atención de la estructura organizativa que pierde su importancia al proceso de construcción de un espacio de acción común donde la integración de actuaciones, las complementariedades, 92

101 sinergias y la articulación de la comunidad, se constituyen realmente, como el foco de interés para generar un valor agregado. El poder está en la red: este modelo de intervención está emparejado a una serie de ventajas de las que, como es evidente, todos se benefician: el uso de la tecnologías de información y comunicación en este ámbito nos permite interactuar con socios y colaboradores obviando las barreras físicas, compartiendo recursos, mejorando la eficiencia en la comunicación y ahorrando en costes y tiempo. Pero además de las oportunidades que genera el uso de las tecnologías, trabajar en red supone la optimización de las labores de los equipos: se sistematizan las tareas, se incrementa el nivel de participación, se promueve la relación entre iguales, se favorece la focalización en los objetivos, se aumenta la sinergia de los grupos de trabajo, haciéndolos más eficaces y eficientes, y se genera, en definitiva, un conocimiento diferencial capaz de transformar la creatividad en innovación. Este es nuestro modelo fundamental de trabajo que llevamos adelante en cada uno de los proyectos a través de: El fomento de la colaboración entre todos los agentes clave interesados en la Enseñanza Virtual y la promoción de líneas de actuación. El diseño y la construcción del aprendizaje del futuro mediante la innovación abierta en el entorno digital. La promoción de soluciones tecnológicas y educativas agregadoras, así como contenidos de referencia. La creación de Comunidades 2.0 para compartir conocimiento y experiencias. La incorporación de Metodologías 2.0 abiertas y participativas. El pilotaje de nuevos modelos de certificación abierta. Ilustración 1. Creación de Ecosistema 93

102 2.1 Programa UNX: Vanguardia e Innovación para el Aprendizaje Masivo On Line y el Emprendimiento. Una iniciativa en y con la comunidad. En junio de 2012 se formalizó la colaboración entre CSEV, UNED, Telefónica, Banco Santander y el Instituto Tecnologíco de Massachusetts (MIT) con el objetivo común de buscar soluciones, rápidas e innovadoras, a las nuevas necesidades que se detectan en el mundo de la educación superior y de la acreditación de nuevos conocimientos. En este marco surge UNX, un programa de formación on line que apuesta por la educación virtual abierta en el ámbito iberoamericano, basada en modelos metodológicos disruptivos, que se adapten con la facilidad y flexibilidad que requiere el nuevo entorno digital. En colaboración con los distintos agentes educativos, esta iniciativa permitirá a los usuarios el diseño de cursos abiertos masivos on line empleando herramientas tecnológicas de vanguardia. Esta estrategia formativa, que se asienta en el uso intensivo de las tecnologías, facilitará el acceso de amplios colectivos a recursos educativos y metodologías innovadoras, favoreciendo así el aprendizaje contínuo y ubicuo. Tender puentes que enlacen la innovación universitaria con la empresarial y que permitan la generación contextualizada de proyectos de emprendimiento es otro de los retos que ha asumido el programa: acciones formativas reales, aplicables y sostenibles en el tiempo que den respuesta a las necesidades detectadas por los agentes involucrados en su desarrollo. Metodológicamente, el Programa UNX trabajará con aquellos modelos que permitan la generación de una Comunidad de Aprendizaje y Emprendimiento on line donde cualquier miembro de la misma pueda formarse, aportar y enriquecerla. Así, se experimentará con: MOOC: Massive Open Online Courses; cursos abiertos gratuitos, participativos con interacción permanente de los miembros, lo que promueve el aprendizaje colectivo, y distribuidos con acceso en distintos sitios web e indexados y ordenados en la página principal del curso. La creación de redes de contactos que promueve este tipo de cursos favorece el aprendizaje continuo incluso aún después de que éste haya concluido. Modelos de Aprendizaje Social y Aprendizaje entre pares: basados en el conocimiento aprendido de la comunidad y de los sujetos que actúan en el proceso por el intercambio de experiencias; el rol de los tutores se concreta en acompañamiento y dinamización. Métodos de formación a través de LMS o Plataformas e-learning: sistemas de gestión de aprendizaje con nuevas funcionalidades que hagan más rica la experiencia. REAs.: distintos modelos de uso e integración de los recursos educativos en abierto para explorar todas sus potencialidades. Metodologías de Retos y Juegos: contenidos de formación planteados como retos para que el educando incremente su motivación y particpación. Una vez conseguido el objetivo marcado, el estudiante será reconocido con un badge. 94

103 Nuevos sistemas de acreditación on line y certificación: desarrollo de un sistema de acreditación de competencias por badges on line y sus posibles rutas de evolución hacia una acreditación oficial. 3 AIESAD: Trabajando en Red para mejorar la calidad de la Educación a Distancia en Iberoamérica. Son más de treinta años los que la Asociación Iberoamérica de Educación Superior a Distancia lleva trabajando en la región en pro de facilitar la cooperación y coordinación de sus instituciones, promover la investigación y la aplicación de nuevas tecnologías y fomentar la formación de docentes y gestores en temas relativos a la educación a distancia. Constituida en Madrid, en 1980, durante el I Simposio Iberoamericano de Rectores de Universidades Abiertas, sus socios fundadores fueron la Universidad Nacional de Educación a Distancia (España), la Universidad Estatal a Distancia (Costa Rica), la Universidad Nacional Abierta (Venezuela), la Universidad de la Sabana (Bogotá, Colombia), la Universidad de Brasilia (Brasil) y la Universidad Nacional Autónoma de México. Hoy en día, forman parte de ella casi treinta universidades de catorce países diferentes. A lo largo de estas tres décadas, la asociación ha sido testigo privilegiado de los cambios que han transformado los sistemas educativos universitarios en la región y que han propiciado el nacimiento y desarrollo, en algunos países con mucho éxito de, en aquel momento, innovadores modelos de enseñanza asentados firmemente en el uso de las TICs. Haciéndose eco de las preocupaciones de muchas de las universidades socias sobre el reto global que se planteaba (y se sigue planteando) en relación a la calidad en la Educación a Distancia, AIESAD promovió algunos de los más emblemáticos proyectos que se han desarrollado en este ámbito en Iberoamérica; así, impulsó dentro del Proyecto Caribe, el Centro Virtual para el Desarrollo de Estándares de Calidad para la Educación Superior a Distancia en América Latina". Si bien fue, gracias a este proyecto, que se desarrollaron las bases para un sistema de normas de calidad destinadas a programas de EaD en la Región, fue su participación en el Proyecto RUEDA: Evaluación de los programas de Educación a Distancia (iniciativa en el marco del Programa ALFA, financiado por la Comisión Europea), la que determinó que se elaboraran las directrices conceptuales y criterios metodológicos para mejorar la evaluación de los programas de enseñanza universitaria a distancia. Estas y otras acciones han contribuido a que AIESAD se haya convertido en un referente en el campo de la evaluación y acreditación de la calidad educativa. Gracias a la fluida interacción entre sus miembros, y el interés por ellos mostrado, la asociación asumió como propio el reto de la construcción de los espacios apropiados y la creación de las herramientas necesarias para promover la movilidad virtual de estudiantes y docentes. Su participación en los proyectos de la Comisión Europea UE-AIESAD: Postgrados y Doctorados en Educación a Distancia y NetACTIVE ha sido decisiva para sentar las bases, gracias a la labor de investigación que se ha realizado en torno a la movilidad virtual y los sistemas mixtos 95

104 de enseñanza, para el intercambio de estudiantes y el reconocimiento de créditos entre diferentes instituciones. 4 IberVirtual, trabajando para promover la inclusión social a través de la Educación a Distancia en Iberoamérica. A pesar del amplio desarrollo en el número de instituciones y en la cantidad de oferta formativa universitaria que se produjo entre los años 1975 y 2005 en la región, Iberoamérica aún sigue mostrando dificultades para brindar a su población un acceso equitativo a la formación superior. La información disponible refleja que las tasas de participación en educación superior de la población iberoamericana con un rango etario de entre 18 y 24 años, el cual se corresponde mayoritariamente con el nivel de este subsistema educativo, está por debajo del 50% y sólo incluyen a un tercio o menos de los jóvenes en Bolivia, Colombia, Ecuador, México y Venezuela. Si nos referimos ahora al porcentaje de personas mayores de 25 años que han desarrollado formación superior, éste se encuentra entre el 12% y el 20%, siendo Uruguay el más bajo (con aproximadamente el 10%) y España el más alto (con aproximadamente el 40%). La movilidad académica, tanto activa como perceptiva, se considera baja en el caso de la región Iberoamericana: en conjunto sólo un 7% de los educandos se forman en el extranjero y apenas recibe un 3% de los alumnos móviles del mundo. En el marco del ecosistema CSEV-AIESAD se está desarrollando IberVirtual, una iniciativa que, impulsada por la asociación y ejecutada por CSEV, fue declarada Proyecto Adscrito en la XX Cumbre Iberoamericana de Jefes de Estado y de Gobierno, celebrada en Mar de Plata, Argentina, en diciembre de En la búsqueda de la consolidación del Espacio Iberoamericano del Conocimiento, IberVirtual trabaja para reforzar y potenciar la educación inclusiva mediante el fortalecimiento de la Educación a Distancia (EaD) en la región. Las acciones que se están desarrollando se dirigen hacia ese fin, promoviendo el uso de metodologías a distancia como instrumento que contribuye decididamente a la cohesión e inclusión social en un contexto tan multicultural y multiétnico como el Iberoamericano, en el que no es extraño encontrar situaciones de desigualdad y exclusión social. De igual forma, se están haciendo esfuerzos para incrementar la calidad de la formación impartida, aumentar el número de usuarios a través del inventario de la oferta disponible y de la divulgación de cursos en abierto, así como, entre otras, ampliar la penetración de la EaD mediante la mejora de la investigación, la ampliación y la contextualización de la oferta y la progresiva colaboración entre entidades y empresas del sector. Para ello se han diseñado varias líneas de trabajo que están siendo lideradas en su mayoría por universidades latinoamericanas, que pretenden cubrir el amplio espectro de actividades que el proyecto se ha marcado; estas son: Buenas Prácticas; con ella se pretende favorecer la identificación, visibilidad y apropiación de aquellas acciones que puedan ser consideradas buenas prácticas. Durante el mes de Junio ha estado abierto un concurso de 96

105 experiencias; las propuestas recibidas serán analizadas, durante el mes de agosto por un comité de expertos; aquellas iniciativas que sean consideradas merecedoras de la calificación Buenas Prácticas serán ampliamente divulgadas a través de los mecanismos de comunicación puestos a disposición del proyecto. Movilidad Virtual: que busca su promoción como opción viable para hacer llegar los beneficios derivados de los intercambios académicos a un amplio colectivo educativo, favoreciendo así la inclusión educativa y la cohesión social Calidad Educativa: esta línea se desarrolla en dos vertientes: o Apoyo a la divulgación y a la generación de Políticas Públicas que tengan como eje prioritario la Educación a Distancia: con ella se contribuye a ofrecer una sistematización y comparación de los marcos legislativos y sistemas de acreditación en los diferentes países de la región, así como brindar asistencias técnicas a los gobiernos e instituciones que así lo soliciten, con el fin de promover el diseño de políticas públicas, reglamentos y normativas que contribuyan a consolidar el modelo de Educación a Distancia en o Iberoamérica y Autoevaluación Institucional, para asesorar y acompañar en procesos de autoevaluación de cursos y/o programas de las Instituciones de Educación Superior e implementar planes de mejora en los cursos y/o programas autoevaluados. Federación de Observatorios de la Educación Virtual Iberoamericana; la FOEVI trabaja para consolidar un repositorio interactivo en el que se puedan indexar los contenidos, noticias y publicaciones presentes en los principales observatorios y centros de investigación de la región. Actualmente y plenamente coordinados con la línea de trabajo de Espacio de Investigación, se están iniciando las acciones para que, junto con la OCDE comience a desarrollarse un diagnóstico sobre el Estado de la Educación Virtual en la región Iberoamericana. Espacio de Formación: contribuye a la Formación de agentes involucrados en los procesos de enseñanza aprendizaje, generando modelos de intervención regional ante las necesidades locales de desarrollo. Espacio de Investigacion: que tiene como objetivo promover el fomento de la investigación sobre la Educación a Distancia en Iberoamérica; actualmente, están en marcha dos investigaciones: la antes mencionada en colaboración con la OCDE y la que se refiere a la Educación a Distancia como factor de inclusión social. Entorno colaborativo; para facilitar el trabajo en red de todos los integrantes de las líneas de trabajo, se ha desarrollado una herramienta que permite la interactuación virtual de los socios de una manera fácil y amigable. 97

106 Ilustración 2. Entorno Colaborativo Basada en el software Elgg, una plataforma de servicios de redes sociales de código abierto, se ha diseñado para facilitar el aprendizaje a través del conocimiento compartido; permite almacenar y construir documentos de manera participativa, crear blogs, páginas, incluir videos, buscar contenidos a través de tags y establecer niveles de acceso entre otros. 4.1 Formación Superior a Distancia en Emprendimiento y Empoderamiento Económico de la Mujer: una iniciativa IberVirtual de Trabajo en Red. Conjugar las respuestas a las necesidades detectadas entre los coletivos iberoamericanos con la educación virtual es una de las metas que se han trazado para la línea de trabajo Espacio de Formación. Recientemente se ha consolidado un ecosistema de trabajo formado por CSEV, la Universidad Nacional de Educación a Distancia de España (UNED), la Asocación Iberoamericana de Educación a Distancia (AIESAD), la Universidad Estatal de Distancia de Costa Rica (UNED CR) y la Universidad de Villarica del Espíritu Santo de Paraguay (UNVES), para poner en marcha un proyecto de formación en red que favorecerá, en primer lugar, la mejora de la capacitación de los docentes de la UNVES en metodología EaD y en segundo el diseño y puesta en marcha de cursos sobre emprendimiento y empoderamiento económico de las mujeres que será puesto a 98

107 disposición de la comunidad educativa paraguaya e iberoamericana como recurso educativo en abierto. Según la Encuesta de Hogares de Paraguay del año 2010, el 34,7% de la población ( personas) se encontraba en situaciones de pobreza 1 y el 19,4% ( personas) se situaban bajo los umbrales de pobreza extrema 2. Estos porcentajes se elevan al 48,9% y 39,2% respectivamente en el medio rural lo que significa que este entorno acapara el 58% del total de las personas en situación de pobreza en Paraguay. El nivel de educación tiene una relación inversa con la incidencia de pobreza; así, aquellas mayores de 15 años que tienen 9 años o más de formación estadísticamente se encuentran por encima de la línea de la pobreza mientras que, aquellos que han visto reducido su periodo de educación a 6,8 y 5,7 están en situación de pobreza e indigencia respectivamente. De igual forma, el nivel de pobreza también está directamente relacionado con el acceso al mercado de trabajo regular. La tasa de actividad entre personas en edad de trabajar media en Paraguay es de un 62,9%, elevándose la tasa de actividad masculina a 75,9% y cayendo al 49,7% entre las mujeres. La brecha de actividad entre hombres y mujeres se eleva significativamente en el medio rural, 79,4% frente 46,8%. Existe por lo tanto, una barrera significativa de genero en el acceso al mercado de trabajo regular y esta se profundiza en el medio rural. El trabajo por cuenta propia, se ha consolidado como la principal vía de acceso al mercado laboral de las mujeres: el 39,3% de las mujeres ocupadas se encuentran trabajando por cuenta propia frente al 21,9% que se encuentran ocupadas por cuenta ajena en el sector privado. Una realidad que se profundiza entre las mujeres residentes en el medio rural: 54,4% ocupadas por cuenta propia frente a un 10,5% ocupadas por cuenta ajena en el sector privado. La propia iniciativa y el carácter emprendedor de las mujeres se ha consolidado como la principal vía de acceso a los recursos económicos por parte de las mujeres Paraguayas, especialmente en el medio rural. Con esta información, la UNVES detectó la oportunidad de poder incidir positiva en la formación del colectivo de mujeres de su país con la adaptación de un curso, ya existente en su oferta formativa presencial, sobre Emprendimiento, para que fuera accesible, abierto y disponible. En este mismo proceso de análisis se concretaron algunas debilidades: se hacía imprescindible que la oferta se brindara virtualmente y aunque la institución dispone de una plataforma virtual, la formación de sus docentes en temas de virtualización de materiales y tutorización de los mismos no es la adecuada y la UNVES no cuenta con personal docente que tenga formación específica en cuestiones de género. En este marco se establece un entorno de colaboración entre las cinco instituciones arriba mencionadas para que, respetando el liderazgo de la UNVES como universidad local y experta en el contexto de la intervención, se puedan poner en común 1 Personas que vivían en hogares cuyos ingresos anuales son inferiores al coste de una canasta básica de consumo. 2 Personas que vivían en hogares cuyos ingresos anuales no cubre la canasta mínima de consumo alimentario. 99

108 experiencias y crear sinergias que faciliten el diseño y puesta en práctica de un curso virtual abierto en temas de emprendimiento femenino con enfoque de género. Así, la participación de cada una de las entidades queda definida de la siguiente forma: La UNVES, como proponente de la iniciativa, desarrolla un doble rol en el proyecto: en una primera fase será considerada como la universidad beneficiaria de las acciones destinadas a la mejora de la capacitación docente en metodologías de educación a distancia y género y, en la segunda etapa, será la institución que liderará el diseño del Curso de Emprendimiento y Empoderamiento Económico Femenino; la institución será responsable del mantenimiento de la plataforma, las medidas orientadas a garantizar la sostenibilidad de la acción y la relación con las instituciones locales y las participantes. La UNED España, es una institución pionera y de referencia en España en el ámbito de la educación a distancia, con una consolidada presencia internacional. Entre los cursos de titulación propia que ha desarrollado está el Curso Superior Iberoamericano de Educación a Distancia (este año en su 30 edición), cuyos contenidos serán adaptados e integrados en el curso de género y educación con el fin de promover una mejora en la formación de los docentes de la UNVES en virtualización y tutorización de cursos on line. La UNED España, asume la coordinación académica de la oferta y contenidos generados en el proyecto, así como la gestión económica del mismo. La Universidad Estatal a Distancia de Costa Rica, es una institución con un fuerte prestigio en América Latina y participa en el proyecto a través de su Centro de Capacitación a Distancia (especializado en la formación de docentes) y el Instituto de Género. Ambos organismos cuentan con una amplia experiencia internacional y son los encargados del diseño e impartición de los contenidos en género, así como de asegurar la correcta transversalización de la equidad de género en el conjunto de cursos y casos prácticos integrados en el proyecto. En AIESAD participan 30 universidades iberoamericanas con programas de educación a distancia. Como asociación, lidera el Programa Ibervirtual y dentro de la actual inicitiva, su equipo facilita los espacios de coordinación entre el proyecto y el resto de miembros del Programa Ibervirtual, promoviendo la difusión de buenas prácticas y la retroalimentación de la experiencia. La Fundación CSEV tiene como principal misión la promoción de la enseñanza virtual y la utilización de la TICs en la educación superior; para ello cuenta entre sus patronos con importantes empresas tecnológicas y de comunicaciones como la Agencia España de Cooperación Internacional para el Desarrollo o el Ministerio de Educación de España. El CSEV se encargará de la gestión operativa del proyecto, la dinamización de los espacios de dialogo y el apoyo a la UNVES en el diseño de estrategias que garanticen el impacto y sostenibilidad de la acción. La iniciativa se desarrollará en tres fases: 100

109 Fase 1, que contempla el diseño e implementación del Curso Superior en Fundamentos de la Transversalización en Género y Metodologías de Educación a Distancia para los docentes de la UNVES, que será liderada por la UNED España y la UNED Costa Rica con el asesoramiento de AIESAD y CSEV Fase 2; los docentes que concluyan exitosamente los objetivos académicos prescritos en la fase 1 estarán en capacidad de virtualizar, con especial énfasis en el enfoque de género, el curso, ya existente en la oferta formativa presencial de la UNVES, sobre emprendimiento. Esta nueva formación Emprendimiento y Empoderamiento Económico de las mujeres será puesta a disposición de la comunidad paraguaya, gracias a la participación de empresas públicas, privadas y de asociaciones civiles que desarrollen programas e inciativas en pro de las mujeres. Esta etapa estará liderada por la UNVES y asesorada por UNED España, UNED Costa Rica y CSEV. Fase 3; con las debidas contextualizaciones realizadas por los equipos docentes de las universidades miembros de AIESAD, el curso Emprendimiento y Empoderamiento Económico de las mujeres estará disponible para el resto de la comunidad iberoamericana, como Recurso Educativo en Abierto, dentro de la plataforma IberVirtual. 5. Para concluir 1. La mejora del nivel educativo se identifica como una condición necesaria para buscar mayores niveles de productividad, promover una diversificación productiva, y disminuir las brechas de género y exclusión con una reducción de los niveles de pobreza; esto redunda, sin lugar a dudas, en democracias más efectivas y comunidades más solidarias en un ambiente de paz social. 2. La Educación Virtual es una metodología que favorece la formación de colectivos de estudiantes con dificultades de acceso a los diferentes sistemas educativos y que complementa los procesos de enseñanza aprendizaje de la formación presencial. 3. El uso intensivo de las tecnologías de Información y Comunicación mejora la eficiencia, amplia el impacto social, crea sociedades más equitativas y amplía la cobertura geográfica. 4. La creación de ecosistemas de actores que persiguen el objetivo común de promover a Educación a Distancia en Iberoamerica como factor que contribuye a la inclusión social, fomenta el trabajo en red, la socialización de los saberes, el intercambio de experiencias, la contextualización de las iniciativas y la consolidación de capacidades. Para finalizar y a modo de reflexión, hacemos nuestras las palabras del Magnífico Rector de la UCLM Miguel Ángel Collado: ( ) Nuestra misión va más allá de la preparación para el ejercicio de las actividades profesionales. No sólo creamos y transmitimos ciencia, técnica y cultura, sino que nos comprometemos con el desarrollo económico ( ). En nuestro camino nos guían la solidaridad, la 101

110 sostenibilidad, la eficiencia, el mérito, la capacidad, la transparencia y el fomento de la igualdad. ( ). Este es, muy probablemente, el momento oportuno para que estas hermosas ideas trasciendan del entorno de la comunidad castellano - manchega y se hagan realidad también en una región más amplia - la Iberoamericana - gracias a vuestro apoyo y compromiso. Referencias 1. Centro Superior para la Enseñanza Virtual, 2. IberVirtual Educación e Inclusión, 3. OCDE, Organización para la Cooperación y el Desarrollo Económicos : Perspectivas Económicas de América Latina 2012: Transformación del Estado para el Desarrollo, OECD Publishing (2012). 4. Dirección General de Estadísticas, Encuestas y Censos. Gobierno de Paraguay; Anuario Estadístico del Paraguay 2010, DGEEC (2012). 5. Dussel, I., Quevedo, L.A.: Educación y Nuevas Tecnologías: Los desafíos pedagógicos ante el mundo digital. Consulta en línea en 102

111 La Investigación e Innovación en TIC como Motor de Castilla-La Mancha XXII Curso de Verano de Informática Albacete, Julio 2012 Nuevos paradigmas de interacción, la próxima frontera es Pascual González Laboratorio de Interacción con el Usuario e Ingeniería del Software (LoUISE) Instituto de Investigación en Informática de Albacete Universidad de Castilla-La Mancha Albacete, Spain Resumen. En los últimos años se ha producido una importante revolución en el modo en que se manejan de los sistemas informáticos, en definitiva en cómo se interacciona con ellos. Derivados principalmente del ámbito de los juegos, han aparecido nuevos modos de interacción que están revolucionando la informática y tienden a dejar obsoletas las tradicionales interfaces de ventanas. Estos nuevos modos de interacción se están convirtiendo en verdaderos exponentes de una nueva frontera tecnológica que está abriendo a la informática nuevos escenarios de uso. Por ello, en este artículo, se realiza un rápido repaso de la evolución del desarrollo de los paradigmas de interacción y se presentan algunas de las tendencias actuales y futuras en este ámbito, centrándonos principalmente en aspectos como la multimodalidad, elemento esencial que potencia e enriquece la comunicación entre el hombre y la máquina. A su vez dentro de esta multimodalidad vamos a centrarnos en el sentido del tacto uno de lo sentidos que más complementa a otros y que ofrece mayor nivel de realismo a los ámbitos virtuales. Palabras Clave: HCI, interfaces multimodales, interacción háptica. 1 Introducción La informática y el desarrollo de sistemas software es una ciencia con más de medio siglo de antigüedad, aunque hasta la aparición de los ordenadores personales y los sistemas de ventanas no alcanzó la popularidad suficiente para ser considerada un sistema ampliamente implantado en la sociedad. Este gran hito ha permitido que hoy en día un gran número de personas de todas las edades utilicen de manera frecuente los sistemas informáticos tanto en sus ámbitos de trabajo o estudio como en el ocio. Por otra parte, en estos momentos los ordenadores se han incorporado a la mayoría de aparatos que manejamos en nuestra vida diaria, lo cual está provocando que cada día se produzca una mayor fusión de los distintos medios. En este momento, los teléfonos se han convertido en potentes ordenadores o los televisores tienen capacidades que van más allá de seleccionar uno de los canales digitales que se emiten por los sistemas convencionales, apareciendo un nuevo concepto de televisión interactiva. Todo ello está abriendo nuevos modos de interaccionar con los sistemas informáticos y, por tanto, definiendo uno de los principales aspectos de la próxima frontera en el ámbito del manejo de sistemas informáticos. 103

112 1.1 Un poco de historia Desde el comienzo de la informática ha habido necesidad de introducir información en los sistemas informáticos y obtener información fruto del procesamiento de dichos datos de entrada. En todo caso, los primeros ordenadores como el ENIAC o el MARK I (figura1) requerían de usuarios muy expertos para su manejo y, por tanto, estaban muy alejados del modo en que hoy en día podemos entender esta comunicación con los ordenadores. Fig. 1. ENIAC (IBM 1943) y MARK I (Harvard University Cruft Photo Laboratory 1944). Hay que esperar a la década de los 60 en la que aparecen los primeros trabajos en el ámbito de la investigación que sientan la base de lo que más tarde fueron los dispositivos que revolucionaron el mundo de los ordenadores (figura 2). Fig. 2. SketchPad (Ivan Sutherland s 1963) y primer mouse (Doug Engelbart 1964) En todo caso, la gran revolución empieza a mediados de los años 70 con la llegada del Xerox Alto (figura 3-a) y se consolida con la aparición del Apple Lisa (figura 3-b) desarrollado a principios de los años ochenta por Apple Computer. Pero principalmente con Macintosh 128K (figura 3-c), lanzado en enero de 1984 al precio de dólares basado en las propuestas de Xerox y considerado el primer ordenador personal comercializado con éxito, en el que se incorporan la mayoría de los elementos que podemos encontrar hoy en día en los ordenadores personales basados en los conceptos WIMP (Windows, Icons, Menus, Pointer). Junto al desarrollo de la tecnología, durante estos años la Interacción Persona- Ordenador o Human-Computer Interaction (HCI) ha dado lugar un ámbito científico multidisciplinar que le ha permitido avanzar de manera considerable. Esta evolución se ha visto acompañada de eventos como la aparición en 1969 de la revista 104

113 International Journal of Human-Computer Studies o la creación en 1982 del grupo de interés en HCI de la ACM (SIGCHI). a b c Fig. 3. a) Xerox Alto, desarrollado en el Xerox Park a mediados de los 70; b) Apple Lisa lanzado al mercado en 1983; c). Macintosh 128K puesto con éxito en el mercado en Tras estos años la HCI se ha constituido como una ciencia sólida en continuo crecimiento que se apoya en cuatro grandes aspectos (figura 4). En primero lugar tenemos que tener en cuenta los aspectos humanos y en segundo lugar los aspectos puramente tecnológicos, pero no hay que olvidar que, como todo software, se debe desarrollar siguiendo principios ingenieriles y, por último, su uso se desarrolla en un contexto social que afecta también de manera clara a su uso. Este ámbito amplio hace que se requieran enfoques multidisciplinares para abordar este problema y qué los aspectos tecnológicos, en algunos casos, no sean los principales factores a tener en cuenta. Fig. 4. Distintos aspectos de la interacción persona-ordenador. 105

114 1.2 Los interfaces WIMP un estándar limitado Tras la aparición de los primeros ordenadores personales a mediados de los 80, las interfaces WIMP (figura 5) se han convertido en un estándar de la industria del software, facilitando la incorporación al vocabulario de la calle de conceptos como ventana, icono, menú o puntero. Este uso estándar ha facilitado la difusión de los sistemas informáticos, llegando a casi todos los ámbitos de la sociedad y no circunscribiéndose sólo a ámbitos empresariales como en sus orígenes. Fig. 5. Ejemplo de interfaz WIMP. En todo caso, el manejo de este tipo de interfaces no explota de manera clara las capacidades humanas de manera amplia, adaptándose a un ser que apunta con un dedo y que mira con un solo ojo. Estas limitaciones han hecho que los tipos de aplicaciones en los que se han desarrollado las soluciones informáticas hayan estado ligadas a dominios muy concretos. En todo caso, la aparición de otros modos de interacción está facilitando que hoy pensemos en dominios de aplicación mucho más amplios. Por tanto, nos encontramos en una nueva frontera dónde las interfaces WIMP están dando paso a un nuevo tipo de paradigmas enmarcados dentro de lo que, desde hace algunos años, se ha denominado soluciones post-wimp [1] (figura 6). Fig. 6. Ejemplo de interfaz post-wimp. En concreto una aplicación de realidad virtual inmersiva con visión estereoscópica ejecutada dentro de una Cave. 106

115 Estas nuevas interfaces post-wimp no estarán basadas únicamente en widgets 2D como los menús, formularios, barras de herramientas, etc., sino que también se incorporaran elementos ligados a interfaces 3D multisensoriales o multimodales más apropiados para la persona, que es un ser tridimensional que usa todos sus sentidos para desenvolverse en el espacio. De esta forma, al ampliar el número de canales, se amplifica la capacidad de captación de información y de expresión de estímulos que ayudan a los sistemas informáticos a ofrecer respuestas más acordes a los que el usuario espera recibir de estos sistemas. 2 Interfaces post-wimp, nuevos paradigmas de interacción Como hemos indicado, hoy en día están surgiendo nuevos modos de comunicarse con los sistemas informáticos que van más allá del paradigma de escritorio ligado a los denominados interfaces WIMP. En todo caso, aunque, de manera genérica, los hemos denominado a todos con el concepto post-wimp, dentro de este término se esconden características diferenciadoras que vamos a intentar repasar. Pero antes de entrar en la descripción de esos sistemas es importante conocer mejor las capacidades del ser al que van dirigidos los interfaces, pues de tras este estudio podemos conocer mejor qué se puede esperar de esta nueva generación de interfaces. 2.1 Habilidades y capacidades humanas Como he indicado, antes de pasar a describir los nuevos paradigmas de interacción es importante conocer quién es y qué características básicas tiene el ser que va a manejar los nuevos sistemas diseñados. Por ello vamos a realizar un rápido repaso a algunas de las habilidades que caracterizan a los humanos. En primer lugar, una de las características fundamentales de los humanos es su capacidad de comunicarse utilizando a la vez múltiples canales. Esto hace que la comunicación sea muy rica y diversa adaptándose a los distintos entornos y potenciando el canal más adecuado para cada uno de ellos. Junto a las comunicación, otro aspecto relevante es que los humanos tenemos la capacidad de mover partes de nuestro cuerpo tanto para desplazarnos como para manipular objetos. Esta capacidad motora nos permite desenvolvernos en un espacio tridimensional que debemos explorar, a la vez que también nos permite manipular objetos en este espacio. Otra característica relevante es la utilización de diferentes sentidos para percibir distintos aspectos de nuestro entorno. En este caso, no todos los sentidos tienen la misma importancia pero sirven para potenciar estímulos y sensaciones. En el caso de los humanos el sentido más desarrollado es del la vista, sentido muy explotado en las interfaces WIMP, pero también es cierto que el ser humano utiliza otros sentidos como el oído, el sabor, el olfato o el tacto para completar su percepción de la realidad. A su vez, ante la falta de uno de estos sentidos intenta potenciar otros que le permitan 107

116 sustituir, en cierta medida, el papel del sentido perdido para poder desenvolverse en su entorno. Finalmente, es importante conocer el papel del cerebro como elemento esencial del comportamiento humano. Por tanto, el conocimiento de los aspectos cognitivos que rigen el comportamiento humano también es de especial relevancia si queremos hacer interfaces que se adapten mejor a las características de los seres objeto de nuestros sistemas. En cualquier caso, es importante indicar que aunque todos los seres humanos tenemos estas características, no todos se comportan igual e incluso un mismo individuo se comporta de manera diferente, por ejemplo utiliza distintos sentidos, ante los distintos contextos o entornos en los que se encuentra. Como podemos apreciar el ser al que van a ir dirigidos nuestros sistemas es un ser más complejo que el que podría manejar una interfaz WIMP (un solo dedo y un solo ojo). Esta complejidad también nos ofrece un amplio espectro de posibilidades a la hora de diseñar el modo en que nuestro sistema se va a comunicar con este ser. Por ello, a continuación vamos a analizar algunas de las tendencias en el diseño de interfaces que pretenden acercarse más a estas características que describen a los seres humanos. 2.2 Características de los sistemas interactivos Como hemos visto en el apartado anterior, si queremos explotar en mayor medida las características de los seres humanos debemos pensar en que las interfaces deben ampliar las capacidades expresivas. En primer lugar las interfaces no sólo deben utilizar el sentido de la vista como canal de comunicación, sino que deben explorar las capacidades que ofrecen la multimodalidad aportada por el uso simultáneo de varios canales de comunicación. A su vez, por una parte, los usuarios que van a manejar el sistema son distintos y, por otra, el espacio en el que va ser utilizados estos sistemas ya no es la oficina, ni una mesa de escritorio, sino que la movilidad de los nuevos dispositivos hace más complejo el diseño de un sistema para estas diferentes situaciones o entornos. En esta situación la idea de interfaces adaptativos es esencial para abordar este contexto cambiante. Igualmente, el mundo en el que se desenvuelven los humanos es de naturaleza tridimensional, por lo que la capacidad de manejar objetos tridimensionales es muy importante si queremos reducir la distancia entre los artefactos que diseñamos y los usuarios a los que están destinados. En este ámbito de explotar la característica tridimensional, encontramos soluciones ligadas a entornos de realidad virtual y realidad mixta, pero también podemos pensar en el valor que ofrecen los nuevos interfaces tangibles (figura 7), los cuales permiten utilizar objetos físicos para manipular las interfaces. 108

117 Fig. 7. Ejemplo de interfaz tangible en el que los propios objetos situados en el espacio de interacción son elementos de la interfaz. A su vez, el entorno en el que se desenvuelve el usuario está dotado de dispositivos que pueden comunicarse entre sí para facilitar las tareas que el usuario debe realizar. Surge aquí la computación ubicua, en donde el usuario puede recoger información de distintos dispositivos y estos a su vez pueden comunicarse y coordinarse para facilitar la consecución de los objetivos para los que están diseñados. Finalmente, los sistemas, cada vez más, tienen en cuenta que los usuarios trabajan en general en un contexto social y organizativo en el que hay ciertas tareas que deben realizarse en grupo. Para explotar esta dimensión social aparecen los sistemas colaborativos en los que el concepto de usuario, como ser al que va destinado el sistema, se enriquece con la incorporación del grupo y las interfaces deben adaptarse a estas nuevas necesidades ligadas a la colaboración entre individuos. De manera rápida y resumida los nuevos ámbitos en los que se van a desarrollar los sistemas interactivos del futuro van a mezclar multimodalidad, adaptación, entornos virtuales, interfaces tangibles, computación ubicua y colaboración. En los siguientes apartados nos vamos a centrar en los aspectos relativos a las interfaces multimodales y en concreto en las interfaces hápticas como uno de los aspectos más relevantes del futuro próximo 3 Interfaces de Usuario multimodales En nuestra interacción diaria, estamos acostumbrados a percibir la información del entorno que nos rodea a través de los sentidos, y dicha información no llega de manera aislada, sino que, en la mayoría de las situaciones, recibimos información de distinta naturaleza a través de los distintos sentidos, información que nuestro cerebro integra, facilitando que se puedan realizar acciones o que se pueda interpretar lo que está teniendo lugar a nuestro alrededor. Del mismo modo, la interacción multimodal es aquella que facilita al usuario varias formas y modos de interactuar con el sistema de manera simultánea. Aunque cuando se habla de interfaces multimodales se suele 109

118 centrar la atención en los canales de entrada al sistema, la multimodalidad también puede expresarse en los canales de salida que ofrece el sistema al usuario y que le permiten comprender mejor el resultado de su interacción. Aunque el estudio de interfaces multimodales no es nuevo, pudiendo remontarnos a los primeros trabajos de Richard Bolt en el MIT con el sistema Put-That-There [2], si es cierto que su incorporación a los sistemas comerciales es muy reciente y se debe principalmente a la aparición de nuevos dispositivos que requieren la utilización de sistemas multimodales para asegurar una mejor interacción en distintos contextos (por ejemplo un navegador utilizado en un coche mezcla la imagen del plano en el que se mueve el vehículo con la voz que avisa de las maniobras que hay que realizar). Si partimos del Modelo de Acción de Norman [3] el proceso de interacción multimodal de una persona con una máquina se puede dividir en varios estados [4] (figura 8). El primer estado es el de decisión, en el cual se crea el mensaje, conscientemente a partir de lo que se quiera, e inconscientemente a través de las emociones expresadas y la atención que se presta. El segundo estado es el de acción, donde la comunicación se lleva a cabo por parte del usuario, a través del habla, los gestos, y/o la expresión facial. De forma similar en la máquina tenemos cuatro estados durante la comunicación. En primer lugar, dentro del estado de percepción el sistema hará uso de distintos dispositivos para captar la mayor cantidad de información posible. Tras ello, los mensajes son fusionados en el estado de interpretación, donde el sistema multimodal intentará dar significado a las distintas informaciones que han sido captadas en el estado anterior. Tras estos estados, en el estado de computación se procede a generar la respuesta del sistema, en el cual a través de un proceso de fisión el sistema determina las modalidades de salida más relevantes en función de características como el entono (en el coche, en un espacio ruidoso, etc.), el perfil del usuario (anciano, discapacitado, etc.) o en función del tipo de dispositivo del que se dispone para enviar información al usuario. Tras ello, el usuario en su estado de percepción deberá utilizar sus sentidos para captar los estímulos emitidos por el sistema y, finalmente, en su estado de interpretación procederá a darle significado. En todo caso, en este ciclo es importante indicar que en general los estímulos de salida que emite el sistema no suelen tener la calidad de las señales que emite el mundo real. Por ejemplo, con los sistemas actuales en muy difícil simular el estimulo del tacto, así a veces la complementariedad de otros sentidos pueden ayudar a solventar estas limitación. Por ejemplo, para que una persona perciba una mayor o menor dureza de un objeto se puede utilizar una estimulación auditiva que se pueda relacionar en función de su intensidad con distintos niveles de dureza y sin cambiar los parámetros de la estimulación háptica [5]. Estas situaciones hacen que el diseño de los estímulos de salida sea una tarea compleja que debe intentar que el cerebro asocie los estímulos recibidos con lo que intenta comunicar el sistema. 110

119 Fig. 9. Representación del ciclo de interacción de un sistema multimodal [4]. Como vemos en el ciclo anterior, comparado éste con el producido con otros tipos de interacción persona-ordenador, la interacción multimodal busca ofrecer al usuario una interacción más natural y transparente, utilizando distintos canales de comunicación a la vez. Con ello pretenden ofrecer una forma más fácil e intuitiva de usar los sistemas informáticos, aumentando el nivel y la capacidad de expresividad. En definitiva, los sistemas multimodal tienen el potencial de mejorar la interacción de diferentes formas: Mejorando la robustez del sistema, debido a que se combinan diferentes fuentes de información. Aumentando la flexibilidad de personalización de las interfaces, basadas en el usuario y en el contexto. Aumentan la información que se puede transmitir en un instante de tiempo y, por tanto, el procesamiento de esta información puede ser más preciso En todo caso, este tipo de interacción tiene dos tareas complejas, como son la fusión de información de entrada y la fisión o generación de estímulos de salida. A su vez, tanto la percepción como la acción, dentro del ámbito de la máquina, dependen fuertemente de los dispositivos existentes y de su capacidad de captar o producir estímulos de manera precisa y realista. En todo caso, al igual que sucede con las personas que tienen alguna discapacidad y, por tanto, tienen problemas con el uso de algún sentido, el sistema puede utilizar otros sentidos para interpretar informaciones o generar informaciones de salida que el cerebro humano puede asociar a otro tipo de estímulos. Los canales de comunicación más frecuentemente usados en la interacción entre el sistema y la persona ligados a la tarea de fisión son el visual, auditivo y el háptico (fuerza/táctil). En todo caso, la multimodalidad no sólo se refiere a la suma de la realimentación visual, auditiva y háptica, ya que existen otros procesos sensoriales 111

Libro Juego Digital basado en Interfaces de Usuario Tangibles Comunicación

Libro Juego Digital basado en Interfaces de Usuario Tangibles Comunicación Libro Juego Digital basado en Interfaces de Usuario Tangibles Comunicación Resumen La lectura es una actividad que estimula capacidades cognitivas como son: agilidad mental, el lenguaje, la toma de decisiones,

Más detalles

Vicerrectorado de Investigación Oficina de Patentes y Valorización

Vicerrectorado de Investigación Oficina de Patentes y Valorización TITULO PANELES INFORMATIVOS INTERACTIVOS ABSTRACT: Investigadores de la Universidad de Castilla La Mancha desarrollan aplicativos de interacción móvil. Básicamente, partiendo de espacios, zonas, o paneles

Más detalles

Curso de Android con Java

Curso de Android con Java Todos los Derechos Reservados Global Mentoring Experiencia y Conocimiento para tu Vida 1 Este es un tiempo único para el mundo de los celulares, en particular de los Smartphones. Este tipo de dispositivos

Más detalles

ARQUITECTURAS ORIENTADAS A SERVICIOS. SOA en la Seguridad Social. 48 boletic

ARQUITECTURAS ORIENTADAS A SERVICIOS. SOA en la Seguridad Social. 48 boletic ARQUITECTURAS ORIENTADAS A SERVICIOS SOA en la Seguridad Social por Mario triguero garrido 48 boletic El deber de ofrecer al ciudadano el mejor servicio ha sido siempre la motivación por la cual la Gerencia

Más detalles

Facultad de Ingeniería Informática. Informe de las Prácticas Profesionales

Facultad de Ingeniería Informática. Informe de las Prácticas Profesionales Facultad de Ingeniería Informática CEIS Informe de las Prácticas Profesionales Título: Informatización de los Procesos de Negocio Solicitud de Trabajo Extra laboral en el CITI, a través de la BPMS BizAgi

Más detalles

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software.

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. . TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. Índice 1 INTRODUCCIÓN 2 2 CARACTERÍSTICAS 2 2.1 Características del cliente...2 2.2 Características

Más detalles

José Carlos García Cabrero Universidad Nacional de Educación a Distancia (UNED, España) Correo-e: jcgarcia@flog.uned.es

José Carlos García Cabrero Universidad Nacional de Educación a Distancia (UNED, España) Correo-e: jcgarcia@flog.uned.es Consideraciones sobre el de diseño de contenidos para los teléfonos móviles de tercera generación: materiales didácticos para la tecnología del futuro. José Carlos García Cabrero Universidad Nacional de

Más detalles

Luis Esteban Peñaherrera Sandoval Ing. de Software

Luis Esteban Peñaherrera Sandoval Ing. de Software DESARROLLO DE UN SISTEMA DE APRENDIZAJE INTERACTIVO PARA EL ÁREA DEL IDIOMA INGLÉS CON EL SOPORTE DEL KINECT DE MICROSOFT- CASO PRÁCTICO PARA NIÑOS DE 6 A 8 AÑOS EN EL CENTRO EDUCATIVO ILINIZAS. Luis Esteban

Más detalles

Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta

Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta Gerencia de Procesos de Negocio (Business Process Management, BPM). Lic. Patricia Palacios Zuleta (Business Process Management, BPM). La Gerencia de los Procesos del Negocio: Se define como: "integración

Más detalles

w w w. s p y r o t o u c h. c o m

w w w. s p y r o t o u c h. c o m w w w. s p y r o t o u c h. c o m Aplicaciones empresariales de movilidad SPYRO TOUCHes un conjunto modular de Apps empresariales, concebidas desde su análisis y desarrollo, para dar solución a los distintos

Más detalles

Oferta tecnológica: Herramienta para el desarrollo de sistemas multimedia de navegación pedestre

Oferta tecnológica: Herramienta para el desarrollo de sistemas multimedia de navegación pedestre Oferta tecnológica: Herramienta para el desarrollo de sistemas multimedia de navegación pedestre Oferta tecnológica: Herramienta para el desarrollo de sistemas multimedia de navegación pedestre RESUMEN

Más detalles

CAPÍTULO 3. AMBIENTES DE ENSEÑANZA ASISTIDOS POR COMPUTADORA

CAPÍTULO 3. AMBIENTES DE ENSEÑANZA ASISTIDOS POR COMPUTADORA CAPÍTULO 3. AMBIENTES DE ENSEÑANZA ASISTIDOS POR COMPUTADORA 3.1 CAI (Computer Assisted Instruction). La enseñanza asistida por computadora consiste en tecnologías de la información que permiten al estudiante

Más detalles

Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING. Ruth Martínez ( ruth.martinez@emascaro.com)

Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING. Ruth Martínez ( ruth.martinez@emascaro.com) Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING Ruth Martínez ( ruth.martinez@emascaro.com) Identificaremos los recursos que se incluyen en las plataformas y, en función de las

Más detalles

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web.

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web. Microsoft Office SharePoint Server 2007 es un conjunto integrado de características de servidor que puede contribuir a mejorar la eficacia organizativa al ofrecer completas funciones de administración

Más detalles

Las interfaces de usuario están evolucionando hacia interfaces de

Las interfaces de usuario están evolucionando hacia interfaces de Descripción Formal de Propiedades Esenciales de las Interfaces de Usuario Distribuidas 1 Interfaces de Usuario Distribuidas. Resumen El concepto tradicional de interfaz de usuario está cambiando debido

Más detalles

El Contexto. Las Nuevas Tecnologías

El Contexto. Las Nuevas Tecnologías Introducción Hablaremos aquí de las Nuevas Tecnologías de la Información y su impacto en la educación, del e-learning y los Entornos Virtuales de Aprendizaje, de cómo se conforma el triángulo de del e-learning,

Más detalles

Fecha Publicación: 3 de Noviembre 2009. BPM Business Process Management Gestión de Procesos de Negocio

Fecha Publicación: 3 de Noviembre 2009. BPM Business Process Management Gestión de Procesos de Negocio BPM Business Process Management Gestión de Procesos de Negocio Palabras Clave: BPM, Business Process Management, Workflow, Gestión de Procesos de Negocio, Reingeniería de Procesos, Optimización de Procesos,

Más detalles

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio).

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio). 1 GLOSARIO A continuación se definen, en orden alfabético, los conceptos básicos que se han abordado a lo largo del desarrollo de la metodología para la gestión de requisitos bajo la Arquitectura Orientada

Más detalles

Diseño del Sistema de Información

Diseño del Sistema de Información Diseño del Sistema de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS...2 ACTIVIDAD DSI 1: DEFINICIÓN DE LA ARQUITECTURA DEL SISTEMA...7 Tarea DSI 1.1: Definición de Niveles de Arquitectura...9 Tarea DSI 1.2:

Más detalles

Diseño del Sistema de Información

Diseño del Sistema de Información Diseño del Sistema de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS... 2 ACTIVIDAD DSI 1: DEFINICIÓN DE LA ARQUITECTURA DEL SISTEMA... 7 Tarea DSI 1.1: Definición de Niveles de Arquitectura... 9 Tarea DSI

Más detalles

Virtualización de Escritorios NComputing

Virtualización de Escritorios NComputing Virtualización de Escritorios NComputing Resumen Introducción Tendencia de los mercados informáticos INFORME EJECUTIVO Todos estamos acostumbrados al modelo de las PCs, que permiten a cada usuario tener

Más detalles

Novedades. Introducción. Potencia

Novedades. Introducción. Potencia Introducción Basado en el demostrado rendimiento y flexibilidad de la versión 8.5, Crystal Reports 9 presenta una amplia variedad de avanzadas funciones para que el diseño, entrega e integración de informes

Más detalles

Multimodalidad en Software AG Javier Cámara

Multimodalidad en Software AG Javier Cámara Multimodalidad en Software AG Javier Cámara Arquitecto de Software, Software AG España 18 de Noviembre de 2004 Propósito de este documento Enumerar y describir actividades pasadas presentes y futuras de

Más detalles

NUEVA WEB DE LA CONSEJERÍA DE INNOVACIÓN, CIENCIA Y EMPRESA: LA INNOVACIÓN COMO NEXO COMÚN DE UN DESARROLLO WEB

NUEVA WEB DE LA CONSEJERÍA DE INNOVACIÓN, CIENCIA Y EMPRESA: LA INNOVACIÓN COMO NEXO COMÚN DE UN DESARROLLO WEB NUEVA WEB DE LA CONSEJERÍA DE INNOVACIÓN, CIENCIA Y EMPRESA: LA INNOVACIÓN COMO NEXO COMÚN DE UN DESARROLLO WEB Jefe del Servicio de Informática Consejería de Innovación, Ciencia y Empresa Jefe de Proyectos

Más detalles

BOLETÍN DE NOVEDADES Barcelona, junio de 2008

BOLETÍN DE NOVEDADES Barcelona, junio de 2008 BOLETÍN DE NOVEDADES Barcelona, junio de 2008 Introducción El objeto de este documento es presentar y describir brevemente las principales actuaciones en los últimos meses de Carver en algunos de sus clientes,

Más detalles

Historia de revisiones

Historia de revisiones Binary Rain Glosario Versión 1.1 Historia de revisiones Fecha Versión Descripción Autor 17/08/2012 1.0 Creación del documento Carolina Trias 18/08/2012 1.1 Revisado y corregido por SQA Mercedes Marzoa

Más detalles

Technical Report #DIAB. Juan E. Garrido, Víctor M. R. Penichet, María D. Lozano, José A. F. Valls, Carlos G. Bello, Irma Marset.

Technical Report #DIAB. Juan E. Garrido, Víctor M. R. Penichet, María D. Lozano, José A. F. Valls, Carlos G. Bello, Irma Marset. Interacción basada en Movimiento: Asistente Virtual para la Creación de Posturas, Ejercicios y Tablas. Ejemplos de Rehabilitación de Equilibrio y Sentado Technical Report #DIAB Juan E. Garrido, Víctor

Más detalles

Capítulo 5. Cliente-Servidor.

Capítulo 5. Cliente-Servidor. Capítulo 5. Cliente-Servidor. 5.1 Introducción En este capítulo hablaremos acerca de la arquitectura Cliente-Servidor, ya que para nuestra aplicación utilizamos ésta arquitectura al convertir en un servidor

Más detalles

SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento

SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento Soluciones SAP para pequeñas y medianas empresas SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento SAP BusinessObjects Edge BI, paquete

Más detalles

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL Página 1 de 21 CUALIFICACIÓN DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC154_3 Versión 5 Situación RD 1087/2005 Actualización

Más detalles

PLATAFORMA DIGITAL PARA IMPARTIR ENSEÑANZA ONLINE

PLATAFORMA DIGITAL PARA IMPARTIR ENSEÑANZA ONLINE PLATAFORMA DIGITAL PARA IMPARTIR ENSEÑANZA ONLINE La mayoría de las publicaciones sobre educación es habitual manifestar que en la sociedad actual, dominada por internet y las tecnologías digitales, se

Más detalles

La integración de información. Presente y futuro de la empresa moderna

La integración de información. Presente y futuro de la empresa moderna La integración de información. Presente y futuro de la empresa moderna Ing. Josue Carralero Iznaga, MSc. ISPJAE, Facultad de Ingeniería Informática, Departamento de Ingeniería de Software. Complejo de

Más detalles

IFCD0210 Desarrollo de Aplicaciones con Tecnologías Web (Dirigida a la Acreditación de las Comptencias Profesionales R.D.

IFCD0210 Desarrollo de Aplicaciones con Tecnologías Web (Dirigida a la Acreditación de las Comptencias Profesionales R.D. IFCD0210 Desarrollo de Aplicaciones con Tecnologías Web (Dirigida a la Acreditación de las Comptencias Profesionales R.D. 1224/2009) IFCD0210 Desarrollo de Aplicaciones con Tecnologías Web (Dirigida a

Más detalles

Plataforma Tecnológica Qué es Marino Imagine? La integración de los requerimientos de sistemas informáticos en la determinados sectores. infraestructura de la empresa ha sucedido de forma Sus carencias

Más detalles

SERVICIOS: EXPLORACIONES EN SOA y WEB.

SERVICIOS: EXPLORACIONES EN SOA y WEB. SERVICIOS: EXPLORACIONES EN SOA y WEB. López, G. 1 ; Jeder, I 1.; Echeverría, A 1.; Grossi, M.D. 2 ; Servetto, A 2.; Fierro, P. (PhD.) 3 1. Laboratorio de Informática de Gestión - Facultad de Ingeniería.

Más detalles

Detalle de nuestra Oferta de Servicios

Detalle de nuestra Oferta de Servicios Detalle de nuestra Oferta de Servicios Oferta de Servicios 2007 La experiencia acumulada por el equipo de AulaGlobal nos permite ofrecer una más amplia gama de servicios relacionados con la capacitación

Más detalles

PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES. Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa

PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES. Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa Agenda Conceptos Iniciales Características del M-learning

Más detalles

Visualización y modelado de elementos geográficos en dispositivos móviles. Capítulo 5: Aplicaciones cliente

Visualización y modelado de elementos geográficos en dispositivos móviles. Capítulo 5: Aplicaciones cliente Capítulo 5: Aplicaciones cliente 46 5.1 La aplicación cliente en la Pocket PC La aplicación desarrollada para el cliente en un dispositivo móvil como corresponde a la Pocket PC necesita una capa muy delgada

Más detalles

CAPÍTULO V PROPUESTA DE LA SOLUCIÓN

CAPÍTULO V PROPUESTA DE LA SOLUCIÓN CAPÍTULO V PROPUESTA DE LA SOLUCIÓN 5.1 Introducción En los últimos tres años la entidad financiera ha venido sufriendo cambios que le han permitido crecer y pasar de ser una Sociedad Financiera a un Banco

Más detalles

Denominación de la materia. N créditos ECTS = 36 carácter = OBLIGATORIO SISTEMAS DE SOFTWARE. Ubicación dentro del plan de estudios y duración

Denominación de la materia. N créditos ECTS = 36 carácter = OBLIGATORIO SISTEMAS DE SOFTWARE. Ubicación dentro del plan de estudios y duración Denominación de la materia SISTEMAS DE SOFTWARE N créditos ECTS = 36 carácter = OBLIGATORIO Ubicación dentro del plan de estudios y duración La materia Sistemas de Software está formada por 6 asignaturas

Más detalles

Accesibilidad y atención al ciudadano. Directora Tecnologías Accesibles. Technosite (Fundación ONCE)

Accesibilidad y atención al ciudadano. Directora Tecnologías Accesibles. Technosite (Fundación ONCE) Accesibilidad y atención al ciudadano Lourdes González Perea Directora Tecnologías Accesibles Technosite (Fundación ONCE) Estructura de la exposición Breve presentación de Technosite. Contemplando la diversidad.

Más detalles

DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA

DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA 1 Adaptación y conversión Muchas empresas disponen de contenidos muy completos en formato papel, utilizados en educación presencial o bien en formación a distancia

Más detalles

Madrid, 20 de Noviembre de 2007. Las TIC en el futuro de la Educación: una visión de la industria

Madrid, 20 de Noviembre de 2007. Las TIC en el futuro de la Educación: una visión de la industria Madrid, 20 de Noviembre de 2007 Las TIC en el futuro de la Educación: una visión de la industria Índice 01 Situación actual 02 La estandarización como factor clave de éxito 03 Estrategias y prioridades

Más detalles

Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX)

Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX) Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX) Dra. Eleonora Acosta y MSc. Jossie Zambrano Asociación Colombiana de Ingenieros

Más detalles

Grado en Ingeniería del Software

Grado en Ingeniería del Software Grado en Ingeniería del Software Descripción de los módulos o materias FUNDAMENTOS CIENTÍFICOS PARA LA INGENIERÍA Bases científicas necesarias para cualquier ingeniero informático: Física, Álgebra, Análisis

Más detalles

Desarrollo de Aplicaciones con Tecnologías Web

Desarrollo de Aplicaciones con Tecnologías Web Desarrollo de Aplicaciones con Tecnologías Web Código: Modalidad: Distancia Duración: 100 Horas. Objetivos: La presente formación se ajusta al itinerario formativo del Certificado de Profesionalidad IFCD0210

Más detalles

TITULO: SERVICIO DE INFORMACIÓN A TRAVÉS DE UNA RED DE PUNTOS DE INFORMACIÓN ELECTRÓNICA EN ESPACIOS PÚBLICOS DE LA CIUDAD DE MADRID

TITULO: SERVICIO DE INFORMACIÓN A TRAVÉS DE UNA RED DE PUNTOS DE INFORMACIÓN ELECTRÓNICA EN ESPACIOS PÚBLICOS DE LA CIUDAD DE MADRID TITULO: SERVICIO DE INFORMACIÓN A TRAVÉS DE UNA RED DE PUNTOS DE INFORMACIÓN ELECTRÓNICA EN ESPACIOS PÚBLICOS DE LA CIUDAD DE MADRID Apoyado por: DOMINION S.A. 1.- Antecedentes/Problemática A la Dirección

Más detalles

SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio

SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio SET (Software Engineering Tutor). Una herramienta para la construcción guiada de modelos de dominio Arturo Cepeda Pérez, Sergio Bravo Martín, Francisco José García Peñalvo Universidad de Salamanca, Facultad

Más detalles

asired middleware XML Así-Red Servicios Telemáticos, S.L.L. w w w. a s i r e d. e s

asired middleware XML Así-Red Servicios Telemáticos, S.L.L. w w w. a s i r e d. e s w w w. a s i r e d. e s 1 INDICE Presentación Que nos permiten Sobre que actuan Que hacen Hasta donde alcanzan Arquitectura Tecnología Acceso Beneficios Ventajas Posibilidades A quienes va dirigido Como

Más detalles

Especificación de la secuencia de mensajes que se han de intercambiar. Especificación del formato de los datos en los mensajes.

Especificación de la secuencia de mensajes que se han de intercambiar. Especificación del formato de los datos en los mensajes. SISTEMAS DISTRIBUIDOS DE REDES 2.- MODELOS ORIENTADOS A OBJETOS DISTRIBUIDOS 2.1. Tecnologías de sistemas distribuidos Para la implementación de sistemas distribuidos se requiere de tener bien identificados

Más detalles

Ministerio de Educación, Cultura y Deporte. HTML5 en la educación. Módulo 8: Publicación.

Ministerio de Educación, Cultura y Deporte. HTML5 en la educación. Módulo 8: Publicación. Ministerio de Educación, Cultura y Deporte. HTML5 en la educación Módulo 8: Publicación. Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado 2012 Publicación de un proyecto web

Más detalles

CONFERENCIA REALIDAD AUMENTADA. Ingeniero CARLOS ENRIQUE ORTIZ RANGEL carlos.ortiz@tecnomovilidad.com

CONFERENCIA REALIDAD AUMENTADA. Ingeniero CARLOS ENRIQUE ORTIZ RANGEL carlos.ortiz@tecnomovilidad.com CONFERENCIA REALIDAD AUMENTADA Ingeniero CARLOS ENRIQUE ORTIZ RANGEL carlos.ortiz@tecnomovilidad.com Bogotá, Septiembre 2012 OBJETIVO GENERAL El objetivo es presentar un recorrido actualizado por las diferentes

Más detalles

LA INTRANET COMO PORTAL CORPORATIVO Técnicas de diseño y gestión

LA INTRANET COMO PORTAL CORPORATIVO Técnicas de diseño y gestión Curso On-line LA INTRANET COMO PORTAL CORPORATIVO Técnicas de diseño y gestión DIRECTOR Y TUTOR TIPO JOSE ANTONIO SÁNCHEZ MONTERO Jefe de Área de Documentación y Biblioteca. Comisión Nacional de Energía

Más detalles

RESUMEN DE LA SOLUCIÓN CA ERwin Modeling. Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial?

RESUMEN DE LA SOLUCIÓN CA ERwin Modeling. Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial? RESUMEN DE LA SOLUCIÓN CA ERwin Modeling Cómo puedo gestionar la complejidad de los datos y mejorar la agilidad empresarial? CA ERwin Modeling ofrece una perspectiva centralizada sobre las definiciones

Más detalles

Memoria de actividades ID11/071

Memoria de actividades ID11/071 Memoria de actividades Título del proyecto: Tecnología Cloud en la innovación docente ID11/071 AYUDAS DE LA UNIVERSIDAD DE SALAMANCA PARA LA INNOVACIÓN DOCENTE ATT: Vicerrectorado de Docencia 1 1. Relación

Más detalles

IBM Cognos Enterprise: Inteligencia de negocio y gestión del rendimiento potente y escalable

IBM Cognos Enterprise: Inteligencia de negocio y gestión del rendimiento potente y escalable : Inteligencia de negocio y gestión del rendimiento potente y escalable Puntos destacados Dota a los usuarios de su organización de las capacidades de business intelligence y de gestión del rendimiento

Más detalles

Una arquitectura indoor-lbs basada en SIG con servidores de mapas.

Una arquitectura indoor-lbs basada en SIG con servidores de mapas. Una arquitectura indoor-lbs basada en SIG con servidores de mapas. José Eduardo Córcoles LoUISE (Laboratorio de Interacción con el Usuario e Ingeniería del Software) Universidad de Castilla-La Mancha España

Más detalles

Capítulo 1. Groupware. 1.1 Groupware y CSCW. Groupware

Capítulo 1. Groupware. 1.1 Groupware y CSCW. Groupware Capítulo 1 Groupware La cooperación y la colaboración en equipos de trabajo son esenciales para la competitividad y por lo tanto de la supervivencia de cualquier empresa. El trabajar juntos es un requisito

Más detalles

CUALIFICACIÓN CONFECCIÓN Y PUBLICACIÓN DE PÁGINAS WEB PROFESIONAL. Nivel 2. Versión 5 Situación RD 1201/2007 Actualización

CUALIFICACIÓN CONFECCIÓN Y PUBLICACIÓN DE PÁGINAS WEB PROFESIONAL. Nivel 2. Versión 5 Situación RD 1201/2007 Actualización Página 1 de 18 CUALIFICACIÓN CONFECCIÓN Y PUBLICACIÓN DE PÁGINAS WEB PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 2 Código IFC297_2 Versión 5 Situación RD 1201/2007 Actualización

Más detalles

Construyendo una Intranet colaborativa para PyMES con SharePoint 2010

Construyendo una Intranet colaborativa para PyMES con SharePoint 2010 Construyendo una Intranet colaborativa para PyMES con SharePoint 2010 Descripción Microsoft SharePoint, también conocido como Microsoft SharePoint Products and Technologies, es una plataforma de colaboración

Más detalles

grado Ingeniería Grado en Ingeniería en desarrollo de contenidos digitales + Experto universitario en Desarrollo de proyectos de software

grado Ingeniería Grado en Ingeniería en desarrollo de contenidos digitales + Experto universitario en Desarrollo de proyectos de software grado Ingeniería Grado en Ingeniería en desarrollo de contenidos digitales + Experto universitario en Desarrollo de proyectos de software Sistemas Computacionales Diseño y Desarrollo de software Arquitectura

Más detalles

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB

DESARROLLO DE APLICACIONES CON TECNOLOGÍAS WEB DENOMINACIÓN: CON TECNOLOGÍAS WEB Código: IFCD0210 Familia profesional: Informática y Comunicaciones Área profesional: Desarrollo Nivel de cualificación profesional: 3 Cualificación profesional de referencia:

Más detalles

Herramientas de Software que posibilitan el BPM

Herramientas de Software que posibilitan el BPM Qué es BPM? BPM (Business Process Management) no es solamente una tecnología, sino en términos generales, una disciplina gerencial que trata a los procesos como bienes tangibles que contribuyen al desempeño

Más detalles

Historia de revisiones

Historia de revisiones Herbert Game Descripción de la Arquitectura Versión 1.8 Historia de revisiones Fecha Versión Descripción Autor 29/08/2011 1.0 Creación del documento Juan Pablo Balarini Máximo Mussini 30/08/2011 1.1 Actualización

Más detalles

EL DESARROLLO DE UN MODELO INFORMÁTICO PARA LA CONEXIÓN DE LAS

EL DESARROLLO DE UN MODELO INFORMÁTICO PARA LA CONEXIÓN DE LAS JORNADA SOBRE DOCENCIA DEL DERECHO Y TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN EL DESARROLLO DE UN MODELO INFORMÁTICO PARA LA CONEXIÓN DE LAS PLATAFORMAS VIRTUALES DE DIFERENTES UNIVERSIDADES QUE

Más detalles

Clasificación de Áreas y Subáreas para las inscripciones al Doctorado en Ciencias Informáticas

Clasificación de Áreas y Subáreas para las inscripciones al Doctorado en Ciencias Informáticas Área Algoritmos y Estructuras de Datos Arquitectura de computadoras Subárea - Algoritmos - Análisis de algoritmos - Estructuras de Datos - Verificación y certificación de programas - Lógicas para el desarrollo

Más detalles

PROGRAMACIÓN DE MÓDULO MÓDULO. Este módulo se imparte en 2º en el primer y segundo trimestre y tiene una carga docente de 126 horas.

PROGRAMACIÓN DE MÓDULO MÓDULO. Este módulo se imparte en 2º en el primer y segundo trimestre y tiene una carga docente de 126 horas. Página 1 de 14 DEPARTAMENTO INFORMATICA CURSO 2º CICLO FORMATIVO Desarrollo de Aplicaciones Web Diseño de Interfaces Web MÓDULO 1. Introducción. Este módulo se imparte en 2º en el primer y segundo trimestre

Más detalles

ASSECO / Localización y monitorización / TS Monitor

ASSECO / Localización y monitorización / TS Monitor ASSECO / Localización y monitorización / TS Monitor Sistema integral de monitorización y análisis de sistemas INTRODUCCIÓN TODO SU NEGOCIO EN UN MAPA INTERACTIVO WEB Un sistema de monitorización remoto

Más detalles

WebRatio. Otro camino para el BPM. Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8

WebRatio. Otro camino para el BPM. Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8 WebRatio Otro camino para el BPM Web Models s.r.l. www.webratio.com contact@webratio.com 1 / 8 El BPM El BPM (Business Process Management) no es solo una tecnología, además a grandes rasgos es una disciplina

Más detalles

MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales

MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales Alejandro Piedrahita Ospina, MSc. Profesor de tecnologías para enseñanza Maestría en Enseñanza de las Ciencias Exactas

Más detalles

Notas. Introducción. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow. Palabras claves: Groupware, Workflow, BPCM, WfMC.

Notas. Introducción. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow. Palabras claves: Groupware, Workflow, BPCM, WfMC. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow Palabras claves: Groupware, Workflow, BPCM, WfMC. Introducción A partir de la llegada de las computadoras personales al ambiente empresarial

Más detalles

Software para. franquiciasy. cadenasdetiendas ESSYSTEM.

Software para. franquiciasy. cadenasdetiendas ESSYSTEM. ESSYSTEM. Software para franquiciasy cadenasdetiendas Software para franquicias y cadenas de tiendas Presentación El sistema de franquicias y cadenas de tiendas propias se ha convertido en una fórmula

Más detalles

Taller: Redes y trabajo colaborativo entre profesores. Barbara de Benito Universidad Islas Baleares pimbbc@clust.uib.es

Taller: Redes y trabajo colaborativo entre profesores. Barbara de Benito Universidad Islas Baleares pimbbc@clust.uib.es Taller: Redes y trabajo colaborativo entre profesores Barbara de Benito Universidad Islas Baleares pimbbc@clust.uib.es Resumen: Uno de los usos potenciales de las redes en la educación son las posibilidades

Más detalles

AxxonSoft. Sistema. Intellect. Guía breve de usuario. Versión 1.0.0

AxxonSoft. Sistema. Intellect. Guía breve de usuario. Versión 1.0.0 AxxonSoft Sistema Intellect Guía breve de usuario Versión 1.0.0 Moscú 2010 Índice ÍNDICE... 2 1 INTRODUCCIÓN... 3 1.1 Propósito de este documento... 3 1.2 Propósito del sistema Intellect... 3 2 PREPARACIÓN

Más detalles

TECNOLOGÍA PARA GESTIÓN Y SUPERVISIÓN DE PERSONAL

TECNOLOGÍA PARA GESTIÓN Y SUPERVISIÓN DE PERSONAL TECNOLOGÍA PARA GESTIÓN Y SUPERVISIÓN DE PERSONAL ProxyGun en la nube... ProxyCloud Software web para gestión de rondas, servicios y mantenimientos diseñado para gestionar las actividades de personas y

Más detalles

Alfonso Martínez Moreno Consultor

Alfonso Martínez Moreno Consultor Alfonso Martínez Moreno Consultor 1. Qué es SharePoint? 2. SharePoint según los Analistas 3. SharePoint 2010 1. Sitios SharePoint 2. Búsqueda en SharePoint 3. Comunidades en SharePoint 4. Contenido en

Más detalles

GUÍA DOCENTE DE INTRODUCCIÓN A LA PROGRAMACIÓN DE VIDEOJUEGOS Y GRÁFICOS

GUÍA DOCENTE DE INTRODUCCIÓN A LA PROGRAMACIÓN DE VIDEOJUEGOS Y GRÁFICOS GUÍA DOCENTE DE INTRODUCCIÓN A LA PROGRAMACIÓN DE VIDEOJUEGOS Y GRÁFICOS La presente guía docente corresponde a la asignatura de Introducción a la Programación de Videojuegos y Gráficos (Videojuegos) del

Más detalles

Herramienta para la Administración y Estimación Ágil de Desarrollo de Software

Herramienta para la Administración y Estimación Ágil de Desarrollo de Software Herramienta para la Administración y Estimación Ágil de Desarrollo de Software Mario R. MORENO SABIDO Depto. de Sistemas y Computación, Instituto Tecnológico de Mérida Mérida, Yucatán 97118, México y Jorge

Más detalles

DISEÑO Y DESARROLLO DE PÁGINA WEB

DISEÑO Y DESARROLLO DE PÁGINA WEB DISEÑO Y DESARROLLO DE PÁGINA WEB TOTAL HORAS: 200 HORAS (100 PRESENCIALES 100 INVESTIGACIÓN) TOTAL CICLO: 16 SÁBADOS INTRODUCCIÓN En este Diplomado se establecen las bases y el método de trabajo necesario

Más detalles

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente En este capítulo definimos los requisitos del modelo para un sistema centrado en la mejora de la calidad del código fuente.

Más detalles

Universidad Digital. Conocimiento y compromiso. Experiencia para el futuro. Diálogo y consenso

Universidad Digital. Conocimiento y compromiso. Experiencia para el futuro. Diálogo y consenso Universidad Digital Pilar Aranda Ramírez Catedrática de Universidad Aspiro a ser la próxima Rectora de la Universidad de Granada La universalización de las TIC ha propiciado nuevas fórmulas de generar,

Más detalles

Desarrollo de una Aplicación Móvil para Revisar

Desarrollo de una Aplicación Móvil para Revisar Desarrollo de una Aplicación Móvil para Revisar Horarios de Atención de Tutores de la UNAD Development of a Movil Application for Check Over Office Hours of Tutors of the Unad Correa Rodríguez Arellys

Más detalles

Formarnos / Instructivo para tutores

Formarnos / Instructivo para tutores PROGRAMA DE FORMACIÓN DE DIRIGENTES EN GESTIÓN PÚBLICA Y SOCIAL Formarnos / Instructivo para tutores Universidad Nacional de Lanús / Vicerrectorado / Campus Virtual / 2015 Índice Ingreso a la plataforma

Más detalles

CICLO FORMATIVO DE GRADO SUPERIOR DE DESARROLLO DE APLICACIONES MULTIPLATAFORMA

CICLO FORMATIVO DE GRADO SUPERIOR DE DESARROLLO DE APLICACIONES MULTIPLATAFORMA CICLO FORMATIVO DE GRADO SUPERIOR DE DESARROLLO DE APLICACIONES MULTIPLATAFORMA 1) INFORMACIÓN GENERAL NOMBRE DEL CICLO Nº HORAS TITULACIÓN IDIOMA FAMILIA PROFESIONAL OBJETIVO (COMPETENCIA GENERAL) CFGS

Más detalles

Controle los Accesos del personal con la máxima seguridad

Controle los Accesos del personal con la máxima seguridad Gestión y Control de Accesos Avanzada en Arquitectura Cliente - Servidor Controle los Accesos del personal con la máxima seguridad www.advancedsoft.net Características de Advanced Access 6.2 (Access XP)

Más detalles

Capitulo 2. Trabajos Relacionados

Capitulo 2. Trabajos Relacionados Capitulo 2. Trabajos Relacionados A continuación se presentan las ideas de un conjunto de artículos analizados para llevar a cabo la definición, modelado y desarrollo de MACLEN (Modalidad de Aprendizaje

Más detalles

de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio?

de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio? RESUMEN DE LA SOLUCIÓN CA ERwin Modeling de qué manera se puede administrar la complejidad de los datos y mejorar la agilidad del negocio? agility made possible CA ERwin Modeling ofrece un entorno de modelado

Más detalles

Control del entorno para la diversidad funcional: Kora

Control del entorno para la diversidad funcional: Kora Control del entorno para la diversidad funcional: Kora José Alcalá Correa, María José Rodríguez Fórtiz, Carlos Rodríguez Domínguez Grupo GEDES. Escuela Técnica Superior de Ingeniería Informática y Telecomunicación.

Más detalles

2.1 Compuertas para Bases de Datos

2.1 Compuertas para Bases de Datos 1 Colección de Tesis Digitales Universidad de las Américas Puebla Romero Martínez, Modesto Uno de los aspectos mas importantes en un sistema multibase de datos es la forma en como llevar a cabo la comunicación

Más detalles

El mundo de la educación está cambiando

El mundo de la educación está cambiando El mundo de la educación está cambiando Si hay una palabra que define el momento que estamos viviendo esa es CAMBIO. El mundo de la educación está cambiando y eso es algo imparable. No sabemos si dentro

Más detalles

Registro Proyectos 2012 PROTOCOLO DE INVESTIGACIÓN (CR-02/2012) 1. DESCRIPCIÓN DEL PROYECTO

Registro Proyectos 2012 PROTOCOLO DE INVESTIGACIÓN (CR-02/2012) 1. DESCRIPCIÓN DEL PROYECTO PROTOCOLO DE INVESTIGACIÓN (CR-02/2012) Instituto Tecnológico de Morelia Institución Título del proyecto Refactorización de Aplicaciones Web (ReWeb) 1. DESCRIPCIÓN DEL PROYECTO 1.1 Resumen Este proyecto

Más detalles

Resumen. 1. Introducción. 2. Objetivos

Resumen. 1. Introducción. 2. Objetivos Propuesta para la Asignatura Sistemas Industriales en las Titulaciones de Informática F.A. Pujol, F.J. Ferrández, J.L. Sánchez, J. M. García Chamizo Dept. de Tecnología Informática y Computación Universidad

Más detalles

Mgter. Alejandro Ramos

Mgter. Alejandro Ramos Mgter. Alejandro Ramos Servidores Centralizados de Ficheros. Sistemas de Base de Datos. Sistemas Distribuidos. Evolución de la Tecnología Cliente Servidor 1 2 3 4 5 1982 1986 1990 1995 1995 - actualmente

Más detalles

Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado

Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado Ingeniería de Software con UML Unified Modeling Language Lenguaje Unificado de Modelado 1. Introducción Unified Modeling Languaje Fuente: Booch- Jacobson-Rumbauch y diversos sitios Internet, entre otros:

Más detalles

APIWin Full/Enterprise

APIWin Full/Enterprise SOFTWARE PARA CONTROL DE ACCESO El APIWin es parte de la suite de productos IN-Win, un conjunto de aplicaciones destinadas a controlar al personal interno y externo de una organización. El sistema para

Más detalles

Acuerdo de Nivel de Servicio del Centro de Servicios al Usuario. Gestión de Nivel de Servicio de SGS

Acuerdo de Nivel de Servicio del Centro de Servicios al Usuario. Gestión de Nivel de Servicio de SGS Acuerdo de Nivel de Servicio del Centro de Servicios al Usuario Gestión de Nivel de Servicio de SGS Vicerrectorado de TIC, Calidad e Innovación SISTEMA DE GESTIÓN DEL SERVICIO (SGS) Título Nombre del Fichero

Más detalles

SISTEMAS MÓVILES PERVASIVE. (Mobile Systems Pervasive) Recibido: 12/10/2013 Aprobado: 08/12/2013 RESUMEN

SISTEMAS MÓVILES PERVASIVE. (Mobile Systems Pervasive) Recibido: 12/10/2013 Aprobado: 08/12/2013 RESUMEN SISTEMAS MÓVILES PERVASIVE (Mobile Systems Pervasive) Recibido: 12/10/2013 Aprobado: 08/12/2013 Revista Ingeniería al Día. ISSN: XXXX - XXXX. Volumen I Edición No 1. Enero Diciembre del 2014 Arturo Henao

Más detalles